Project Icon

safeguards-shield

增强人工智能应用的安全防护开发工具

Safeguards Shield是一个旨在安全、可靠使用大型语言模型(LLMs)的开发者工具包。本工具包提供保护层功能,能够防御恶意输入并过滤模型输出,使AI应用从原型快速转向生产阶段。此外,包含超过20种即用型检测器,为生成式AI(GenAI)应用提供全面的安全保障,并助力缓解LLM的可靠性与安全隐患。工具包还支持监控事件、成本及关于AI的责任指标,支持应用的长期发展。

llm-guard - 大语言模型安全交互的全面防护工具
GithubLLM GuardProtect AI大语言模型安全开源项目数据泄漏
LLM Guard是由Protect AI设计的一款全面安全解决方案,专为保障大语言模型的安全互动而打造。它具备语言过滤、数据泄露预防和抗提示注入攻击等功能,确保互动安全和隐私。项目支持多种扫描器,能有效检测和防护潜在威胁。安装简便,易于集成到生产环境中,是提升LLM安全的理想工具。
ShieldLM-7B-internlm2 - 中英双语AI内容安全检测模型 支持自定义规则审核
GithubHuggingfaceShieldLM人工智能双语模型大语言模型安全检测开源项目模型
ShieldLM-7B-internlm2是基于internlm2-chat-7b开发的内容安全检测模型,主要用于识别大语言模型输出内容中的安全风险。模型支持中英双语检测,遵循通用安全标准,可根据需求自定义检测规则并提供判断依据。经测试,其检测性能在多个测试集上优于GPT-4等主流安全检测模型。
shieldgemma-2b - 结合安全审核与文本生成技术,实现合规与伦理保障
GithubHuggingfaceShieldGemma内容审查大语言模型安全策略开源项目模型生成式AI
ShieldGemma利用深度语言模型进行内容审核,确保AI生成内容和用户输入的安全与合规。该工具专注四类风险:性别、危险内容、仇恨和骚扰。提供三种模型规模(2B、9B、27B),性能高效,便于识别政策违规。结合Google TPU技术,模型开放权重,适用多种AI场景。作为责任生成AI工具包的一部分,致力于提高AI的伦理与安全。
aegis - 大型语言模型的自我强化防火墙
AegisGithub大语言模型安全保护对抗性攻击开源项目防火墙
Aegis是一款为大型语言模型设计的自我强化防火墙。该系统通过先进的分类模型和启发式算法,有效防范提示注入、信息泄露和有害语言等威胁。Aegis不断学习新的攻击特征,为模型的输入和输出提供全面保护。开发者可以通过Python API轻松集成Aegis,提高AI应用的安全性能。
Llama-Guard-3-8B - 多语言内容安全分类器助力AI对话保护
GithubHuggingfaceLlama Guard 3MLCommonstransformers内容安全分类多语言支持开源项目模型
Llama Guard 3是基于Llama 3.1-8B模型微调的内容安全分类器,可审核AI系统的输入输出,识别14类有害内容。它支持8种语言,针对搜索和代码解释器等场景优化,提高了大型语言模型的安全性。该模型通过API调用即可进行内容审核,为AI应用提供安全保障。
Llama-Guard-3-1B - 改进AI模型内容安全分类,降低在多平台部署成本
GithubHuggingfaceLlama 3.2Meta内容安全开源项目文本生成模型模型许可
Llama Guard 3-1B是一款专为内容安全分类设计的精调模型,能够识别大规模语言模型输入和输出中的安全性问题。模型优化后符合MLCommons标准,并降低了在移动设备上的部署成本。可通过transformers库或原始llama代码库调用,支持自定义和剔除类别。提供1B及其精简版两种版本,适用于多种操作环境。
Safety-Prompts - 中文大语言模型安全评估与优化
GithubSafety-PromptsSafetyBenchShieldLM大模型安全开源项目评测平台
Safety-Prompts项目提供用于评测和提升中文大语言模型安全性的prompts,确保模型输出与人类价值观一致。项目包含10万条安全场景prompts和ChatGPT回复,涵盖各类安全场景和指令攻击,并提供多选题评测平台,适用于训练和微调更安全的模型,帮助研究人员评估大模型安全性。
guardrails - 构建可靠AI应用的Python框架
AI应用GithubGuardrailsPython框架开源项目结构化数据风险检测
Guardrails是一个Python框架,专为构建可靠的AI应用程序而设计。它提供输入/输出保护功能,通过检测、量化和缓解风险,确保应用程序安全。借助Guardrails Hub,用户可以访问多种预构建验证器,组合多个验证器以创建强大的防护系统。Guardrails还支持从LLM生成结构化数据,适用于专有和开源模型。提供便捷的安装和使用指南,支持自定义验证器的创建和贡献,是AI开发者的理想工具。
wildguard - 开源的用户请求与AI响应安全检测工具
GithubHuggingfaceWildGuard人工智能安全内容审核开源项目拒绝检测有害内容检测模型
这是一款开源工具,用于检测用户请求和AI响应的潜在危害与拒绝。在多项基准测试中表现出色,超越现有开源模型,并在对抗性提示的有害性评估中胜过GPT-4。它的审核涵盖隐私、虚假信息、有害语言和恶意用途等风险,为内容治理提供全面支持。虽然可能存在一定误判,但在审核准确性上表现领先。
Prompt-Guard-86M - AI应用的安全防护模型
GithubHuggingfaceLlama分类器大语言模型安全开源项目提示攻击模型
Prompt-Guard-86M是一个基于大型语言模型的分类器,专门用于检测和防范AI应用中的恶意提示攻击。通过大规模攻击数据集训练,该模型能够有效识别提示注入和越狱等威胁。作为开源项目,Prompt-Guard-86M为开发者提供了一个可靠的基础,以降低提示攻击风险,同时允许根据特定应用需求进行定制。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

白日梦AI

白日梦AI提供专注于AI视频生成的多样化功能,包括文生视频、动态画面和形象生成等,帮助用户快速上手,创造专业级内容。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

讯飞绘镜

讯飞绘镜是一个支持从创意到完整视频创作的智能平台,用户可以快速生成视频素材并创作独特的音乐视频和故事。平台提供多样化的主题和精选作品,帮助用户探索创意灵感。

Project Cover

讯飞文书

讯飞文书依托讯飞星火大模型,为文书写作者提供从素材筹备到稿件撰写及审稿的全程支持。通过录音智记和以稿写稿等功能,满足事务性工作的高频需求,帮助撰稿人节省精力,提高效率,优化工作与生活。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号