热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#评测平台
Safety-Prompts - 中文大语言模型安全评估与优化
Github
开源项目
Safety-Prompts
ShieldLM
SafetyBench
大模型安全
评测平台
Safety-Prompts项目提供用于评测和提升中文大语言模型安全性的prompts,确保模型输出与人类价值观一致。项目包含10万条安全场景prompts和ChatGPT回复,涵盖各类安全场景和指令攻击,并提供多选题评测平台,适用于训练和微调更安全的模型,帮助研究人员评估大模型安全性。
1
1
相关文章
Safety-Prompts:评估和提升大语言模型安全性的中文提示集
3 个月前
Safety-Prompts学习资料汇总 - 中文大模型安全性评估与提升工具
2 个月前
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号