热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#distilroberta-base
distilroberta-base-rejection-v1 - DistilRoBERTa模型用于检测LLM输出拒绝响应 准确率98.87%
ProtectAI
文本分类
开源项目
distilroberta-base
模型
Huggingface
拒绝检测
Github
LLM
这是一个基于DistilRoBERTa的微调模型,用于检测大型语言模型(LLM)输出中的拒绝响应。模型将输入分为正常输出和拒绝检测两类,评估准确率达98.87%。采用Apache 2.0许可证,支持Transformers和ONNX运行时,易于集成。适用于内容审核和安全防护,可识别LLM对不当内容的拒绝响应。
1
1
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号