#培训数据
toxic-comment-model - 使用DistilBERT进行在线毒性评论分类的模型与偏见分析
Github开源项目模型Huggingface偏差DistilBERT毒性评论培训数据
该模型基于DistilBERT进行精调,专为在线毒性评论分类设计。尽管总体表现出色,但在识别某些身份群体时表现出偏见,如穆斯林和犹太人。通过示例代码能快速应用此模型,其在10000条测试数据中取得94%的准确率,但f1-score为0.59。更多信息及训练代码可在指定GitHub仓库获取。
task-13-Qwen-Qwen1.5-0.5B - 探讨AI模型在直接使用和下游应用中的潜在性能提升
Github开源项目模型Huggingface碳排放模型卡Qwen1.5-0.5B培训数据技术规范
本文审视了AI模型的潜在使用场景,包括直接使用和下游集成的可能性,着重分析了模型在使用中可能出现的偏见和风险及其技术限制。我们为使用者提供了建议,讨论了使用相关工具进行环境影响估算的步骤。文章也涵盖了训练、评估和技术规格的各个方面,旨在为研究人员和开发者提供参考。