#偏见
LLMRank - 大语言模型在推荐系统排序中的应用与挑战
Github开源项目大语言模型推荐系统LLMRank零样本排序偏见
LLMRank项目聚焦大语言模型在推荐系统排序中的潜力。研究采用指令跟随方法,将用户行为历史和候选项整合到自然语言模板中。实验结果显示,大语言模型具备强大的零样本排序能力,但在处理用户历史顺序信息时面临挑战。通过设计特定提示策略,可有效提升排序表现。此外,项目还深入分析了排序过程中的偏见问题,并提出了相应的解决方案。
Turkish-Llama-8b-DPO-v0.1 - 土耳其语言文本生成的下一代模型
Github开源项目文本生成模型Huggingface偏见Turkish-Llama-8b-DPOCosmosLLama
该项目展示了最先进的Cosmos LLaMa版本,专注于土耳其语的文本生成。凭借多样化的训练数据,模型确保文本的连贯性和情境相关性。模型通过transformers库实现,支持复杂文本生成的高效流程。提供易于集成的Python示例代码,为开发者在机器学习项目中提供便利。用户可通过指定网址进行模型演示,需注意可能存在的偏差。
dac_16khz - 描述开源模型的功能与可能应用
Github开源项目模型transformersHuggingface训练数据偏见环境影响模型卡
本文提供有关此开源模型的详细信息,涵盖应用场景、技术规格以及偏见和风险评估。页面尚在完善,初步介绍模型说明、训练详情及环境影响。评估和结果部分指引用户查阅更多资源。
vit_large_patch14_clip_224.openai - 探索OpenAI提出的CLIP模型在计算机视觉任务中零样本分类的潜力
Github开源项目计算机视觉模型CLIPHuggingface零样本学习公平性偏见
OpenAI开发的CLIP模型通过对比损失训练大量的图像与文本对展示了其在计算机视觉任务中实现零样本分类的能力。这一模型尤其适合AI研究人员用以深入理解计算机视觉模型的鲁棒性及泛化能力,同时关注于它的潜在局限与偏见。尽管在细粒度分类和对象计数任务中存在不足,CLIP提供了对于模型在不同任务表现及相关风险的深入认知。需要注意的是,CLIP模型并不适用于商业用途,且其数据训练主要基于英语环境。
v3_1_pt_ep1_sft_5_based_on_llama3_1_70b_final_data_20241026 - 揭示新型Transformer模型的实际应用与研究进展
Github开源项目模型transformers评估Huggingface偏见环境影响模型卡
该文档介绍了新型Transformers模型的功能、应用领域与局限性,包含使用指南、训练数据概述、程序步骤、评估方法及其环境影响评估,为读者提供全面的信息参考。
Minerva-350M-base-v1.0 - 意大利和英语数据驱动的开源LLM模型
大型语言模型Github开源项目预训练模型HuggingfaceMinerva偏见意大利语
Minerva-350M-base-v1.0是一个基于350百万参数的开源语言模型,使用意大利语和英语数据进行训练。这一模型由Sapienza NLP、FAIR及CINECA共同开发,提升双语文本生成。使用时需注意可能存在的偏见与不当内容。
vit_large_patch14_clip_336.openai - 通过CLIP模型探索计算机视觉鲁棒性
Github开源项目OpenAI计算机视觉模型数据集CLIPHuggingface偏见
OpenAI开发的CLIP模型通过ViT-L/14 (336x336)架构提高视觉任务的鲁棒性,专注于零样本图像分类,供研究人员深入探索。这个模型针对英语场景,其数据主要源自发达国家的互联网用户,目前不建议用于商用部署,但在学术界具备多学科研究的重要价值。
zero123-xl-diffusers - 基于单张图像的零样本3D对象生成模型
Github开源项目模型生成模型HuggingfaceZero-1-to-3研究用途偏见安全模块
zero123-xl-diffusers是一个开源的3D对象生成模型,通过零样本学习技术将单张图像转换为3D对象。模型基于Stable Diffusion架构,使用Objaverse数据集训练,主要应用于研究、教育和艺术创作领域。模型集成了安全检查功能,可有效过滤不当内容。目前在文字渲染和人脸生成方面仍有待改进,但为3D内容创作提供了新的技术方案。
subnet9_772_4 - 介绍Transformer模型特性与应用
Github开源项目模型transformersHuggingface偏见环境影响卡片
此页面提供subnet9_772_4 Transformer模型的详细信息,涵盖使用指导、潜在限制及应用示例。页面内容自动生成,包含模型细节、训练数据与评估方法等。用户可以通过推荐的代码使用模型,并了解模型可能的环境影响与碳足迹。
OPT-13B-Nerys-v2 - 使用Facebook的OPT模型进行微调的文本生成模型
Github开源项目文本生成AI绘图自然语言处理模型Huggingface偏见OPT 13B-Nerys
OPT 13B-Nerys是基于Facebook的OPT模型进行微调的文本生成模型,适用于多种体裁。该模型的训练数据包含约2500本电子书、CYOA数据集和亚洲轻小说,可以直接用于文本生成任务。注意,使用过程中需考虑模型潜在的偏见和OPT-175B许可证限制。
Minerva-3B-base-v1.0 - 意大利语和英语文本生成的开源模型
大型语言模型Github开源项目预训练模型HuggingfaceMinerva偏见意大利语
Minerva-3B-base-v1.0是由Sapienza NLP与FAIR及CINECA合作开发的开源大型语言模型,专门在意大利语和英语文本上进行预训练。其采用3亿参数和6600亿标记数设计,基于Mistral架构,可有效进行文本生成。同时指出,这一模型在推理速度和词汇处理方面表现优良,但也可能会生成偏见或不当内容,因此在使用时需注意。
llama3-8B-usenet-merged - 高效NLP模型潜力与使用指南
Github开源项目模型transformersHuggingface语言处理偏见限制
探讨使用transformers库的NLP模型,通过环境影响分析及初学者指南,了解其应用潜力及可能的偏见与限制。
zero123-xl-diffusers - 探索模型在研究及艺术创作中的安全应用
Github开源项目模型生成模型HuggingfaceZero-1-to-3内容安全偏见限制
Zero123-XL-Diffusers模型用于研究,关注大规模生成模型的安全部署及艺术创作应用。建议避免用其生成可能引发争议的图像,如歧视性内容。该模型无法完全实现真实感,并可能生成有误导性的面部或人物图像,存在社会偏见。使用时可结合Safety Checker模块以过滤不当内容。训练集包含潜在不当内容,已采取安全措施。
subnet9_Aug17 - transformers模型的特点与优化指导
Github开源项目模型TransformersHuggingface训练数据碳排放偏见模型卡
文档介绍了transformers库中的模型,涵盖开发细节、使用场景及局限性。根据模型卡的建议,用户可以了解模型的偏见、风险和局限,及如何开始使用。简要说明了性能评估、环境影响和技术规格,并提供起步代码和细节。详细信息建议查看相关存储库和文献。