distill-sd
基于知识蒸馏技术开发的小型高速Stable Diffusion模型。这些模型保留了完整版本的图像质量,同时大幅减小了体积和提升了速度。文档详细介绍了数据下载脚本、U-net训练方法和模型参数设置,还支持LoRA训练及从检查点恢复。提供清晰的使用指南和预训练模型,适配快速高效图像生成需求。
v3_1_pt_ep1_sft_5_based_on_llama3_1_8b_final_data_20241019
了解先进自然语言处理开源模型的信息,包括用途、评估方法及风险提示。虽然详细信息未完全披露,但以上内容可为开发和应用提供重要参考。
generative-qa-model
该生成式问答模型基于transformers库,提供开发背景、用途、训练方案及评价标准的信息,帮助了解使用方法并识别潜在风险和局限性。
cot_5k
本文详细介绍了开源模型的功能用途、潜在风险和关键技术细节。通过深入了解这些方面,有助于优化模型应用,规避潜在问题。
robust_llm_pythia-14m-pm-gen-ian-nd
模型基于transformers库开发,旨在揭示模型在操作中可能存在的偏见、风险及技术限制,帮助用户明确其应用场景及注意要点。
subnet9_2B4
探索模型的多样化应用与技术细节,重点关注模型在处理自然语言任务中的角色,帮助专业人士更好地理解并优化该模型,同时注意该模型的限制和偏见。
subnet9_Aug30_1_c
该模型卡是一个自动生成的🤗 transformers模型,详细介绍了模型的使用场景、潜在风险、偏见和限制,并含有对训练数据、预处理和超参数的描述。尽管当前缺少开发和财务方面的详细信息,但链接到的环境影响估计工具为用户提供了进一步的使用体验评估依据。
test-demo-qa
本文概述了一个发布在🤗 transformers平台的NLP模型test-demo-qa,包括其使用方式、潜在用户群体及相关风险提示。文章指明需要补充的模型开发细节及资金来源信息,同时也提供了开始使用该模型的基础指导。模型在直接使用及下游应用中的偏见、风险和局限被识别并建议以优化其应用效果。
vram-96
此transformers模型卡由🤗Hub生成,提供模型的详细信息和用途。包括直接使用方式和下游任务的应用。尽管部分信息尚待补充,模型卡为用户理解基本用法、评估指标及潜在偏见和风险提供指南,并对模型的风险、偏见及技术局限性进行建议。