#FLAN-T5

flan-alpaca - 基于Flan和Alpaca的强大语言模型微调
Github开源项目HuggingFaceFlan-AlpacaVicuna-13BFLAN-T5instruction tuning
本页面详细介绍了通过使用Flan集合微调Vicuna-13B以开发Flacuna模型的过程,及其在Flan-T5文本到音频生成中的应用。项目展示了扩展Stanford Alpaca指令微调到现有模型的方法,并提供了多种预训练模型,均可在HuggingFace上获取。用户可以在这里找到Flan-Alpaca系列模型的训练、使用和推理的详细指南,以优化各种任务性能。
flan-t5-xl - 基于指令微调的多语言NLP模型
Github开源项目大语言模型自然语言处理多语言模型Huggingface指令微调FLAN-T5
FLAN-T5-XL是基于T5架构的大规模语言模型,经过1000多个任务的指令微调。该模型支持多语言处理,在翻译、问答和逻辑推理等任务中表现优异。它在少样本学习方面的能力出众,可与更大模型相媲美。FLAN-T5-XL为研究人员提供了探索零样本和少样本NLP任务的强大工具,同时有助于推进语言模型的公平性和安全性研究。
safety-flan-t5-base - 开源对话内容安全评估模型FLAN-T5
Github开源项目自然语言处理机器学习语言模型模型PytorchHuggingfaceFLAN-T5
safety-flan-t5-base是FLAN-T5架构下的内容安全评估模型,主要用于分析对话文本中的潜在风险。模型通过对输入内容进行安全性判断,识别不当或有害信息。基于PyTorch开发,提供标准API接口,可集成于对话系统实现内容审核功能。
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号