#下游任务

TencentPretrain - 多模态预训练和微调框架,支持文本、视觉与音频数据
TencentPretrain预训练多模态模型库下游任务Github开源项目
腾讯开发的多模态预训练框架TencentPretrain,专为文本、视觉和音频数据设计,具有高效的模块化设计,便于使用现有预训练模型并提供扩展接口。支持CPU、单GPU及分布式训练模式,拥有丰富的预训练模型,适用于如分类、机器阅读理解等多种下游任务,在多个竞赛中表现优异。详见完整文档及快速入门指南。
LucaOne - 整合核酸和蛋白质语言的通用生物模型
LucaOne生物基础模型统一核酸和蛋白质语言预训练任务下游任务Github开源项目
LucaOne是一个整合核酸和蛋白质语言处理的生物基础模型。通过多任务预训练,该模型实现了DNA、RNA和蛋白质序列的高效表示学习。在序列分类、结构预测等多个下游任务中,LucaOne展现出优异性能。项目开源了训练数据、代码和预训练模型,为生物信息学研究提供了实用工具。
t5-base-finetuned-emotion - 基于T5模型的情感识别技术
T5情感识别HuggingfaceGithub下游任务开源项目模型传输学习情感数据集
这个项目展示了T5模型在情感识别中的应用,通过一个高质量的情感数据集进行分类。经过精细调优,T5模型能够识别六种情感:悲伤、快乐、爱、愤怒、恐惧和惊讶,精确度和召回率都非常优秀。该模型可用于情感分析任务,准确率高达93%,展现了自然语言处理领域的先进技术。
mistral-ft-optimized-1227 - 多基础模型融合优化的Mistral模型用于下游任务微调
开源模型性能优化模型合并Mistral-7B模型Github开源项目下游任务Huggingface
该模型通过层级SLERP技术融合了OpenHermes、Neural Chat、MetaMath和OpenChat等基础模型,作为Mistral模型的优化版本,可用于多种下游任务的微调和开发