Project Icon

Sakura-SOLAR-DPO

开源大语言模型性能新突破

Sakura-SOLAR-DPO项目通过模型融合和DPO训练技术,使SOLAR模型在开源大语言模型排行榜上跃居首位。该项目在ARC、HellaSwag等多项基准测试中表现卓越,展现了强大的通用能力和数学推理水平。项目公开了详细的训练代码、超参数配置和提示词模板,为开源AI社区提供了宝贵的技术参考。

SOLAR-10.7B-v1.0 - 深度扩展技术驱动的大语言模型实现超30B参数级性能
GithubHuggingfaceSOLAR-10.7B人工智能大模型开源项目模型深度学习语言模型
SOLAR-10.7B采用深度扩展(DUS)技术开发,通过整合Mistral 7B权重和持续预训练,实现10.7B参数达到30B级模型性能。在H6评测中得分74.20,高于Mixtral-8x7B等大型模型。模型以Apache-2.0许可开源发布,提供完整预训练版本。
SOLAR-10.7B-Instruct-v1.0 - 高效小巧的大型语言模型在多项NLP任务中超越更大规模对手
GithubHuggingfaceSOLAR-10.7B单轮对话大语言模型开源项目指令微调模型深度扩展
SOLAR-10.7B是一个参数量为10.7B的大型语言模型,通过创新的深度上扩展方法开发。该模型在多项自然语言处理任务中表现出色,经常超越参数量更大的模型。SOLAR-10.7B采用了监督微调和直接偏好优化等先进技术进行指令微调,展现出优秀的性能、鲁棒性和适应性,为进一步微调提供了良好基础。
Twice-KoSOLAR-16.1B-test - 使用深度扩展技术优化SOLAR语言模型性能
GithubHuggingfaceTwice-KoSOLAR-16.1B-test合并技术开源项目性能评估模型深度上采样自然语言处理
本页面介绍了Depth-Up-Scaling方法如何提升大规模语言模型(LLM)的性能,通过合并Mistral 7B模型权重与持续预训练,SOLAR-10.7B模型在多项自然语言处理任务中表现优异,超越某些30B参数模型。本文比较了不同模型性能,展示了SOLAR-10.7B在多样化调优场景中的适应性和鲁棒性。
LDCC-SOLAR-10.7B - 基于SOLAR方法的深度学习模型,应用于数据通信与工程
GithubHuggingfaceLDCC-SOLAR-10.7BSOLAR论文开源项目模型模型优化深度学习硬件
项目详细描述了使用A100硬件和DeepSpeed、HuggingFace库训练的深度学习模型,通过SOLAR方法实现优化。建议使用特定版本的tokenizer文件进行模型精调,该模型适用于AI技术的多种应用场景。
Step-DPO - 优化大语言模型长链推理的高效方案
GithubStep-DPO大语言模型开源项目数学问题模型微调长链推理
Step-DPO是一种旨在提升大语言模型长链推理能力的新方法。该方法通过数据构建流程生成了1万对高质量步骤偏好对数据集,在仅使用少量数据的情况下显著提升了模型性能。研究表明,Step-DPO能将Qwen2-7B-Instruct在MATH和GSM8K测试集上的得分分别提高5.6%和2.4%。应用Step-DPO后的Qwen2-72B-Instruct更是在这两个测试集上分别达到70.8%和94.0%的得分,超越了多个闭源模型。
free-solar-evo-v0.1 - 创新进化模型合并的客观探索
AIFree-solar-evo-v0.1GithubHuggingfaceS-SOLAR-10.7B-v1.5Sakana项目开源项目模型进化模型
free-solar-evo-v0.1项目展示了进化模型合并的潜在应用,受Sakana项目启发,建立在hwkwon/S-SOLAR-10.7B-v1.5模型之上,由Freewheelin团队开发。
COKAL-DPO_test-v2-13b - 采用LLaMA2架构的13B规模自动回归语言模型
COKAL-DPO_test-v2GithubHuggingfacetransformers开源项目模型模型开发训练数据集语言模型
模型由韩国公司Media Group Saramwa Soop与Marker合作开发,基于LLaMA2变压器架构,具备文本生成能力。基础模型为COKAL_pre_DPO_Test_v1-13b,采用DPO及SFT私有数据集训练,适用于多种文本生成任务。该研究项目由韩国科学技术信息通信部和光州广域市资助,旨在推动人工智能产业集群发展。
orpo - 无参考模型的语言模型偏好优化技术
GithubORPO人工智能开源项目机器学习模型训练自然语言处理
ORPO是一种新型语言模型训练方法,无需参考模型即可实现偏好优化。项目展示了ORPO在AlpacaEval、MT-Bench和IFEval等基准测试中的性能。ORPO训练的Mistral-ORPO-β模型在AlpacaEval官方排行榜上获得14.7%的长度控制胜率。项目开源了多个预训练模型和训练日志,为AI研究和开发提供了重要资源。
Truthful_DPO_TomGrc_FusionNet_7Bx2_MoE_13B - 利用DPO优化方法提升语言模型的性能
DPO TrainerGithubHuggingfaceTomGrc/FusionNet_7Bx2_MoE_14B偏好数据开源项目数据集模型语言模型
使用DPO Trainer在TomGrc/FusionNet_7Bx2_MoE_13B上优化语言模型,通过TRL实现偏好数据训练,提升模型效果。了解Rafailov等人的直接偏好优化方法,以提升模型性能,提供更精准的结果。
suzume-llama-3-8B-multilingual-orpo-borda-top25 - 提升多语言模型性能的ORPO微调方法
GithubHuggingfaceSuzume ORPO商业用途多语言开源项目模型模型性能训练数据
Suzume ORPO使用ORPO技术优化模型性能,特别加强了多种语言的处理能力,是语言模型研究的前沿选择。非商业许可适合学术研究,商业应用版本正在开发中。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

白日梦AI

白日梦AI提供专注于AI视频生成的多样化功能,包括文生视频、动态画面和形象生成等,帮助用户快速上手,创造专业级内容。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

讯飞绘镜

讯飞绘镜是一个支持从创意到完整视频创作的智能平台,用户可以快速生成视频素材并创作独特的音乐视频和故事。平台提供多样化的主题和精选作品,帮助用户探索创意灵感。

Project Cover

讯飞文书

讯飞文书依托讯飞星火大模型,为文书写作者提供从素材筹备到稿件撰写及审稿的全程支持。通过录音智记和以稿写稿等功能,满足事务性工作的高频需求,帮助撰稿人节省精力,提高效率,优化工作与生活。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号