Project Icon

Truthful_DPO_TomGrc_FusionNet_7Bx2_MoE_13B

利用DPO优化方法提升语言模型的性能

使用DPO Trainer在TomGrc/FusionNet_7Bx2_MoE_13B上优化语言模型,通过TRL实现偏好数据训练,提升模型效果。了解Rafailov等人的直接偏好优化方法,以提升模型性能,提供更精准的结果。

direct-preference-optimization - DPO算法实现语言模型的偏好数据优化
DPOGithub偏好优化开源项目机器学习训练算法语言模型
DPO(Direct Preference Optimization)是一种语言模型训练算法,通过偏好数据优化模型。该项目提供DPO算法的参考实现,包含监督微调和基于偏好学习两个阶段。支持各种因果HuggingFace模型,可添加自定义数据集,并包括'conservative' DPO和IPO等变体。这为研究人员提供了灵活工具,用于从偏好数据训练语言模型。
DARE_TIES_13B - 通过合并多种预训练语言模型提升AI性能
DARE_TIES_13BGithubHuggingface大模型开源项目模型算法合并语言模型配置文件
项目通过DARE TIES方法合并预训练语言模型,使用yunconglong的Truthful DPO TomGrc FusionNet 7Bx2 MoE 13B作为基础,结合了13B DPO及13B MATH DPO模型。通过密度和权重配置,采用bfloat16和int8掩码,在计算效率和文本覆盖上均有显著提升。
Step-DPO - 优化大语言模型长链推理的高效方案
GithubStep-DPO大语言模型开源项目数学问题模型微调长链推理
Step-DPO是一种旨在提升大语言模型长链推理能力的新方法。该方法通过数据构建流程生成了1万对高质量步骤偏好对数据集,在仅使用少量数据的情况下显著提升了模型性能。研究表明,Step-DPO能将Qwen2-7B-Instruct在MATH和GSM8K测试集上的得分分别提高5.6%和2.4%。应用Step-DPO后的Qwen2-72B-Instruct更是在这两个测试集上分别达到70.8%和94.0%的得分,超越了多个闭源模型。
ALMA-13B-Pretrain - 改进大型语言模型的翻译性能与偏好优化技术
ALMAGithubHuggingfaceLoRA微调对比偏好优化开源项目数据集机器翻译模型
ALMA基于新的翻译模型范式,初步在单语数据上进行精调,接着应用高质量的平行数据进行优化,从而显著提升大型语言模型的翻译效果。其最新版本ALMA-R采用了对比偏好优化(CPO),相较于传统监督精调,进一步提高了翻译的精度,可与GPT-4媲美。尤其是ALMA-13B-LoRA,通过过渡性精调和人类撰写的平行数据,确保了在专业翻译任务中的卓越表现。
orpo - 无参考模型的语言模型偏好优化技术
GithubORPO人工智能开源项目机器学习模型训练自然语言处理
ORPO是一种新型语言模型训练方法,无需参考模型即可实现偏好优化。项目展示了ORPO在AlpacaEval、MT-Bench和IFEval等基准测试中的性能。ORPO训练的Mistral-ORPO-β模型在AlpacaEval官方排行榜上获得14.7%的长度控制胜率。项目开源了多个预训练模型和训练日志,为AI研究和开发提供了重要资源。
Llama-3-Instruct-8B-SPPO-Iter2 - 通过自我博弈偏好优化实现语言模型对齐
GithubHuggingfaceSelf-Play Preference Optimization合成数据集开源项目模型模型调优训练参数语言模型
该模型在第二轮自我博弈偏好优化中,通过在合成数据集上的微调实现性能提升。基于Meta-Llama-3-8B-Instruct架构,该过程从openbmb/UltraFeedback数据集中提取提示集,并通过snorkelai/Snorkel-Mistral-PairRM-DPO数据集进行三次迭代以提高生成响应的质量。在AlpacaEval和Open LLM排行榜上,该模型在语言理解和推理任务中表现出更优胜率和准确度。
llama-trl - 使用 PPO 和 LoRA 微调 LLaMA
GithubLLaMA-TRLLoRAPPOReward Model TrainingSupervised Fine-tuning开源项目
本项目LLaMA-TRL通过PPO和LoRA技术进行大规模语言模型的微调,采用TRL(变压器强化学习)和PEFT(参数高效微调)方法。本文详细介绍了从安装依赖到具体实现的步骤,包括监督微调、奖励模型训练和PPO微调,助力开发者显著提升模型性能和任务适应能力。
gemma-2-9b-it-SimPO - 基于SimPO算法的Gemma模型性能提升
GemmaGithubHuggingfaceSimPO偏好优化大语言模型开源项目模型模型微调
该项目基于Google的Gemma-2-9b-it模型,采用创新的SimPO算法在UltraFeedback数据集上进行微调。SimPO通过对齐奖励函数和生成概率,优化大型语言模型性能,无需参考模型。优化后的模型在多项评估指标上表现优异,尤其是对话能力和生成质量方面。项目提供了详细的模型信息、训练细节和评估结果,为相关研究和应用奠定基础。
LLaMA3-iterative-DPO-final - 高效集成在线RLHF技术的指令模型
GithubHuggingfaceLLaMA3-iterative-DPO-finalRLHF人工智能开源模型开源项目模型训练方法
LLaMA3-iterative-DPO-final是在线RLHF技术的非官方模型,在Alpaca-Eval-V2等基准测试中表现突出,超越众多模型。模型基于开源数据集训练,无需人工标签,包含详尽的复现指南,适用于学术研究和实际应用。
notus-7b-v1 - 优化偏好响应的7B模型树立文本生成新标准
AI训练数据GithubHuggingfaceNotus-7b-v1开源项目文本生成模型模型评估算法优化
此模型通过直接偏好优化技术增强文本生成能力,树立新基准。其使用更具代表性的偏好数据集,提高了准确性,并在与Zephyr和Claude 2的比较中表现出色,成为AlpacaEval评估中最具竞争力的7B模型之一,是聊天应用程序中的理想助手。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号