Project Icon

DARE_TIES_13B

通过合并多种预训练语言模型提升AI性能

项目通过DARE TIES方法合并预训练语言模型,使用yunconglong的Truthful DPO TomGrc FusionNet 7Bx2 MoE 13B作为基础,结合了13B DPO及13B MATH DPO模型。通过密度和权重配置,采用bfloat16和int8掩码,在计算效率和文本覆盖上均有显著提升。

Defne_llama3_2x8B - 增强型MoE模型,结合llama3的融合创新
Defne_llama3_2x8BGithubHuggingfacetransformers开源项目文本生成模型混合专家模型自然语言处理
Defne_llama3_2x8B是一个支持多语言的混合专家结构(MoE)模型,由两个llama3模型合并而成。通过transformers库实现高效的自然语言生成,支持英语和土耳其语,适合多语言文本生成和自然语言理解。用户可通过Python代码轻松与模型交互,实现数学问题解答及友好的人机对话。该模型在动态计算环境中具备高效的运行能力。
Baichuan-13B - 包含130亿参数和出色Benchmark性能的大规模开源语言模型
Baichuan-13BGithub对齐模型开源模型开源项目百川智能量化版本
Baichuan-13B是一个包含130亿参数的开源模型,支持中英双语,并在多项Benchmark测试中表现优异。它具有更大的参数量和数据规模,更高效的推理能力,且完全免费商业使用。通过简单的代码即可部署,量化版本大大降低了部署门槛,广泛适用于学术研究和商业应用。
CarbonBeagle-11B - 模型合并实验展示出色文本生成能力
CarbonBeagle-11BGithubHuggingfaceOpen LLM Leaderboard准确率开源项目文本生成模型模型合并
CarbonBeagle-11B合并了不同架构和规模的模型,在文本生成任务中效果显著。采用线性合并方法,将vicgalle/NeuralBeagle-11B与jeonsworld/CarbonVillain-en-10.7B-v4结合,在基准测试中表现良好,特别是在HellaSwag(10-Shot)中取得了88.93的标准化准确率,在AI2推理挑战和Winogrande等数据集上展现出高效能力。模型配置为float16精度,以确保合并后的灵活性和稳定性。详细评估结果可在Open LLM Leaderboard查看。增加应用领域的实际效果和用户反馈能帮助用户更好地了解其实际应用价值。
DeepSeek-V2-Lite - 创新架构驱动的高效混合专家语言模型
DeepSeek-V2GithubHuggingface多头潜在注意力大规模语言模型开源项目模型混合专家模型自然语言处理
DeepSeek-V2-Lite是一款采用创新架构的混合专家(MoE)语言模型。通过多头潜在注意力(MLA)和DeepSeekMoE技术,该模型实现了训练和推理的高效性。模型总参数量为16B,激活参数为2.4B,在多项英文和中文基准测试中表现优异,超越了同类7B密集模型和16B MoE模型。DeepSeek-V2-Lite支持单40G GPU部署和8x80G GPU微调,为自然语言处理研究提供了一个高性能且资源友好的选择。
t5-3b - 统一多语言自然语言处理任务的创新模型
GithubHuggingfaceT5-3B多任务学习开源项目文本到文本转换模型自然语言处理预训练模型
T5-3B是一个拥有30亿参数的多语言自然语言处理模型。它采用创新的文本到文本框架,统一处理机器翻译、文档摘要、问答和分类等多种NLP任务。该模型在C4语料库上预训练,并在24个任务中进行评估,展现出优秀的多语言和多任务处理能力。T5-3B为NLP领域的迁移学习研究提供了新的思路和可能性。
BeagSake-7B - 高效文本生成模型的合并与性能评估
AI评测BeagSake-7BGithubHugging FaceHuggingfacetext-generation开源项目模型模型合并
BeagSake-7B项目通过LazyMergekit工具合并了BeagleSempra-7B和WestBeagle-7B模型,以优化文本生成性能。该项目在AI2 Reasoning Challenge、HellaSwag等多项测试任务中表现优异,通过调整模型合并策略和采用float16精度,有效提升了模型的推理效率。此策略为多种语言理解任务提供了新的技术路径。
MixTAO-7Bx2-MoE-v8.1 - 深入了解MixTAO-7Bx2-MoE-v8.1的性能与技术更新
AI2 Reasoning ChallengeGithubHellaSwagHuggingfaceMixTAO-7Bx2-MoE开源项目文本生成模型语言模型
MixTAO-7Bx2-MoE-v8.1是一种新兴的Mixture of Experts (MoE)模型,在AI2 Reasoning Challenge和HellaSwag等数据集上表现出色。它在多项选择复杂任务中达到了89.22%的准确率,显示出强大的推理能力。随着持续更新,该模型在大语言模型领域具有重要的应用前景。
SOLAR-10.7B-v1.0 - 深度扩展技术驱动的大语言模型实现超30B参数级性能
GithubHuggingfaceSOLAR-10.7B人工智能大模型开源项目模型深度学习语言模型
SOLAR-10.7B采用深度扩展(DUS)技术开发,通过整合Mistral 7B权重和持续预训练,实现10.7B参数达到30B级模型性能。在H6评测中得分74.20,高于Mixtral-8x7B等大型模型。模型以Apache-2.0许可开源发布,提供完整预训练版本。
NeuralLLaMa-3-8b-DT-v0.1 - 结合多模型优势的文本生成解决方案,增强任务表现
GithubHuggingfaceLazyMergekitNeuralLLaMa-3-8b-DT-v0.1准确率开源项目文本生成模型模型合并
NeuralLLaMa-3-8b-DT-v0.1 是一种通过融合ChimeraLlama-3-8B-v2、llama-3-stella-8B和llama-3-merged-linear等模型,借助LazyMergekit技术,提升了文本生成任务精确度的开源项目。适用于0-Shot和多次尝试测试,表现出出色的任务表现,严格准确率达43.71%。项目易于集成,支持多种量化配置,适合多种平台应用。
DeepSeek-V2 - 兼顾效率与经济性的大规模混合专家语言模型
DeepSeek-V2Github大语言模型开源项目混合专家模型自然语言处理预训练模型
DeepSeek-V2是一款基于专家混合(MoE)架构的大规模语言模型,总参数量达2360亿,每个token激活210亿参数。相较于DeepSeek 67B,该模型在提升性能的同时,显著降低了训练成本和推理资源消耗。DeepSeek-V2在多项标准基准测试和开放式生成任务中表现优异,展现了其在多领域的应用潜力。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号