#Yi-1.5

Yi-1.5 - Yi模型的升级版,通过500B高质量语料预训练和300万样本微调而来
人工智能Github开源项目开源大语言模型自然语言处理Yi-1.5
Yi-1.5是Yi模型的升级版,通过500B高质量语料预训练和300万样本微调而来。它在编码、数学、推理和指令跟随方面有显著提升,同时保持了优秀的语言理解和阅读能力。该系列提供34B、9B和6B三种规模,支持多种部署方式和fine-tuning。Yi-1.5以Apache 2.0许可开源,为AI领域提供了强大灵活的大语言模型选择。
Yi-1.5-34B-32K - 增强代码和推理的高性能AI模型
Github开源项目开源模型大模型模型Huggingface推理能力语言理解Yi-1.5
Yi-1.5-34B-32K是Yi的升级版本,通过大规模语料库预训练及多样化样本微调,提升了代码编写、数学运算、推理及指令执行能力,并在语言理解领域表现优秀。该模型在基准测试中表现突出,与更大规模模型媲美甚至超越。可在诸如Hugging Face和ModelScope等平台下载,适用于多种应用场景。
Yi-1.5-6B-Chat - 提升代码、数学、推理能力的开源AI模型
Github开源项目模型数学推理基准测试Huggingface语言理解语料库Yi-1.5
Yi-1.5在编码、数学、推理和指令执行方面表现卓越,其通过训练5000亿高质量语料和300万多样化样本的微调实现了更强的表现。同时,Yi-1.5-6B-Chat等多个模型版本提供了不同的上下文长度以适应各种应用场景需求。这些模型在基准测试中表现优异,并且在同尺寸开源模型中领先。用户可通过Hugging Face、ModelScope等平台获取模型资源,快速应用于项目中。
Yi-1.5-9B-Chat - 开源语言模型在编码、数学和推理能力方面表现卓越
人工智能Github开源项目自然语言处理机器学习模型Huggingface大规模语言模型Yi-1.5
Yi-1.5是Yi系列的升级版本,经过5000亿tokens的高质量语料库训练和300万多样化样本微调。该模型在编码、数学、推理和指令遵循方面表现出色,同时保持了优秀的语言理解、常识推理和阅读理解能力。Yi-1.5提供多种规模的基础模型和对话模型,在多项基准测试中表现优异,为用户提供了一个功能强大的开源语言模型选择。
Yi-1.5-9B-32K - 中型开源模型性能显著提升
Github开源项目开源模型模型Huggingface语言理解Yi-1.5编程性能算术推理
Yi-1.5-9B-32K作为中型开源模型,以其在语言理解、推理及阅读理解上的出色表现而著称。经过3.6T预训练和多样化微调,其在编码、数学和指令遵循能力上较前版有大幅提升,适合需要高效开源AI解决方案的用户。
Yi-1.5-9B - 融合代码、数学与推理能力的开源语言大模型
人工智能Github开源项目深度学习自然语言处理语言模型模型HuggingfaceYi-1.5
Yi-1.5作为Yi系列模型的迭代版本,基于500B语料预训练和300万样本微调,具备语言理解、常识推理和阅读理解等基础能力,并强化了代码、数学和推理功能。模型提供6B、9B和34B三种参数规模,支持4K至32K上下文长度,预训练数据量为3.6T tokens。在基准测试中,Yi-1.5系列模型与同规模开源模型相比表现出竞争力。
Yi-1.5-6B - 提高编码数学与推理性能的AI模型升级
Github开源项目开源AI模型预训练模型HuggingfaceYi-1.5技术性能
Yi-1.5经过优质语料库的持续预训练和多样化微调,提升了在编码、数学、推理等方面的能力,保持良好的语言理解与常识推理。在多项基准测试中表现突出,不仅在同类开源模型中优越,也在某些测试中超越更大规模的模型。Yi-1.5提供多个Chat与Base模型版本,适用多种应用场景,可通过链接快速获取与部署,为现代AI应用提供有力支持。
Yi-1.5-34B-Chat - 提升语言理解与推理性能的创新
Github开源项目预训练开源模型模型Huggingface语言理解模型性能Yi-1.5
Yi-1.5通过高质量语料与多样化样本增强模型能力,在编程、数学以及推理任务中取得显著进步。同时,该项目保持出色的语言理解、常识推理和阅读理解能力。该模型在多项基准测试中表现优异,与大型模型相比,具备竞争力。用户可通过多种途径下载该模型,并快速上手操作。如需详细使用指南,请查阅README。
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号