#双语

IEPile: 一个大规模信息抽取语料库的突破性进展

3 个月前
Cover of IEPile: 一个大规模信息抽取语料库的突破性进展

BCEmbedding: 为RAG优化的双语跨语言嵌入模型

3 个月前
Cover of BCEmbedding: 为RAG优化的双语跨语言嵌入模型
相关项目
Project Cover

BCEmbedding

BCEmbedding是一款双语和跨语言嵌入模型,针对检索增强生成(RAG)任务进行优化。该模型包含EmbeddingModel和RerankerModel两个组件,分别用于语义向量生成和搜索结果优化。BCEmbedding在中英文语义表示和RAG评估中展现出优异性能,支持多语言和多领域应用。该项目提供了便捷的API接口,可直接集成到RAG系统中,已在实际产品中得到应用验证。

Project Cover

Yi

Yi项目旨在开发新一代开源双语大语言模型。基于3T多语言语料训练,Yi系列模型在语言理解、常识推理和阅读理解等方面表现优异。Yi-34B-Chat模型在AlpacaEval排行榜上位居第二,仅次于GPT-4 Turbo。Yi基于Transformer和Llama架构,通过独特的训练数据、流程和基础设施实现了卓越性能。

Project Cover

IEPile

IEPile是一个包含0.32B tokens的双语信息抽取指令数据集,整合了26个英文和7个中文信息抽取数据集。采用基于模式的分批指令生成策略,IEPile支持多种信息抽取任务。研究者利用IEPile对Baichuan2-13B-Chat和LLaMA2-13B-Chat模型进行微调,在全监督和零样本信息抽取任务中均实现了显著性能提升。项目提供了详细的数据格式说明和模型训练指南。

Project Cover

Yi-34B

Yi系列的开源双语大语言模型凭借出色的语言理解和推理能力,在全球顶尖LLM排行中占据一席之地。在依托Transformer和Llama架构的基础上,Yi模型通过自有的高质量训练数据和效能优化的训练管道,实现了在多项评测中的领先表现。特别是Yi-34B-Chat模型在AlpacaEval榜单上表现出色,仅次于GPT-4 Turbo,展现出其多领域广泛应用的潜力。

Project Cover

Yi-34B-Chat

Yi-34B-Chat是一个由01.AI开发的开源大语言模型,基于3T级多语言语料训练。模型在AlpacaEval评测中的表现仅次于GPT-4 Turbo,在语言理解、推理和阅读理解等方面展现出优秀能力。经过英文和中文双语评测,其性能超越了Falcon-180B、Llama-70B等主流开源模型。

Project Cover

jais-family-13b-chat

Jais项目发布双语大模型系列,旨在提升阿拉伯语与英语的语言处理能力。该项目包括20个模型,参数规模从590M到70B,利用海量阿拉伯语、英语和代码数据进行训练,具备增强的对话功能,有助于推进阿拉伯语自然语言处理的研究与应用。Jais模型在Llama-2的基础上进行适应性预训练,显著提高计算效率,适用于低资源语言环境,专注于提升模型的上下文理解与推理能力。

Project Cover

Yi-9B-200K

Yi系列开源语言模型通过Yi-9B-200K提升长文本解析能力,表现于代码、数学和逻辑推理上尤为突出。该模型使用截至2023年6月的数据集训练,跨语言功能强大,适用于个人、学术和商业环境。

Project Cover

Yi-6B-200K

致力于构建开源大语言模型,具备出色的语言理解、常识推理和阅读理解能力。Yi系列通过多语言语料库训练,在许多基准测试中表现优异。采用Llama架构,由Yi团队独立开发数据集与基础设施,适合个人、学术和商业使用。

Project Cover

bce-embedding-base_v1

bce-embedding-base_v1是一个针对检索增强生成(RAG)优化的中英双语语义表征模型。该模型在中英文语义搜索和问答任务中表现出色,适用于多个领域,并可方便地集成到langchain和llamaindex等框架。无需特殊指令,bce-embedding-base_v1能高效召回相关文本,为RAG应用提供可靠的语义基础。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号