#长文本理解
LongBench
LongBench首次为大语言模型的长文本理解能力提供双语、多任务的全面评估基准。它覆盖中文和英文,包含六大类共21种任务,适用于单文档QA、多文档QA、摘要提取、少样本学习、合成任务和代码补全等场景。该项目提供自动化评估方法以降低成本,并涵盖平均长度为5k至15k的测试数据。同时,LongBench-E测试集通过统一采样,分析模型在不同输入长度的性能表现。
LWM
Large World Model (LWM)是一种创新的多模态AI模型,具备百万级上下文处理能力。LWM通过分析大规模视频和文本数据,实现了语言、图像和视频的综合理解与生成。该项目开源了多个模型版本,支持处理超长文本和视频,在复杂检索和长视频理解等任务中表现出色,为AI技术发展提供了新的可能性。
Phi-3.5-mini-instruct
Phi-3.5-mini-instruct是一款开源AI模型,拥有3.8B参数和128K令牌上下文长度。该模型在多语言处理、长文本理解和推理能力方面表现优异,适用于通用AI系统,尤其适合资源受限环境和低延迟场景。经过监督微调、近端策略优化和直接偏好优化,模型具备精确的指令执行能力和安全性。
CodeQwen1.5-7B-Chat
CodeQwen1.5-7B-Chat是一个专注于代码生成的大规模语言模型。该模型支持92种编程语言,具备64K tokens的长上下文理解能力。在代码生成、文本到SQL转换和bug修复等任务中表现优异。模型采用组查询注意力机制提升推理效率,可通过Hugging Face平台便捷使用。
Qwen2.5-14B
Qwen2.5-14B是一个基于transformer架构的预训练语言模型,具备147亿参数规模。该模型在编程、数学等专业领域表现突出,支持中英法德等29种语言处理,并可处理超长文本内容。模型整合了多项技术优化,在结构化数据理解和指令执行方面表现优异,可作为各类下游AI任务的基础模型使用。