#长文本理解
LongBench - 双语长文本理解多任务评估
LongBench长文本理解大模型评估多语言Github开源项目
LongBench首次为大语言模型的长文本理解能力提供双语、多任务的全面评估基准。它覆盖中文和英文,包含六大类共21种任务,适用于单文档QA、多文档QA、摘要提取、少样本学习、合成任务和代码补全等场景。该项目提供自动化评估方法以降低成本,并涵盖平均长度为5k至15k的测试数据。同时,LongBench-E测试集通过统一采样,分析模型在不同输入长度的性能表现。
LWM - 百万级上下文多模态AI模型突破性成果
Large World Model多模态模型长文本理解视频处理RingAttentionGithub开源项目
Large World Model (LWM)是一种创新的多模态AI模型,具备百万级上下文处理能力。LWM通过分析大规模视频和文本数据,实现了语言、图像和视频的综合理解与生成。该项目开源了多个模型版本,支持处理超长文本和视频,在复杂检索和长视频理解等任务中表现出色,为AI技术发展提供了新的可能性。
CodeQwen1.5-7B-Chat - 专注代码生成的大规模语言模型支持多种编程语言
Huggingface模型文本到SQL代码生成Github编程语言CodeQwen1.5开源项目长文本理解
CodeQwen1.5-7B-Chat是一个专注于代码生成的大规模语言模型。该模型支持92种编程语言,具备64K tokens的长上下文理解能力。在代码生成、文本到SQL转换和bug修复等任务中表现优异。模型采用组查询注意力机制提升推理效率,可通过Hugging Face平台便捷使用。
Qwen2.5-14B - 基于transformer架构的多语言预训练模型 具备超长文本理解能力
Qwen2.5Github长文本理解自然语言处理Huggingface多语言支持开源项目模型大语言模型
Qwen2.5-14B是一个基于transformer架构的预训练语言模型,具备147亿参数规模。该模型在编程、数学等专业领域表现突出,支持中英法德等29种语言处理,并可处理超长文本内容。模型整合了多项技术优化,在结构化数据理解和指令执行方面表现优异,可作为各类下游AI任务的基础模型使用。