#超长上下文
internlm2-1_8b - 18亿参数开源语言模型支持20万字超长上下文输入
Github开源项目大语言模型开源模型模型HuggingfaceInternLM超长上下文性能评测
InternLM2-1.8B是一个18亿参数的开源语言模型,包含基础模型、对话模型和RLHF对齐版本。它支持20万字的上下文输入,在长文本理解、推理、数学和编程方面表现优异。该模型开放学术研究使用,并提供免费商业授权申请渠道。
internlm2-chat-7b - 70亿参数大模型实现20万字超长文本理解及多场景智能对话
人工智能Github开源项目大语言模型模型Huggingface代码解释器超长上下文InternLM2
InternLM2-chat-7b作为书生·浦语第二代大模型的70亿参数版本,搭载20万字超长上下文理解技术,在复杂推理、数学运算、代码编程等核心任务上性能卓越。模型集成代码解释器和数据分析工具,通过增强型工具调用机制高效完成多步骤任务。在MMLU、AGIEval等主流评测基准上展现出同级别最优性能。该开源项目面向学术研究完全开放,同时提供免费商业授权渠道。