#InternLM

xtuner - 全面的模型微调解决方案,支持LLM和VLM的高效训练
XTunerLlama2DeepSpeedInternLMQLoRAGithub开源项目
XTuner是一款高效灵活的大模型微调工具包,支持LLM和VLM在多种GPU上的预训练和微调。它能够在单个8GB GPU上微调7B模型,并支持超过70B模型的多节点微调。XTuner兼容DeepSpeed,支持多种优化技术,并涵盖多种微调方法如QLoRA和LoRA。该工具包提供连续预训练、指令微调和代理微调等功能,输出模型可以无缝集成到部署和评估工具中,适应多种应用场景。
Tutorial - 为AI爱好者提供全面的学习体验,课程涵盖Linux、Python和Git基础
书生大模型实战营闯关挑战InternLM算力点Github开源项目
书生大模型实战营为AI爱好者提供全面的学习体验。课程涵盖Linux、Python和Git基础,并深入探讨InternLM、XTuner和OpenCompass等先进工具。通过循序渐进的实践任务,学员可掌握模型训练、部署和评测技能。项目还设立奖励机制和'书生共学计划',促进知识分享和技术交流。该实战营分为入门、基础和进阶三个阶段,配备详细的任务指南和视频资料。学员可通过完成任务获得算力点奖励,并有机会解锁更高性能的计算资源。项目还包含LMDeploy量化部署、InternVL多模态模型等前沿内容,以及Android端部署等实用技能。
internlm-chat-7b - 中文对话模型,实现增强推理能力与长文本处理
深度学习Huggingface模型评测开源项目模型开源模型GithubInternLM自然语言处理
InternLM-Chat-7B是一款开源的AI模型,具备70亿参数,专为实际应用场景优化。模型通过高质量数据训练,以支持8k字符的长上下文和增强推理能力。用户可以利用灵活的工具集自定义其应用流程。使用OpenCompass评估显示出其在多项能力上的优势。需注意的是,生成文本时可能存在偏见和不当内容,需要谨慎使用。
internlm2_5-1_8b-chat - 开源18亿参数模型提升推理能力与工具调用效率
Github模型开源项目工具利用推理能力InternLMHuggingface模型性能开源模型
InternLM2.5是一个开源的18亿参数基础模型,拥有卓越的数学推理和增强的工具调用能力,其能够从多个网页搜集信息并进行分析和指令理解。在OpenCompass的评测中,该模型在MATH、GPQA等基准测试中表现突出。尽管在推理和综合能力上具有优越性,仍需注意潜在的风险输出。通过Transformers和LMDeploy工具,用户可以轻松加载和部署此模型以适应多种应用场景。
internlm2-base-7b - 高效处理超长文本的多功能开源模型
评测Huggingface模型开源项目GithubInternLM开源语言能力
InternLM2-Base-7B是一个适应性强的开源模型,支持处理长达20万字的文本,具备精确的信息检索能力,并在推理、数学、编程任务中表现优异。通过OpenCompass工具验证,其性能适合广泛应用,是研究人员和开发者的理想选择。
internlm2_5-7b-chat - 卓越推理能力与百万字超长上下文的开源大模型
模型InternLM上下文窗口开源项目Huggingface推理能力工具使用Github大语言模型
InternLM2.5-7B-Chat是一个开源的70亿参数大语言模型,在数学推理、百万字长文理解和工具调用等方面表现卓越。该模型在多项基准测试中超越同等规模模型,展现强大的综合能力。InternLM2.5-7B-Chat提供基础模型和对话模型,支持通过Transformers加载,并可使用LMDeploy、vLLM等方案部署,为开发者提供灵活的应用选择。
internlm2-chat-1_8b - 优化指令遵循与对话功能的开源对话模型
开源模型长文本支持模型性能InternLM部署工具模型Github开源项目Huggingface
InternLM2-Chat-1.8B是一款经过精确调整的1.8亿参数开源对话模型,通过监督微调和在线RLHF优化,支持超长文本处理,适用于多种应用场景。其在推理、数学和编码任务中表现出色,依照Apache-2.0协议开源,商用需申请许可。
internlm2-1_8b - 18亿参数开源语言模型支持20万字超长上下文输入
超长上下文大语言模型开源模型开源项目模型性能评测HuggingfaceInternLMGithub
InternLM2-1.8B是一个18亿参数的开源语言模型,包含基础模型、对话模型和RLHF对齐版本。它支持20万字的上下文输入,在长文本理解、推理、数学和编程方面表现优异。该模型开放学术研究使用,并提供免费商业授权申请渠道。
internlm2-chat-7b-sft - 提供超长上下文支持和多功能工具的对话模型
开源工具调用InternLMHuggingfaceGithub开源项目模型模型性能代码解释器
InternLM2-Chat-7B-SFT是一款对话模型,具备提升的推理、数学和代码能力,支持长达200K的上下文处理,能够进行代码解释和数据分析,经RLHF训练后可处理复杂任务,展现出可靠的工具使用能力。
internlm2-7b - 增强自然语言处理与长文本分析能力
长上下文开源项目模型Github开源HuggingfaceInternLM性能评测
InternLM2-7B是一款开源自然语言处理模型,以其卓越的语言能力及对20万字符长文本的支持在评测中表现优异。适用于领域适配与复杂任务,提供代码开放与商用使用许可,便于研究与开发者的灵活使用与集成。
internlm2-20b - 提供深度适应性和超长文本理解能力的20B语言模型
评测工具性能评测模型开源Huggingface对话模型模型InternLMGithub开源项目
InternLM2-20B是一款支持20万字符上下文的语言模型,其在推理、数学和编程领域的表现突出。模型分为基础和对话优化版本,可以满足多样的语言处理需求。通过OpenCompass评测,其展示了卓越的综合性能,适合复杂的研究和商业应用。