#开源模型
mistral-ft-optimized-1227 - 多基础模型融合优化的Mistral模型用于下游任务微调
开源模型性能优化模型合并Mistral-7B模型Github开源项目下游任务Huggingface
该模型通过层级SLERP技术融合了OpenHermes、Neural Chat、MetaMath和OpenChat等基础模型,作为Mistral模型的优化版本,可用于多种下游任务的微调和开发
Yi-Coder-9B - 涵盖52种编程语言的高效代码生成模型
编程语言开源模型Yi-Coder代码性能模型Github开源项目文本生成Huggingface
Yi-Coder系列拥有高效的代码生成能力,支持52种编程语言,尤其在长文本上下文使用表现出色,最多128K tokens。Yi-Coder-9B-Chat在LiveCodeBench中达23%通过率,适用于代码生成与智能交互。详情参见Yi-Coder博客和README。
internlm2-chat-1_8b - 优化指令遵循与对话功能的开源对话模型
开源模型长文本支持模型性能InternLM部署工具模型Github开源项目Huggingface
InternLM2-Chat-1.8B是一款经过精确调整的1.8亿参数开源对话模型,通过监督微调和在线RLHF优化,支持超长文本处理,适用于多种应用场景。其在推理、数学和编码任务中表现出色,依照Apache-2.0协议开源,商用需申请许可。
Asifmodel - 基于Unsloth和TRL库加速训练的LLaMA模型
模型训练Llama开源项目人工智能模型GithubHuggingface开源模型Unsloth
Asifmodel是一个基于unsloth/meta-llama-3.1-8b-bnb-4bit微调的LLaMA模型。通过结合Unsloth框架和Hugging Face的TRL库,该模型实现了训练速度翻倍。采用Apache 2.0许可证,Asifmodel支持英语文本生成推理,为开发者提供了高效的模型训练方案。
stablelm-3b-4e1t - StableLM开源语言模型在1万亿token数据上训练达到30亿参数规模
大语言模型开源模型开源项目StableLM-3B-4E1T模型人工智能Huggingface文本生成Github
StableLM-3B-4E1T是一个开源语言模型,通过在Falcon RefinedWeb和RedPajama-Data等数据集上训练4轮获得,总计处理1万亿tokens数据。模型采用LayerNorm归一化和Rotary位置编码技术,支持Flash Attention 2优化。在HellaSwag和Winogrande任务评测中分别达到75.94%和71.19%的准确率,展现出良好的语言理解能力。
internlm2-1_8b - 18亿参数开源语言模型支持20万字超长上下文输入
超长上下文大语言模型开源模型开源项目模型性能评测HuggingfaceInternLMGithub
InternLM2-1.8B是一个18亿参数的开源语言模型,包含基础模型、对话模型和RLHF对齐版本。它支持20万字的上下文输入,在长文本理解、推理、数学和编程方面表现优异。该模型开放学术研究使用,并提供免费商业授权申请渠道。
glm-4-9b - 开源预训练模型GLM-4-9B实现多语言及多任务处理能力
GLM-4-9B自然语言处理预训练模型Github开源项目开源模型Huggingface模型多语言支持
作为GLM-4系列的开源版本,GLM-4-9B在语义理解、数学计算、逻辑推理等方面展现出优秀性能。模型支持26种语言处理、多轮对话、代码执行及工具调用功能,具备128K上下文处理能力。其扩展版本包括支持1M上下文的Chat版本和支持视觉任务的GLM-4V-9B多模态模型。
MiniCPM3-4B - 轻量高效的开源模型支持长文本处理和函数调用
开源模型MiniCPM3Huggingface人工智能模型Github开源项目大语言模型机器学习
MiniCPM3-4B是一款开源语言模型,仅用4B参数就达到了接近GPT-3.5-Turbo的性能。它具备32k上下文窗口、函数调用和代码解释器等功能,在中英双语、数学和编程等多个基准测试中表现出色。通过创新的训练策略,MiniCPM3-4B实现了与7B-9B模型相当的能力,为资源受限的AI应用场景提供了高效选择。
cogvlm2-llama3-chinese-chat-19B - 双语视觉语言模型,支持大规模文本和图像解析
Github模型视觉理解开源项目Huggingface文本生成中文支持开源模型CogVLM2
CogVLM2-LLaMA3-Chinese 是一个开源模型,支持中文和英文,表现出显著性能提升,比如在 TextVQA 和 DocVQA 基准测试中。这一模型支持最大8K的文本长度和1344*1344的图像分辨率,特别适合文本和图像的理解与对话任务。构建于Meta-Llama-3-8B-Instruct基础之上,用户可在ZhipuAI开放平台进行实际体验,适用于需要强大图像解析和多语言支持的场景。
Yi-1.5-34B-Chat - 提升语言理解与推理性能的创新
Github开源项目语言理解模型性能Yi-1.5Huggingface开源模型预训练模型
Yi-1.5通过高质量语料与多样化样本增强模型能力,在编程、数学以及推理任务中取得显著进步。同时,该项目保持出色的语言理解、常识推理和阅读理解能力。该模型在多项基准测试中表现优异,与大型模型相比,具备竞争力。用户可通过多种途径下载该模型,并快速上手操作。如需详细使用指南,请查阅README。
相关文章
DBRX: 开创高效开源大语言模型的新标准
3 个月前
明医(MING):革新中文医疗问诊的智能大模型
3 个月前
Discord AI Chatbot:功能强大的AI聊天机器人
3 个月前
CareGPT:开源驱动的医疗大语言模型
3 个月前
Tribe AI: 构建和协调多智能体团队的低代码工具
3 个月前
WhisperSpeech: 开源文本转语音技术的新突破
3 个月前
如何选择合适的大语言模型(LLM)进行编程开发 - DevAI领域的最新视角
3 个月前
SkyCode-AI-CodeX-GPT3: 奇点智源推出的多语言开源编程大模型
3 个月前
Gorilla: 革命性的大语言模型API连接器
3 个月前