Project Icon

h2o-danube3-500m-base

500M参数的大规模语言模型,支持离线文本生成

由H2O.ai推出的h2o-danube3-500m模型,是一个大规模语言模型,采用Llama 2架构调整及500M参数设计。模型支持原生离线运行,尤其适用于手机设备,并集成Mistral分词器,拥有32,000词汇量及8,192长度的上下文生成能力。在支持transformers库的环境中,模型可在GPU设备上有效运行,并且支持量化和多GPU分片处理。重要提醒用户在使用模型生成的内容时保持审慎态度并自行承担责任。

m2m100_1.2B - 先进的多语言机器翻译模型实现百种语言无障碍转换
GithubHuggingfaceM2M100多语言翻译开源项目机器学习模型深度学习自然语言处理
m2m100_1.2B是一款革新性的多语言机器翻译模型,覆盖100种语言的9900个翻译方向。该模型采用编码器-解码器架构,能够实现高质量的直接语言转换,无需中间语言过渡。这一突破性技术为全球跨语言交流提供了高效便捷的解决方案,在机器翻译领域具有重要意义。
Humanish-LLama3-8B-Instruct-GGUF - 介绍模型的量化技术实现文本生成性能突破
GithubHuggingfaceHumanish-LLama3-8B-Instruct基准测试开源项目数据集文本生成模型量化
该项目通过llama.cpp进行量化,优化了模型的嵌入和输出权重,使得文本生成更加高效。模型在多个数据集上表现出色,如IFEval数据集测试中达到严格准确率64.98%。项目提供多种文件格式,支持多样化的计算资源和硬件环境,以满足不同的使用需求,包括低内存和ARM芯片的优化场景。
Meta-Llama-3.1-8B-Instruct-quantized.w8a8 - 量化优化的多语言文本生成模型
GithubHuggingfaceMeta-Llama-3vLLM多语言开源项目文本生成模型量化
该模型通过INT8量化优化,实现了GPU内存效率和计算吞吐量的提升,支持多语言文本生成,适用于商业和研究中的辅助聊天任务。在多个基准测试中,该模型实现了超越未量化模型的恢复率,尤其在OpenLLM和HumanEval测试中表现突出。使用GPTQ算法进行量化,有效降低了内存和磁盘的占用。可通过vLLM后端快速部署,并支持OpenAI兼容服务。
internlm2_5-1_8b-chat - 开源18亿参数模型提升推理能力与工具调用效率
GithubHuggingfaceInternLM工具利用开源模型开源项目推理能力模型模型性能
InternLM2.5是一个开源的18亿参数基础模型,拥有卓越的数学推理和增强的工具调用能力,其能够从多个网页搜集信息并进行分析和指令理解。在OpenCompass的评测中,该模型在MATH、GPQA等基准测试中表现突出。尽管在推理和综合能力上具有优越性,仍需注意潜在的风险输出。通过Transformers和LMDeploy工具,用户可以轻松加载和部署此模型以适应多种应用场景。
LIMA2-7b-hf - Llama 2语言模型的功能概述与应用
GithubHuggingfaceLlama 2Meta大型语言模型安全性开源项目文本生成模型
Llama 2是由Meta推出的大型语言模型系列,具备7亿到70亿参数,专为对话场景设计。Llama 2在多项评测中表现优异,能够与闭源模型如ChatGPT媲美。该模型采用优化的transformer架构,通过监督微调和人类反馈的强化学习来提升效能。使用前需遵守Meta许可条款,支持用于英语的商业和研究。
llama3 - 基于Transformers的开源预训练语言模型
GithubHuggingfacetransformers人工智能开源项目机器学习模型模型卡片自然语言处理
Llama3是一个基于Hugging Face Transformers库开发的预训练语言模型,已上传至Hugging Face Hub。该模型可应用于多种自然语言处理任务,但目前缺乏具体的技术细节、训练数据和评估结果信息。模型卡片提供了基本信息和使用指南,同时提醒用户注意可能存在的偏见和局限性。
optimized-gpt2-1b - GPT-2架构优化模型 提供高效可扩展的自然语言处理功能
GithubHuggingfacetransformers人工智能开源项目机器学习模型模型卡自然语言处理
optimized-gpt2-1b是一个基于GPT-2架构优化的大规模语言模型。该模型在保持GPT-2性能的基础上,通过架构和训练方法的优化提高了效率和可扩展性。它可应用于文本生成、摘要和问答等多种自然语言处理任务。模型支持直接使用或针对特定需求进行微调。项目提供了使用说明和评估结果,有助于研究人员和开发者更好地理解和应用这一语言模型。
MobileLLM - 轻量高效的移动设备语言模型
AI模型GithubMobileLLM开源项目深度学习神经网络语言模型
MobileLLM是一个针对移动设备优化的大型语言模型项目。该模型通过SwiGLU激活函数、深窄架构、嵌入共享和分组查询注意力等技术,在亿级参数规模下实现了高性能。MobileLLM在零样本常识推理任务中表现出色,不仅在125M和350M参数规模上超越了现有最先进模型,还成功扩展至600M、1B和1.5B参数规模,展示了其在移动设备应用中的潜力。
Ministral-3b-instruct-GGUF - 更高效的量化语言模型,为文本生成带来显著性能提升
Apache 2.0GithubHuggingfaceNLPtransformers开源项目模型模型量化语言模型
Ministral-3b-instruct-GGUF是一个基于llama.cpp的高效量化模型,专为Ministral系列的3B参数设计优化,并从Mistral-7B进行微调。它使用混合数据集,主要用于英语文本生成。通过量化技术,该模型在保持精度的同时,显著减少了存储和计算需求,理想应用于高效文本生成场景。项目遵循Apache 2.0许可协议,以确保合规使用。
Llama-3.1-405B-FP8 - Meta推出的405B参数多语言AI模型支持128K上下文
GithubHuggingfaceLlama 3.1人工智能元宇宙多语言大语言模型开源项目模型
Llama-3.1-405B-FP8是Meta发布的多语言大语言模型,支持8种语言文本生成,参数规模405B,上下文窗口128K。该模型在多项基准测试中表现优异,适用于对话等自然语言任务。它允许商业使用,可用于数据生成和模型蒸馏等场景。该模型采用优化的Transformer架构,具备强大的多语言处理能力。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号