Project Icon

EuroLLM-1.7B-Instruct

支持35种语言的欧洲开源大语言模型

EuroLLM-1.7B-Instruct是一个欧盟支持开发的大语言模型,具备17亿参数规模,可处理包括欧盟在内的35种语言。模型在机器翻译性能方面超越同规模的Gemma-2B模型,接近更大规模的Gemma-7B水平。采用transformer架构和分组查询机制,实现高效推理。这是欧盟首个面向多语言处理的开源语言模型项目。

Infinity-Instruct-7M-Gen-Llama3_1-8B - 开源指令调优模型,支持大规模无监督学习
GithubHuggingfaceInfinity Instruct代码开源开源项目指令微调无监督学习模型模型权重
Infinity-Instruct-7M-Gen-Llama3.1-8B是一个开源指令调优模型,无需人类反馈即可达到较高性能。依托于百万级数据集的训练,该模型展现出优于GPT-4在AlpacaEval 2.0测试中的表现。项目持续更新,提供多样模型权重和数据集资源,支持学术研究。采用FlagScale技术,显著降低训练成本。
llama-30b-instruct-2048 - 语言处理模型,专为增强文本生成能力设计
AI绘图GithubHuggingfaceLLaMA伦理考量开源项目数据集模型高性能
Llama-30b-instruct-2048模型由Upstage研发,基于LLaMA架构,优化用于生成文本,支持动态扩展处理10k+输入符号。在多项基准数据集上表现出色,并结合DeepSpeed与HuggingFace工具进行微调。使用该模型需获得持有Meta授权表单的许可。
internlm2_5-1_8b-chat - 开源18亿参数模型提升推理能力与工具调用效率
GithubHuggingfaceInternLM工具利用开源模型开源项目推理能力模型模型性能
InternLM2.5是一个开源的18亿参数基础模型,拥有卓越的数学推理和增强的工具调用能力,其能够从多个网页搜集信息并进行分析和指令理解。在OpenCompass的评测中,该模型在MATH、GPQA等基准测试中表现突出。尽管在推理和综合能力上具有优越性,仍需注意潜在的风险输出。通过Transformers和LMDeploy工具,用户可以轻松加载和部署此模型以适应多种应用场景。
internlm2_5-7b-chat - 卓越推理能力与百万字超长上下文的开源大模型
GithubHuggingfaceInternLM上下文窗口大语言模型工具使用开源项目推理能力模型
InternLM2.5-7B-Chat是一个开源的70亿参数大语言模型,在数学推理、百万字长文理解和工具调用等方面表现卓越。该模型在多项基准测试中超越同等规模模型,展现强大的综合能力。InternLM2.5-7B-Chat提供基础模型和对话模型,支持通过Transformers加载,并可使用LMDeploy、vLLM等方案部署,为开发者提供灵活的应用选择。
Meta-Llama-3.1-8B - 开源支持128K上下文的多语言大规模语言模型
GithubHuggingfaceLlama 3.1人工智能模型多语言支持大语言模型开源项目机器学习模型
Meta Llama 3.1是新一代多语言大规模语言模型系列,提供8B、70B和405B三种参数规模。模型采用优化的Transformer架构,通过SFT和RLHF提升对话能力。支持8种语言,具有128K上下文窗口,基于15T+训练数据。采用GQA技术优化推理性能,适用于商业和研究领域的文本生成任务,知识截至2023年12月。
Llama-3.2-1B-Instruct-GGUF - 多语言大型语言模型提升对话与摘要任务表现
GithubHuggingfaceLlama 3.2Meta多语言大语言模型开源项目模型社区许可协议
Meta的多语言大模型Llama 3.2支持多种语言,优化对话与摘要任务。模型提供1B和3B版本,通过监督微调和人类反馈强化学习提升互动有用性与安全性。采用优化的Transformer架构,并利用Grouped-Query Attention提升推理能力。开发者可以根据需求进行模型微调。模型发布于2024年9月25日,采用商用许可协议,建议在商业与研究中谨慎使用。
multilingual-e5-large - 大规模多语言文本编码模型,适用于多种NLP任务
GithubHuggingfacemultilingual-e5-large多语言支持开源项目机器学习模型自然语言处理语言模型
multilingual-e5-large是一个支持100多种语言的大规模文本编码模型。该模型在文本分类、检索、聚类和语义相似度等多项自然语言处理任务中表现优异。基于Transformer架构,它能够生成高质量的多语言文本嵌入,适用于各种跨语言NLP应用。在MTEB基准测试中,该模型展现了出色的多语言和多任务处理能力。
open-instruct - 开源指令微调大语言模型的完整工具集
AI训练Github开源项目模型微调评估基准语言模型
open-instruct是一个致力于指令微调预训练语言模型的开源项目。它提供了基于最新技术和公开数据集的模型微调代码,以及多项基准测试的评估工具。项目发布了包括Tülu系列在内的多个微调模型检查点。open-instruct支持全参数微调、LoRA和QLoRA等高效方法,并提供完整的训练和评估脚本。该工具集为研究人员和开发者提供了探索指令调优大语言模型的全面解决方案。
Meta-Llama-3.1-70B-Instruct - 支持多语言对话的开源模型
GithubHuggingfaceLlama 3.1Meta多语言开源项目文本生成模型许可协议
Meta推出的多语言开源语言模型,支持8种语言,旨在增强商业和研究中的多语言对话能力。通过预训练和指令调优,Meta-Llama 3.1在行业基准上展现出优于现有开源和闭源模型的卓越性能。该模型采用优化的变换器架构,利用监督微调和人类反馈强化学习提升响应安全性和用户友好性。用户在使用该模型创建衍生作品时需遵循Llama 3.1许可证,应用范围包括跨语言自然语言生成任务和合成数据生成等,不仅提高了AI模型输出的质量,还能广泛用于商业和研究领域的多语言对话。
Llama-3.2-1B-Instruct-4bit - 精简高效的多语言文本生成工具
GithubHuggingfaceLlama 3.2Meta可接受使用政策开源项目机器学习模型许可协议
Llama-3.2-1B-Instruct-4bit是从Meta的Llama 3.2-1B-Instruct模型转换为MLX格式的产品,支持包括英语、德语、法语在内的多语言文本生成。引入4bit量化技术以提升运行效率与支持更大输入扩展。提供便捷的Python接口以实现文本生成,适合对话系统和内容创作等应用。遵循Meta的社区许可协议以确保合法使用。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

稿定AI

稿定设计 是一个多功能的在线设计和创意平台,提供广泛的设计工具和资源,以满足不同用户的需求。从专业的图形设计师到普通用户,无论是进行图片处理、智能抠图、H5页面制作还是视频剪辑,稿定设计都能提供简单、高效的解决方案。该平台以其用户友好的界面和强大的功能集合,帮助用户轻松实现创意设计。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号