#Apache 2.0

Open-source LLMs 入门指南 - 开放大语言模型项目一句话介绍

2 个月前
Cover of Open-source LLMs 入门指南 - 开放大语言模型项目一句话介绍

Gazelle:突破性的联合语音-语言模型

3 个月前
Cover of Gazelle:突破性的联合语音-语言模型

开源大语言模型(LLM)的发展历程与现状

3 个月前
Cover of 开源大语言模型(LLM)的发展历程与现状
相关项目
Project Cover

open-llms

Open-llms 项目展示了众多采用开源许可证的大型语言模型(LLMs),支持商业应用,涵盖如T5、GPT-NeoX、YaLM等模型。每款模型设有详细说明及许可信息,鼓励社区交流与贡献,是机器学习研究和应用的重要资源库。

Project Cover

gazelle

本项目提供了用于Gazelle联合语音语言模型的代码,基于Huggingface的Llava实现。包括多个版本的检查点和模型更新,尽管优化有限,仍欢迎社区的贡献。使用者需遵循Apache 2.0和Llama 2许可证条款。本项目不建议在生产环境中使用,但能应对一些对抗性攻击。欢迎加入Discord获取更多信息和支持。

Project Cover

melusine

Melusine 是一款全面的邮件处理库,具有智能路由和急件优先等功能,优化邮件工作流程。其模块化架构允许无缝集成各种 AI 框架,实现高效的邮件过滤和分类。项目已在 MAIF 生产环境得到验证,具备稳健性和稳定性。用户可通过详细文档和教程快速上手,提升工作效率。

Project Cover

tiny-random-stable-diffusion-xl

tiny-random-stable-diffusion-xl是Stable Diffusion XL模型的精简变体,旨在提供更强的图像生成随机性。该项目保留了SDXL核心功能,同时显著减小模型体积,便于部署和使用。这一轻量级模型适用于需要高随机性和创意输出的场景,为AI图像生成提供了新的可能性。

Project Cover

falcon-7b-instruct

Falcon-7B-Instruct是TII基于Falcon-7B开发的指令微调语言模型,采用7B参数的因果解码器架构。该模型经过聊天和指令数据集的优化,集成了FlashAttention和多查询技术,在英语和法语任务中表现优异。它适用于直接进行对话和指令处理,但不建议进一步微调。运行该模型需要至少16GB内存,代码以Apache 2.0许可开源。

Project Cover

Qwen1.5-0.5B-Chat-GGUF

Qwen1.5-0.5B-Chat-GGUF是基于通义千问1.5系列的中文对话模型,采用GGUF格式实现。该模型具有较小的尺寸和较快的推理速度,适合在资源受限环境中部署。这个轻量级模型为开发者和研究人员提供了一种高效方式来构建智能对话应用,实现中文语言模型的快速部署和使用。

Project Cover

mamba-2.8b

mamba-2.8b是一个开源语言模型,采用状态空间模型架构,在性能和效率方面有所突破。该模型参数规模较小,但具有较快的推理速度和良好的文本生成能力。mamba-2.8b为自然语言处理领域提供了新的可能性,适用于需要快速响应的应用场景。研究人员和开发者可以基于此模型探索高效的AI解决方案。

Project Cover

Ministral-3b-instruct-GGUF

Ministral-3b-instruct-GGUF是一个基于llama.cpp的高效量化模型,专为Ministral系列的3B参数设计优化,并从Mistral-7B进行微调。它使用混合数据集,主要用于英语文本生成。通过量化技术,该模型在保持精度的同时,显著减少了存储和计算需求,理想应用于高效文本生成场景。项目遵循Apache 2.0许可协议,以确保合规使用。

Project Cover

EstopianMaid-13B-GGUF

EstopianMaid 13B的GGUF格式文件由llama.cpp团队推出取代GGML。项目涵盖多种量化与文件规格,兼容包括llama.cpp在内的多种平台和UI。详细的下载指导帮助用户选择最佳配置,支持GPU和CPU推理,适用于多种文本生成场景。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号