#Apache 2.0
open-llms - 开放源代码大型语言模型及其商业应用全景解析
Large Language Models开源商业使用许可Apache 2.0模型发布Github开源项目
Open-llms 项目展示了众多采用开源许可证的大型语言模型(LLMs),支持商业应用,涵盖如T5、GPT-NeoX、YaLM等模型。每款模型设有详细说明及许可信息,鼓励社区交流与贡献,是机器学习研究和应用的重要资源库。
gazelle - 专注语音的语言模型的推断代码及社区合作
Gazelle等待模型HuggingfaceApache 2.0Llama 2Github开源项目
本项目提供了用于Gazelle联合语音语言模型的代码,基于Huggingface的Llava实现。包括多个版本的检查点和模型更新,尽管优化有限,仍欢迎社区的贡献。使用者需遵循Apache 2.0和Llama 2许可证条款。本项目不建议在生产环境中使用,但能应对一些对抗性攻击。欢迎加入Discord获取更多信息和支持。
melusine - 邮件处理优化工具,智能路由和邮件优先级管理
Melusine电子邮件处理深度学习机器学习模型Apache 2.0Github开源项目
Melusine 是一款全面的邮件处理库,具有智能路由和急件优先等功能,优化邮件工作流程。其模块化架构允许无缝集成各种 AI 框架,实现高效的邮件过滤和分类。项目已在 MAIF 生产环境得到验证,具备稳健性和稳定性。用户可通过详细文档和教程快速上手,提升工作效率。
tiny-random-mistral - 轻量级随机性AI语言模型项目
模型开源项目Huggingface开源Apache 2.0许可证法律Github软件
tiny-random-mistral是一个基于Apache 2.0许可的开源AI语言模型。该项目提供轻量级、随机性强的特性,适用于多种自然语言处理任务。项目结合Mistral模型优势,为开发者和研究人员提供灵活高效的AI工具。开放许可允许自由使用、修改和分发,有助于AI技术的应用和创新。
tiny-random-llama - 小型LLM训练与优化开源框架
版权模型开源项目HuggingfaceApache 2.0软件协议Github代码共享开源许可
tiny-random-llama是一个开源的小型语言模型训练和优化框架。它简化了模型结构和训练流程,适用于资源受限环境和快速迭代场景。该项目为开发者提供了高效实验和部署小型LLM的工具,有助于推动AI研究和应用的发展。
tiny-random-marian - 简洁开源的多语言翻译工具
模型软件许可版权开源许可Apache 2.0Github法律Huggingface开源项目
tiny-random-marian是一个开源的多语言翻译工具,采用Apache 2.0许可证。这个模型体积小巧,适合在资源受限环境中使用。它支持多种语言间的翻译,为开发者提供了一个简单易用的翻译解决方案。项目适合需要快速集成多语言翻译功能的应用。
tiny-random-whisper - 轻量级随机耳语模型为语音识别提供高效解决方案
模型软件协议开源许可Apache 2.0Github代码共享知识产权Huggingface开源项目
tiny-random-whisper是一个轻量级随机耳语模型,用于语音识别。该项目采用随机化技术,在保持小型模型体积的同时实现良好的识别性能。适用于资源受限设备和快速部署场景,为开发者提供灵活的语音识别工具。
internlm-xcomposer2d5-clip - 结合InternLM、Xcomposer和CLIP的多模态AI开源模型
版权开发者模型开源项目Huggingface软件许可Apache 2.0Github开源协议
internlm-xcomposer2d5-clip是一个结合InternLM、Xcomposer和CLIP技术的开源多模态AI模型。该项目能够处理文本、图像等多种数据类型,支持复杂的跨模态任务。模型采用Apache 2.0许可证发布,为研究人员和开发者提供了灵活的使用空间。
Nomic-embed-text-v1.5-Embedding-GGUF - 开源文本嵌入模型用于自然语言处理任务
模型代码使用开源项目版权声明HuggingfaceApache 2.0软件协议Github开源许可
Nomic-embed-text-v1.5-Embedding-GGUF是一个基于Apache-2.0许可的开源文本嵌入模型。该模型利用自然语言处理技术将文本转换为数值向量,可应用于文本分析、信息检索和机器学习等领域。模型采用GGUF格式,便于开发者和研究人员进行使用和二次开发。
tiny-random-PhiForCausalLM - 轻量级开源因果语言模型项目
模型软件许可版权Apache 2.0Github开源协议自由软件Huggingface开源项目
tiny-random-PhiForCausalLM是一个轻量级因果语言模型项目,旨在为资源受限环境提供高效的语言处理解决方案。该项目使用Apache-2.0开源许可,开发者可自由使用和修改。项目通过优化模型结构和训练方法,在保持性能的同时减小模型体积,为自然语言处理任务提供了实用选择。
tiny-random-latent-consistency - 稳定随机潜在特征生成方法
法律协议模型软件许可开源许可Apache 2.0Github代码共享Huggingface开源项目
tiny-random-latent-consistency是一个开源项目,旨在生成稳定的随机潜在特征。该项目通过优化潜在空间一致性,为机器学习和AI应用提供随机特征生成方法。它利用特定算法来保持潜在空间的一致性,适用于模型训练、数据增强等需要高质量随机输入的场景。项目的核心技术可能有助于改善模型的性能和泛化能力,特别是在处理复杂数据集时。
tiny-random-stable-diffusion-xl - 精简版Stable Diffusion XL模型增强图像生成随机性
模型软件许可版权Apache 2.0开发者权益Github开源协议Huggingface开源项目
tiny-random-stable-diffusion-xl是Stable Diffusion XL模型的精简变体,旨在提供更强的图像生成随机性。该项目保留了SDXL核心功能,同时显著减小模型体积,便于部署和使用。这一轻量级模型适用于需要高随机性和创意输出的场景,为AI图像生成提供了新的可能性。
falcon-7b-instruct - 高性能指令微调语言模型
Huggingface模型大语言模型TIIGithubFalcon-7B-Instruct开源项目自然语言处理Apache 2.0
Falcon-7B-Instruct是TII基于Falcon-7B开发的指令微调语言模型,采用7B参数的因果解码器架构。该模型经过聊天和指令数据集的优化,集成了FlashAttention和多查询技术,在英语和法语任务中表现优异。它适用于直接进行对话和指令处理,但不建议进一步微调。运行该模型需要至少16GB内存,代码以Apache 2.0许可开源。
Qwen1.5-0.5B-Chat-GGUF - 基于通义千问1.5的轻量级中文对话模型
模型开源项目Huggingface开源Apache 2.0许可证法律Github软件
Qwen1.5-0.5B-Chat-GGUF是基于通义千问1.5系列的中文对话模型,采用GGUF格式实现。该模型具有较小的尺寸和较快的推理速度,适合在资源受限环境中部署。这个轻量级模型为开发者和研究人员提供了一种高效方式来构建智能对话应用,实现中文语言模型的快速部署和使用。
mamba-2.8b - 突破性能界限的高效开源语言模型
法律Huggingface模型Github开源项目Apache 2.0版权软件许可开源许可
mamba-2.8b是一个开源语言模型,采用状态空间模型架构,在性能和效率方面有所突破。该模型参数规模较小,但具有较快的推理速度和良好的文本生成能力。mamba-2.8b为自然语言处理领域提供了新的可能性,适用于需要快速响应的应用场景。研究人员和开发者可以基于此模型探索高效的AI解决方案。
Ministral-3b-instruct-GGUF - 更高效的量化语言模型,为文本生成带来显著性能提升
开源项目NLP模型语言模型Apache 2.0Huggingfacetransformers模型量化Github
Ministral-3b-instruct-GGUF是一个基于llama.cpp的高效量化模型,专为Ministral系列的3B参数设计优化,并从Mistral-7B进行微调。它使用混合数据集,主要用于英语文本生成。通过量化技术,该模型在保持精度的同时,显著减少了存储和计算需求,理想应用于高效文本生成场景。项目遵循Apache 2.0许可协议,以确保合规使用。
EstopianMaid-13B-GGUF - 量化格式的EstopianMaid-13B模型,兼容多平台与多UI
HuggingfaceLlama量化开源项目模型GithubGPU加速EstopianMaid 13BApache 2.0
EstopianMaid 13B的GGUF格式文件由llama.cpp团队推出取代GGML。项目涵盖多种量化与文件规格,兼容包括llama.cpp在内的多种平台和UI。详细的下载指导帮助用户选择最佳配置,支持GPU和CPU推理,适用于多种文本生成场景。
tiny-testing-gpt2-remote-code - 轻量级GPT-2远程代码测试框架
Apache 2.0Huggingface开源项目模型开源协议开源软件Github软件许可法律合规
该项目是一个轻量级的GPT-2远程代码测试框架,采用Apache-2.0开源协议。框架设计简洁,为开发者提供便捷的GPT-2模型远程代码测试环境,有助于快速验证和调试GPT-2相关代码实现。
chatbot-bert-classification - 基于BERT的聊天机器人文本分类模型
Apache 2.0开源项目开源许可模型代码共享开源协议Github软件许可Huggingface
这是一个应用BERT模型进行聊天机器人文本分类的开源项目。该项目利用先进的自然语言处理技术,实现对用户输入文本的准确分类,帮助开发者构建智能对话系统。项目采用Apache-2.0许可证,为开发者提供了灵活的使用权限。
alias-gpt2-small-x21 - 文本生成工具,提高自然语言处理效果
语言模型偏见与公平Github开源项目文本生成alias-gpt2-small-x21HuggingfaceApache 2.0模型
alias-gpt2-small-x21是由Stanford CRFM开发的文本生成模型,延续了GPT-2的能力,适用于多种自然语言处理任务。需注意模型中的偏见和风险,不应用于产生敌意环境,并需考虑其碳排放的环境影响。
falcon-7b-instruct-sharded - Falcon-7B-Instruct用于低内存环境的优化AI模型
GithubFalcon-7B-Instruct开源项目Apache 2.0量化推断人工智能模型Huggingface训练数据模型
Falcon-7B-Instruct是一款专为低内存环境如Colab和Kaggle优化的7B参数模型,支持英语和法语。基于Falcon-7B,该模型经过微调以处理对话和指令数据集,提供高效的推理性能并结合FlashAttention与多查询机制。可通过Huggingface平台获取用于文本生成等应用,达到高性能与低资源消耗的平衡。
相关文章