#开源
Yi-Coder-9B-Chat - 支持长文本上下文理解的多语言编程模型
开源代码生成Yi-Coder编程语言HuggingfaceGithub开源项目模型高效
Yi-Coder-9B-Chat是一个开源的代码语言模型,拥有不到10亿个参数,具备优异的表现。它支持包括Python、Java在内的52种主要编程语言,最大上下文长度可达128K tokens。该模型在LiveCodeBench评测中取得了23%的通过率,超越了一些更大参数模型。Yi-Coder-9B-Chat可以通过transformers库进行快速推理,适用于多场景的文本生成。该项目提供详尽的技术文档和支持,便于开发者上手使用。
chatglm-6b - 中英双语开源对话模型实现低显存本地部署
AI技术开源项目模型语言模型Huggingface开源中英双语ChatGLM-6BGithub
该模型是一个基于 GLM 的中英双语开源对话工具,拥有 62 亿参数,通过量化技术实现低显存要求,适合消费级显卡本地部署。专注于中文问答及对话功能,具有监督微调和人类反馈强化学习功能。升级版提供更高性能和效率,研究者可完全开放使用,而商用需要填问卷。
internlm2-base-7b - 高效处理超长文本的多功能开源模型
评测Huggingface模型开源项目GithubInternLM开源语言能力
InternLM2-Base-7B是一个适应性强的开源模型,支持处理长达20万字的文本,具备精确的信息检索能力,并在推理、数学、编程任务中表现优异。通过OpenCompass工具验证,其性能适合广泛应用,是研究人员和开发者的理想选择。
PhoGPT-4B-Chat - 开放源码的越南语生成模型——PhoGPT-4B-Chat
Github模型开源开源项目对话变体PhoGPT越南语Huggingface生成模型
PhoGPT-4B-Chat是面向越南语的生成模型,通过在70K教学指令和290K对话上进行微调,展现出色表现。其基于3.7B参数的结构,利用102B代币的越南语语料库从头开始进行预训练,使其在开源领域中脱颖而出。
sd15 - 开源AI图像生成模型
版权模型开源项目Huggingface开源OpenRAIL许可证Github软件
Stable Diffusion 1.5是一个基于OpenRAIL许可的开源AI图像生成模型。该模型能根据文本描述生成高质量、多样化的图像,支持文本到图像生成、图像编辑和风格迁移等任务。它广泛应用于艺术创作、设计和内容生成领域,为创作者提供了强大而灵活的工具。
open_llama_3b - 开源复现LLaMA架构的大型语言模型
模型GithubOpenLLaMA开源项目Huggingface开源自然语言处理大语言模型人工智能
OpenLLaMA是一个开源项目,旨在复现LLaMA大型语言模型。它基于Apache 2.0许可,提供了7B和3B模型(1万亿标记训练)以及13B模型预览版(6000亿标记训练)。项目发布了PyTorch和JAX格式的预训练权重,并与原始LLaMA进行了性能对比。OpenLLaMA使用RedPajama数据集训练,整体性能与LLaMA和GPT-J相当,部分任务表现更佳。
falcon-40b - 性能领先的开源大规模语言模型
语言模型Huggingface模型Falcon-40B开源人工智能Github开源项目自然语言处理
Falcon-40B是TII开发的400亿参数因果解码器模型,在1万亿个token的RefinedWeb数据集上训练。作为目前性能最佳的开源模型,它超越了LLaMA和StableLM等竞品。该模型采用优化的推理架构,集成FlashAttention和multiquery技术。Falcon-40B以Apache 2.0许可证发布,支持商业应用。主要支持英语、德语、西班牙语和法语,可用于多种自然语言处理任务。
Qwen1.5-0.5B-Chat-GGUF - 基于通义千问1.5的轻量级中文对话模型
模型开源项目Huggingface开源Apache 2.0许可证法律Github软件
Qwen1.5-0.5B-Chat-GGUF是基于通义千问1.5系列的中文对话模型,采用GGUF格式实现。该模型具有较小的尺寸和较快的推理速度,适合在资源受限环境中部署。这个轻量级模型为开发者和研究人员提供了一种高效方式来构建智能对话应用,实现中文语言模型的快速部署和使用。
Meta-Llama-3.1-8B-Instruct-GGUF - Llama 3.1 8B多语言AI模型 具备128K上下文处理能力
模型多语言开源Github大语言模型Llama 3.1Huggingface开源项目Meta
Meta-Llama-3.1-8B-Instruct-GGUF是Llama 3系列的最新版本,在多语言处理方面性能优异。该模型具有128K上下文窗口,经过15T token训练,包含2500万合成样本。作为开源领域的先进模型,它适用于广泛的AI任务。LM Studio用户可通过'Llama 3'预设轻松应用这一模型。
Vikhr-7B-instruct_0.4 - 俄英双语指令微调大模型新版本提升性能
Vikhr语言模型模型俄语开源Github指令微调Huggingface开源项目
Vikhr-7B-instruct_0.4是一款针对俄语和英语优化的指令微调大语言模型。新版本通过增加SFT训练数据,大幅提升了JSON处理和多轮对话的稳定性,尤其在处理长上下文和复杂提示时表现出色。模型采用Flash Attention 2技术,支持Google Colab使用,并提供GGUF格式。项目包含详细的使用示例和学术引用信息,方便研究人员和开发者快速上手。
chatglm3-6b - 强大基础模型支持多功能复杂对话场景
模型ChatGLM3-6B对话模型开源人工智能Github多功能Huggingface开源项目
ChatGLM3-6B是ChatGLM系列的最新开源对话模型,基于强大的基础模型构建。它支持多轮对话、工具调用、代码执行和Agent任务等复杂场景,采用新的Prompt格式。在10B以下预训练模型中,ChatGLM3-6B性能出众。该模型对学术研究开放,登记后可免费商用,为自然语言处理领域提供了强大工具。
Llama-3.2-1B-Instruct-GGUF - Llama 3.2模型的多精度量化版本
语言模型模型量化开源人工智能GithubLlamaHuggingface开源项目
Llama-3.2-1B-Instruct-GGUF是Llama 3.2模型的量化版本,使用llama.cpp和imatrix方法进行处理。该项目提供从f16到Q3_K_XL多种精度选项,文件大小在0.80GB至2.48GB之间。这些模型支持多语言处理,适合在资源受限的设备上运行,用户可根据需求选择合适版本以平衡性能和资源占用。
Llama-3.2-3B-Instruct - Meta开发的多语言对话和任务型AI模型
UnslothHuggingface模型大语言模型开源模型微调Github开源项目Llama 3.2
Llama-3.2-3B-Instruct是Meta公司开发的多语言大型语言模型,专为对话和任务处理而优化。该模型支持8种主要语言,在行业基准测试中表现出色。采用优化的Transformer架构,结合监督微调和人类反馈强化学习技术,Llama-3.2系列模型具备强大的推理能力和应用灵活性,适用于广泛的对话和任务处理场景。
bloom-7b1 - 支持57种语言的开源大型语言模型
Huggingface模型开源人工智能大型语言模型多语言Github开源项目BLOOM
BLOOM是BigScience项目开发的开源大型语言模型,支持45种自然语言和12种编程语言,拥有1760亿参数。该模型使用1.5TB预处理文本在法国超级计算机上训练,可用于文本生成、信息提取和问答等任务。BLOOM采用RAIL开放许可证,旨在推动语言模型公共研究,但不适用于高风险场景。
Llama-2-70b-hf - Meta开发的70亿参数开源大语言模型 支持多样化自然语言处理任务
模型Github开源项目Huggingface开源LLAMA 2自然语言处理大语言模型人工智能
Llama-2-70b-hf是Meta开发的70亿参数大语言模型,基于优化的Transformer架构,支持4k上下文长度。模型在2万亿token公开数据上预训练,通过监督微调和人类反馈强化学习实现对话能力。在多项基准测试中表现优异,适用于对话、问答、推理等自然语言处理任务。作为开源发布的基础模型,为学术研究和商业应用提供了有力支持。
OpenFLUX.1 - 可定制的高速图像生成开源模型
模型模型微调开源项目Huggingface开源图像生成OpenFLUX.1AI绘图Github
OpenFLUX.1是FLUX.1-schnell模型的改进版本,移除了蒸馏限制,支持进一步微调。该模型采用经典CFG方法,可在1-4步内生成高质量图像,为开发者提供了灵活的图像生成解决方案。OpenFLUX.1使用Apache 2.0许可,目前处于beta 0.1.0阶段,正在持续优化中。
falcon-7b - 基于海量高质量数据训练的70亿参数开源语言模型
模型Github开源项目语言模型Huggingface开源自然语言处理人工智能Falcon-7B
Falcon-7B是TII开发的70亿参数因果解码器模型,基于1.5万亿个精选高质量token训练。模型采用FlashAttention和multiquery等优化架构,提升推理效率。以Apache 2.0许可证发布,允许商业使用。性能超越同类开源模型,适用多种自然语言处理任务,可进一步微调满足特定需求。
cogvlm-chat-hf - 开源视觉语言模型CogVLM在多项跨模态基准测试中超越PaLI-X 55B
模型开源GithubCogVLM图像识别视觉语言模型Huggingface开源项目多模态
CogVLM是一款开源视觉语言模型,具有100亿视觉参数和70亿语言参数。在NoCaps、Flicker30k等10个经典跨模态基准测试中,CogVLM实现了最先进的性能,部分超越PaLI-X 55B。其架构包括视觉变换器编码器、MLP适配器、预训练语言模型和视觉专家模块。CogVLM能进行多模态对话,适用于图像描述和视觉问答等任务。该模型对学术研究开放,经登记后可免费用于商业用途。
Llama-3.1-8B-Lexi-Uncensored-V2 - 基于Llama-3.1的无审查文本生成模型,支持多任务处理
语言模型模型开源Llama-3.1-8B-Lexi-Uncensored-V2人工智能GithubHuggingface开源项目自然语言处理
Llama-3.1-8B-Lexi-Uncensored-V2是一个基于Llama-3.1-8b-Instruct的开源文本生成模型。该模型在IFEval、BBH和MMLU-PRO等多项评测中展现出良好性能,支持文本生成、问答和数学推理等多种任务。模型允许用户通过自定义系统提示来优化输出。由于其无审查特性,建议使用者在应用时注意内容合规性,并在部署服务前考虑实施适当的对齐措施。
open_llama_7b - 开源复现的大规模语言模型媲美原版LLaMA
Huggingface模型开源大语言模型人工智能GithubOpenLLaMA开源项目自然语言处理
OpenLLaMA是一个基于Apache 2.0许可的开源大型语言模型,旨在复现Meta AI的LLaMA。该项目提供了在1万亿个token上训练的7B和3B模型,以及在6000亿个token上训练的13B模型预览版。OpenLLaMA基于RedPajama数据集训练,在多项评估任务中表现与原版LLaMA相当或更优。项目开源了PyTorch和JAX格式的预训练权重,支持使用Hugging Face transformers和EasyLM框架加载模型。
Llama-3.2-3B-Instruct-GGUF - Meta Llama-3.2-3B模型的GGUF文件和高效微调工具
语言模型Huggingface模型开源机器学习Github开源项目Llama 3.2微调
本项目提供Meta Llama-3.2-3B语言模型的GGUF格式文件,支持2至16位量化。集成的Unsloth工具可大幅提升Llama 3.2、Gemma 2和Mistral等模型的微调效率,速度提升2-5倍,内存减少70%。项目支持在Google Colab上使用Tesla T4 GPU免费微调模型,并可将结果导出为GGUF、vLLM格式或上传至Hugging Face平台。
bloom-560m-intermediate - BLOOM大型多语言模型的训练过程中间检查点
Huggingface模型大语言模型开源人工智能Github多语言开源项目BLOOM
bloom-560m-intermediate项目提供BLOOM大型多语言模型在训练过程中的中间检查点,涵盖1000至600000全局步骤的多个阶段。BLOOM支持45种自然语言和12种编程语言,使用1.5TB预处理文本训练。这些检查点为研究人员提供了分析大型语言模型训练过程的重要资源。
mpt-7b - 高性能开源大语言模型
Huggingface模型深度学习大语言模型开源MPT-7BGithub开源项目自然语言处理
MPT-7B是一个开源大语言模型,在1万亿英文文本和代码上预训练。其改进的Transformer架构支持高效训练和推理,可处理超长输入。模型采用ALiBi技术处理长序列,无需位置嵌入。MPT-7B支持商业使用,为开发者提供了适用于多种下游任务微调的强大基础模型。
dolly-v2-3b - Databricks发布开源指令微调语言模型支持商业使用
语言模型Huggingface模型指令微调开源DollyDatabricksGithub开源项目
Dolly-v2-3b是Databricks开发的开源指令微调语言模型,基于Pythia-2.8b构建,拥有28亿参数。该模型使用约15,000条指令/回复数据进行训练,涵盖头脑风暴、分类、问答等多个领域。尽管不是最先进模型,但在指令遵循方面表现优异。Dolly-v2-3b采用MIT许可证,支持商业使用,可通过Transformers库轻松部署。
DarkIdol-Llama-3.1-8B-Instruct-1.2-Uncensored-GGUF-IQ-Imatrix-Request - 基于Llama 3.1的无审查8B参数指令型语言模型
非审查Github开源项目LLaMAHugging FaceAI模型Huggingface模型开源
DarkIdol-Llama-3.1-8B-Instruct-1.2-Uncensored-GGUF-IQ-Imatrix-Request是一个基于Llama 3.1架构的8B参数无审查指令型语言模型。采用GGUF格式,该模型具有高性能和灵活性,适用于多种应用场景。作为无审查模型,它在内容生成、问答和复杂任务执行方面提供了更大的自由度。使用时需注意遵守相关法律法规和伦理准则。
bloom-1b7 - 开源多语言自然语言处理模型
Huggingface模型开源人工智能大型语言模型多语言Github开源项目BLOOM
BLOOM-1B7是BigScience项目开发的开源多语言预训练语言模型,支持45种自然语言和12种编程语言。该模型采用改进的Transformer架构,包含17亿参数,在1.5TB多语言语料上训练而成。BLOOM-1B7可用于文本生成、信息提取、问答等多种自然语言处理任务,为研究人员和开发者提供了探索大型语言模型特性的平台。模型遵循RAIL许可证,限制了在高风险场景中的使用,旨在推动语言模型的公共研究。
Baichuan2-13B-Chat - 强大的开源大语言模型支持中英双语
模型开源Baichuan 2Github大语言模型基准评估Huggingface开源项目商业许可
Baichuan2-13B-Chat是百川智能推出的新一代开源大语言模型,由2.6万亿高质量语料训练而成。该模型在中英文基准测试中表现优异,尤其在数学逻辑推理和复杂指令理解方面有显著提升。模型提供Base和Chat两个版本,以及4位量化版本,可用于学术研究和商业应用。Baichuan2-13B-Chat为自然语言处理领域提供了强大的工具。
meditron-7B-AWQ - 通过低比特量化方法优化变换器模型性能
医疗Github开源项目量化开源HuggingfaceMeditron 7B推理模型
此项目提供EPFL LLM团队的Meditron 7B模型的AWQ量化文件,采用高效的4位低比特量化方法,在提升变换器推理速度的同时保证质量。兼容多种平台和工具,如Text Generation Webui、vLLM、Hugging Face Text Generation Inference及Transformers。
llama2_xs_460M_experimental - 了解LLaMA与LLaMa 2的小型实验版本及其精简模型参数
大模型GithubMMLU开源项目LLaMa 2开源HuggingfaceTokenization模型
项目呈现Meta AI的LLaMA与LLaMa 2开源重现版本,并采用缩小的模型参数:llama1_s为1.8B,llama2_xs为460M。训练基于RedPajama数据集,使用GPT2Tokenizer分词,支持通过HuggingFace Transformers库直接加载以及文本生成。模型在MMLU任务中表现评估,其中llama2_xs_460M在0-shot和5-shot中分别得21.13和26.39的分数。
Llama-2-7B-GGUF - Meta开源的大型语言模型GGUF量化格式版本
Llama 2Meta语言模型GGUF模型开源GithubHuggingface开源项目
Llama 2 7B GGUF是Meta开源语言模型的优化版本,采用llama.cpp团队开发的GGUF量化格式。该版本提供2-8比特多种量化选项,支持CPU和GPU推理,可满足不同场景的部署需求。项目包含模型下载、运行指南以及主流框架的集成方法,方便开发者快速上手使用。
Yi-34B-Chat - 基于3T级语料训练的高性能开源双语大模型
Yi开源项目模型Github人工智能双语大语言模型开源Huggingface
Yi-34B-Chat是一个由01.AI开发的开源大语言模型,基于3T级多语言语料训练。模型在AlpacaEval评测中的表现仅次于GPT-4 Turbo,在语言理解、推理和阅读理解等方面展现出优秀能力。经过英文和中文双语评测,其性能超越了Falcon-180B、Llama-70B等主流开源模型。
openchat-3.5-0106 - 基于Mistral的7B开源语言模型在多项测试中超越大型模型
语言模型开源项目基准测试模型人工智能GithubOpenChat开源Huggingface
OpenChat-3.5-0106是基于Mistral-7B架构开发的开源语言模型,具备编程、数学推理和对话等功能。模型支持8192上下文长度,提供编程专用和通用两种模式。在HumanEval、GSM8K等基准测试中,该模型展现出超越部分大型商业模型的性能。此外,模型还集成了实验性的评估器功能
mformer-care - 基于Transformers的多模态深度学习模型
开源项目transformers深度学习模型机器学习Github自然语言处理开源Huggingface
mformer-care是一个基于Hugging Face Transformers库开发的开源项目,采用MIT许可证,支持英语语言处理。该项目利用Transformer架构实现多模态数据的处理与分析。
mpt-7b-chat - 对MPT-7B-Chat模型的优化及其在开源LLaMA对话生成中的进展
Transformer开源项目MosaicML模型对话生成Huggingface开源MPT-7B-ChatGithub
MPT-7B-Chat是MosaicML开发的对话生成模型,通过微调著名数据集提高生成效果,采用去掉位置嵌入的改进型解码器架构及FlashAttention、ALiBi等创新技术,支持较长序列训练与微调。此模型在MosaicML平台研发,可通过MosaicML与Hugging Face加载,尽管输出可能包含错误或偏见,仍为开发者提供了一个开源的对话生成提升工具。
OLMoE-1B-7B-0924 - 开源混合专家模型,具备高性价比和竞争力
allenai开源项目模型Mixture-of-ExpertsOLMoE开源大语言模型HuggingfaceGithub
OLMoE-1B-7B-0924是一个混合专家语言模型,具备1B个活跃和7B总参数,以其高性能和成本效益在同类模型中表现出色,并可竞争于更大规模的模型如Llama2-13B。该项目完全开源,提供了详细的预训练、监督微调及偏好优化的检查点和相关资源,适合自然语言处理领域的研究和开发。
MicroLlama - 预算内的大规模语言模型构建:300M Llama模型的探索
开源项目huggingface模型Github开源Huggingface文本生成MicroLlama语言模型
该项目在有限预算内,通过全面开源的方法构建了一个300M Llama语言模型。尽管性能不及更大型的模型,但以不到500美元的投入,在多数据集上表现出色,并在与类似参数的BERT模型比较时展现优势。项目使用Vast.ai的计算资源和AWS S3存储,对TinyLlama模型进行了调整,重点优化Slimpajama数据集。这一项目展示了低成本大规模模型开发的潜力,并为细化应用如轻量级聊天机器人提供了坚实基础。
相关文章
Tabby:最好用的开源的代码补全工具!!实现人人都会编程
2024年08月02日
MindSearch:一个有搜索流程图的开源AI搜索引擎,直接对标SerachGPT和Perplexity.ai Pro
2024年08月03日
Supabase:开源Firebase替代品的全面解析
2024年08月29日
GPT-Engineer: 革命性的AI辅助编程工具
2024年08月29日
AppFlowy:开源协作工作空间的新选择
2024年08月29日
Tabby: 开源自托管AI编码助手的革新之选
2024年08月29日
IOPaint: 革新图像编辑的开源AI工具
2024年08月29日
Amplication: 革命性的AI驱动后端代码生成平台
2024年08月29日
开源AI客服,100人的客服团队未来只需1人
2024年08月02日