#Llama 2

llama - Meta开源的大语言模型
热门AI开发模型训练AI工具Llama 2Llama模型PurpleLlamaAI大模型Llama堆栈
meta-llama/llama在GitHub提供先进的Llama模型推理代码,开发者可以参与贡献,助力项目发展。该平台允许下载各种预训练及微调的Llama大型语言模型,并提供完整的模型权重及实施代码,推动技术创新与企业发展。
enchanted - 支持iOS、macOS和visionOS的开源私有模型应用
EnchantedOllamaLlama 2macOS应用私有模型Github开源项目
这款开源应用兼容Ollama,支持macOS、iOS和visionOS系统,提供安全、私密且多模式的体验。用户可通过应用连接私有模型,如Llama 2、Mistral、Vicuna和Starling等。主要功能包括多模态支持、会话历史、Markdown支持、语音提示及图像附件等,所有功能均可离线使用。需配置Ollama服务器以使用全部功能。
Get-Things-Done-with-Prompt-Engineering-and-LangChain - 利用Prompt Engineering和LangChain构建实用的AI应用
LangChainLlama 2AI应用ChatGPT/GPT-4模型部署Github开源项目
探索如何使用ChatGPT/GPT-4和LangChain在Python中构建实际应用程序。从快速开始指南到深度调优,多种教程和实战项目帮助用户在AI领域实现快速成长。
llama2 - 基于Meta开源Llama 2模型的优化轻量级聊天机器人
Llama 2Llama2-7BMetaReplicateStreamlitGithub开源项目
此聊天机器人应用使用Meta的开源Llama 2模型,尤其是a16z团队部署的Llama2-7B模型。应用程序经过重构,可以轻量级部署到Streamlit Community Cloud平台。需要获取Replicate API令牌才能使用。除此之外,还可以尝试更大规模的Llama2-13B和Llama2-70B模型。
gazelle - 专注语音的语言模型的推断代码及社区合作
Gazelle等待模型HuggingfaceApache 2.0Llama 2Github开源项目
本项目提供了用于Gazelle联合语音语言模型的代码,基于Huggingface的Llava实现。包括多个版本的检查点和模型更新,尽管优化有限,仍欢迎社区的贡献。使用者需遵循Apache 2.0和Llama 2许可证条款。本项目不建议在生产环境中使用,但能应对一些对抗性攻击。欢迎加入Discord获取更多信息和支持。
llama2.c - 轻量级Llama 2推理引擎 支持多平台高性能部署
Llama 2AI模型自然语言处理开源项目人工智能Github
llama2.c是一个基于Llama 2的开源轻量级推理引擎,支持在Linux、BSD、macOS和Windows等多平台上运行。它提供高性能CPU和GPU推理,并可利用OpenBLAS、Intel MKL等加速库。该项目旨在通过部署小型网络化LLM,在资源受限环境(如学校图书馆)中实现AI应用,推动AI技术的普及和集体智能的发展。
llama2.c - 轻量级Llama 2模型推理引擎的纯C语言实现
Llama 2C语言模型推理AI模型开源项目Github
llama2.c是一个用纯C语言实现的Llama 2模型推理引擎,仅需700行代码即可运行PyTorch训练的模型。项目设计简洁易用,提供从训练到推理的完整方案,支持Meta官方和自定义小型Llama 2模型。通过模型量化技术,llama2.c能够提升推理速度并缩小模型体积,为轻量级大语言模型部署提供了高效解决方案。
Llama-2-Onnx - Llama 2模型的ONNX优化版本
Llama 2ONNX模型优化AI模型自然语言处理Github开源项目
此项目是Meta Llama 2模型的ONNX优化版本。提供7B和13B参数规模,支持float16和float32精度。包含命令行示例和Gradio聊天界面,方便用户使用。项目文档详细介绍了仓库克隆、子模块初始化和性能优化等内容。
llama-2-jax - 基于JAX的大语言模型高效实现
Llama 2JAX模型实现大语言模型机器学习Github开源项目
这是一个利用JAX框架实现Llama 2模型的开源项目。该项目致力于提高模型训练和推理效率,构建高质量Transformer代码库,为自然语言处理领域提供有价值见解。项目功能包括参数转换、数据加载、模型架构实现等,并在持续开发训练和生成功能。这为研究人员和开发者提供了便捷的Llama 2模型研究与应用工具。
Swallow-7b-instruct-hf - 日语与英语双支持的Swallow模型,带来高效文本推理
训练数据集GithubJapanese开源项目HuggingfaceLlama 2模型发布Swallow模型
Swallow模型加入日语数据进行持续预训练,支持日语和英语。项目推出不同版本的指令调优模型,如Swallow-7b-instruct-v0.1,以提升日语任务表现。通过广泛的词汇表和较少的tokens,模型在文本生成、机器翻译和阅读理解任务中表现优异,提供快速而精确的文本推理。
Llama-2-13b-hf - Meta开源的130亿参数语言模型 适用于多种NLP任务
Huggingface模型大语言模型人工智能Github元宇宙Llama 2自然语言处理开源项目
Llama-2-13b-hf是Meta开发的大规模语言模型,拥有130亿参数。该模型在2万亿tokens的公开数据上预训练,采用优化的Transformer架构。它支持对话、问答、文本生成等多种NLP任务。与Llama 1相比,Llama 2在代码、常识推理、世界知识等基准测试中表现更佳。此模型开源可用于商业和研究,为AI应用开发奠定了基础。
h2ogpt-4096-llama2-70b-chat - Llama 2 70B模型的对比和私密交互特性
对比测试开源项目h2oGPT模型架构GithubLlama 2Huggingface模型文本生成
h2ogpt-4096-llama2-70b-chat项目是Meta的Llama 2 70B Chat模型的克隆,用户可以在h2oGPT平台上直接测试和比较不同大语言模型的性能。此项目包含私密文档对话功能,强调数据隐私保护,并以高效的模型架构和优化特性为主要优势。更多关于该项目的更新信息,用户可以访问H2O.ai了解最新的自然语言处理技术。
Llama-2-70b-chat-hf - Meta开发的700亿参数对话型语言模型
模型Github开源项目Huggingface自然语言处理大语言模型人工智能Llama 2Meta
Llama-2-70b-chat-hf是Meta开发的大型语言模型,拥有700亿参数。该模型经过对话微调,适用于助手式聊天等场景,在多数基准测试中优于开源聊天模型。Llama 2系列采用优化的transformer架构,通过监督微调和人类反馈强化学习提升性能。模型支持英语商业和研究用途,可用于各种自然语言生成任务。
vicuna-13b-v1.5 - 基于Llama 2的开源对话AI助手,展现卓越性能
模型Github开源项目Huggingface自然语言处理大语言模型人工智能VicunaLlama 2
Vicuna-13b-v1.5是LMSYS团队开发的开源对话AI助手,基于Llama 2模型微调。该模型利用ShareGPT收集的用户对话进行训练,在多项评估中表现优异。主要应用于大型语言模型和聊天机器人研究,适合NLP、机器学习和AI领域的研究者使用。提供命令行界面和API接口,方便用户快速上手和深入研究。
bode-7b-alpaca-pt-br-no-peft - 基于Llama 2的7B参数葡萄牙语自然语言处理模型
Bode模型微调开源项目Huggingface自然语言处理模型Llama 2葡萄牙语Github
bode-7b-alpaca-pt-br-no-peft是一个基于Llama 2微调的7B参数葡萄牙语自然语言处理模型。该模型使用Alpaca数据集训练,针对葡萄牙语文本生成、机器翻译和摘要等任务进行了优化。作为一个开源项目,它旨在填补葡萄牙语大规模语言模型的空白,为相关研究和应用提供基础支持。
tiny_random_llama2 - 精简版Llama 2模型助力CI测试效率提升
Huggingface模型机器学习CI测试人工智能Github开源项目Llama 2
tiny_random_llama2是一个专为持续集成(CI)测试设计的精简版Llama 2模型。该模型保留了Llama 2的核心架构,但显著降低了规模,实现了快速加载和执行。它主要用于CI环境中高效测试Llama 2相关功能,无需消耗大量计算资源。这个轻量级版本使开发团队能够更快速、经济地进行回归测试和性能评估,提高了CI流程的整体效率。
Llama-2-7b-hf - Meta开发的开源语言模型 支持多种参数规模和商业应用
模型Llama 2人工智能Github大语言模型预训练模型Huggingface开源项目自然语言处理
Llama-2-7b-hf是Meta推出的开源大型语言模型之一,采用优化的Transformer架构。该模型经过2万亿token预训练,拥有70亿参数,支持4k上下文长度。Llama 2系列提供预训练和微调版本,可用于多种自然语言生成任务。在多项基准测试中表现优异,并支持商业应用,是一个功能强大的开源AI工具。
h2ogpt-4096-llama2-13b-chat - Meta Llama 2 13B Chat克隆模型架构与性能比较
MetaGithub开源项目文本生成h2oGPT模型架构HuggingfaceLlama 2模型
h2oGPT提供了Meta Llama 2 13B Chat的克隆版本,展示其模型架构及功能。在h2oGPT的演示中,可以进行模型对比及私聊文档,了解其与其他模型的差异。通过LLM排行榜,可以查看其性能表现。这一项目基于Llama模型的结构特征,如多层感知机制、嵌入技术和注意力机制,增强了文本生成能力。更多信息请访问H2O.ai。
vicuna-13b-v1.5-16k - 基于Llama 2的开源对话模型 支持16K长文本处理
大语言模型Llama 2Vicuna模型Github机器学习开源项目Huggingface人工智能助手
Vicuna-13b-v1.5-16k是LMSYS团队基于Llama 2开发的开源对话助手。该模型利用ShareGPT平台收集的12.5万条对话数据进行微调,通过线性RoPE缩放技术实现16K字符的上下文处理。经过标准基准测试、人工评估和LLM评判的多维度验证,主要应用于自然语言处理、机器学习和人工智能领域研究。模型开放命令行界面和API接口,便于研究人员和开发者使用。
Llama-2-7B-GGUF - Meta开源的大型语言模型GGUF量化格式版本
Llama 2Meta语言模型GGUF模型开源GithubHuggingface开源项目
Llama 2 7B GGUF是Meta开源语言模型的优化版本,采用llama.cpp团队开发的GGUF量化格式。该版本提供2-8比特多种量化选项,支持CPU和GPU推理,可满足不同场景的部署需求。项目包含模型下载、运行指南以及主流框架的集成方法,方便开发者快速上手使用。
Llama-2-13b-hf - Meta开源130亿参数大语言模型 超强功能与安全性并存
开源项目模型Github人工智能机器学习大语言模型自然语言处理Llama 2Huggingface
这是Meta开发的开源预训练语言模型,采用优化的Transformer架构,具有130亿参数。该模型支持4k上下文长度,经2万亿token训练,在多项基准测试中表现优异。模型可用于对话及各类自然语言生成任务,适合商业和研究用途。训练数据来自公开数据集,并通过人类反馈强化学习提升了模型性能和安全性。
tinyllama-15M - 基于TinyStories数据集训练的15M参数轻量级语言模型
Github人工智能Huggingface深度学习模型训练TinyStories开源项目模型Llama 2
基于Llama 2架构开发的轻量级语言模型,具备15M参数规模,通过TinyStories数据集完成训练。模型源自karpathy的tinyllamas项目,并进行了格式转换。相关技术细节和使用方法可参考llama2.c项目文档,适合作为研究小型语言模型的参考实现。
Llama-2-13B-chat-GPTQ - 经GPTQ量化的Llama 2对话模型
人工智能对话MetaGithub开源项目HuggingfaceLlama 2深度学习模型量化模型
Llama 2 13B Chat的GPTQ量化版本,提供4-bit和8-bit多种量化选项。模型支持AutoGPTQ和ExLlama等框架,可用于对话和文本生成。通过量化技术降低显存占用并保持模型性能,适合在GPU设备上部署使用。
Llama-2-13B-chat-GGUF - Llama 2聊天模型的量化压缩版本
大语言模型Github开源项目量化模型GGUFHuggingfaceLlama 2人工智能
Llama 2 13B聊天模型的GGUF格式优化版本,采用2-bit到8-bit不等的量化方案,实现模型体积的大幅压缩。支持CPU和GPU环境下的高效推理,适配主流框架如llama.cpp、text-generation-webui等。通过不同量化级别的选择,可在推理性能与资源占用间实现灵活平衡。
vicuna-7b-v1.5-16k - 高性能开源聊天助手模型 支持16K长文本输入
开源项目人工智能模型GithubLlama 2机器学习HuggingfaceVicuna大语言模型
vicuna-7b-v1.5-16k是LMSYS开发的开源聊天模型,通过ShareGPT收集的12.5万条对话数据对Llama 2进行微调。模型支持16K上下文长度,采用线性RoPE缩放技术,主要应用于语言模型和聊天机器人研究。该项目提供完整的命令行界面和API接口,方便研究人员和开发者快速部署使用。
Llama-2-13B-fp16 - Llama 2模型的fp16格式转换提升推理性能
Llama 2量化参数预训练模型Github开源项目模型转换文本生成Huggingface
Llama 2模型的fp16格式文件提高了生成文本模型的推理效率和转换能力。该项目通过使用Hugging Face Transformers库,将Meta的原始PTH文件转换为HF格式,方便在GPU上进行推理和进一步转换。适用于多种自然语言生成任务,包括对话优化模型Llama-2-Chat。这些模型在评估中展示出色表现,适用于商业和研究。访问Discord获取支持或加入Patreon以获得更多权益。
h2ogpt-4096-llama2-7b-chat - 基于Meta Llama 2的开源增强对话模型
Llama 2大型语言模型人工智能模型Github开源项目自然语言处理h2oGPTHuggingface
该项目是对Meta Llama 2 7B Chat模型的优化升级版本。项目提供在线演示平台,可进行多个语言模型的性能对比和私人文档对话。通过h2oGPT平台可体验实时对话功能,并在模型排行榜中查看性能评估结果。
Llama-2-70B-Chat-GPTQ - 多量化参数优化的对话生成模型
Github量化模型生成文本模型开源项目对话模型HuggingfaceLlama 2对话优化
Llama-2-Chat是Meta Llama 2的预训练和微调文本生成模型,专为对话场景优化。在基准测试中表现优异,可与一些知名闭源模型相媲美。GPTQ版本提供多种量化参数,适配不同硬件配置,实现VRAM利用率最大化和优质推理。支持灵活下载分支供用户选择最佳量化配置。
Llama-2-70B-Chat-AWQ - 基于AWQ的4位量化法优化多用户环境推理效率
AI助手性能优化Github开源项目模型MetaHuggingface量化Llama 2
AWQ是一种高效的四位量化方法,能够提升Transformer的推理速度。结合vLLM,该方案在多用户服务器中实现高吞吐量的并发推理。AWQ的优势包括支持使用较小的GPU进行运行,简化部署要求并降低整体成本。例如,一个70B模型可在一台48GB的GPU上运行,而无需使用两台80GB设备。尽管目前整体吞吐量仍低于未量化模型,AWQ提供了更灵活的硬件选择。
LIMA2-7b-hf - Llama 2语言模型的功能概述与应用
Huggingface安全性Github开源项目模型大型语言模型Llama 2Meta文本生成
Llama 2是由Meta推出的大型语言模型系列,具备7亿到70亿参数,专为对话场景设计。Llama 2在多项评测中表现优异,能够与闭源模型如ChatGPT媲美。该模型采用优化的transformer架构,通过监督微调和人类反馈的强化学习来提升效能。使用前需遵守Meta许可条款,支持用于英语的商业和研究。
LlamaGuard-7b - Llama-Guard模型为文本生成提供安全保障
开源项目人工智能模型GithubLlama 2Huggingface内容审核Meta法律协议
Llama-Guard基于Llama 2,专注于内容分类以确保文本生成的安全。通过概率评估,识别不安全子类别。该模型使用Anthropic和内部数据集训练,提供强大分类能力,能识别并预防如暴力、仇恨、性内容等不当内容。在Hugging Face可用,须遵循Meta许可证协议。
Llama-2-70B-Chat-GGUF - 支持文本生成与特殊符号的先进开源模型
兼容性模型文件开源项目模型GithubLlama 2Huggingface量化方法文本生成
Llama 2 70B Chat项目采用全新GGUF格式,取代已弃用的GGML格式,提升标记化与特殊符号支持功能。此项目由Meta Llama 2开发,兼容多种UI与库,支持多平台GPU加速应用,在文本生成与性能方面提供明显改善。GGUF格式还具备元数据支持,具备更强的扩展性,适用于复杂多变的应用场景。
Llama-2-ko-7b-Chat - Llama-2拓展到韩语文本生成的进展与优化
Github开源项目NLP模型语言模型Huggingface文本生成训练Llama 2
Llama-2-Ko-7b-Chat通过结合Llama-2预训练模型和特定韩语数据集kullm-v2,致力于提升韩语文本生成能力,实现对话支持。Taemin Kim和Juwon Kim基于Naver BoostCamp NLP-08开发并持续更新优化此项目。模型只接受和生成文本,采用先进技术以提高生成质量,为研究新语言处理能力和优化方案的研究者及开发者提供参考。
Llama-2-7B-Chat-AWQ - 高效4位量化提升AI对话性能
Llama 2对话生成低比特量化Meta模型Github开源项目文本生成Huggingface
AWQ是一种高效的4位量化方法,在多用户环境中的并发推理中表现出色。它通过降低模型计算需求,实现小型GPU的部署,从而节省成本。AWQ支持vLLM服务器,尽管总体吞吐量低于未量化模型,但在有限硬件环境中提高了推理效率,例如70B模型可在48GB显存的GPU上运行。AWQ适合如Llama 2 7B Chat的对话优化模型,为AI助手应用提供成本效益高的解决方案。
Llama-2-13B-chat-AWQ - 增强Transformer模型推理效率的AWQ量化技术
Github模型开源项目MetaHuggingface文本生成Llama 2对话优化模型量化
Llama-2-13B-chat-AWQ项目利用AWQ低比特量化提高Transformer模型推理效率,支持4比特量化技术,相较于传统GPTQ方法,能更快速地实现多用户并发推理,降低硬件要求和部署成本。AWQ现已兼容vLLM平台进行高吞吐量推理,尽管总体吞吐量较未量化模型略有不如,但可通过较小的GPU实现高效部署,比如70B模型仅需一台48GB GPU即可运行。
WizardVicuna2-13b-hf - 细化Llama 2模型以优化对话生成能力
开源项目模型GithubLlama 2Huggingface文本生成Meta训练数据参数规模
基于ehartford的wizard_vicuna_70k_unfiltered数据集,对Llama-2-13b-hf模型进行精细化训练三次,专注于对话应用的优化。该项目在开源基准测试中表现优异,并在人类评估中显示出与某些流行闭源模型相当的帮助性和安全性。为确保最佳性能,需按照指定格式使用INST和<<SYS>>标签。此模型由Meta研发,访问需遵循相关商业许可证。