#Llama 2

LIMA2-7b-hf - Llama 2语言模型的功能概述与应用
Huggingface安全性Github开源项目模型大型语言模型Llama 2Meta文本生成
Llama 2是由Meta推出的大型语言模型系列,具备7亿到70亿参数,专为对话场景设计。Llama 2在多项评测中表现优异,能够与闭源模型如ChatGPT媲美。该模型采用优化的transformer架构,通过监督微调和人类反馈的强化学习来提升效能。使用前需遵守Meta许可条款,支持用于英语的商业和研究。
LlamaGuard-7b - Llama-Guard模型为文本生成提供安全保障
开源项目人工智能模型GithubLlama 2Huggingface内容审核Meta法律协议
Llama-Guard基于Llama 2,专注于内容分类以确保文本生成的安全。通过概率评估,识别不安全子类别。该模型使用Anthropic和内部数据集训练,提供强大分类能力,能识别并预防如暴力、仇恨、性内容等不当内容。在Hugging Face可用,须遵循Meta许可证协议。
Llama-2-70B-Chat-GGUF - 支持文本生成与特殊符号的先进开源模型
兼容性模型文件开源项目模型GithubLlama 2Huggingface量化方法文本生成
Llama 2 70B Chat项目采用全新GGUF格式,取代已弃用的GGML格式,提升标记化与特殊符号支持功能。此项目由Meta Llama 2开发,兼容多种UI与库,支持多平台GPU加速应用,在文本生成与性能方面提供明显改善。GGUF格式还具备元数据支持,具备更强的扩展性,适用于复杂多变的应用场景。
Llama-2-ko-7b-Chat - Llama-2拓展到韩语文本生成的进展与优化
Github开源项目NLP模型语言模型Huggingface文本生成训练Llama 2
Llama-2-Ko-7b-Chat通过结合Llama-2预训练模型和特定韩语数据集kullm-v2,致力于提升韩语文本生成能力,实现对话支持。Taemin Kim和Juwon Kim基于Naver BoostCamp NLP-08开发并持续更新优化此项目。模型只接受和生成文本,采用先进技术以提高生成质量,为研究新语言处理能力和优化方案的研究者及开发者提供参考。
Llama-2-7B-Chat-AWQ - 高效4位量化提升AI对话性能
Llama 2对话生成低比特量化Meta模型Github开源项目文本生成Huggingface
AWQ是一种高效的4位量化方法,在多用户环境中的并发推理中表现出色。它通过降低模型计算需求,实现小型GPU的部署,从而节省成本。AWQ支持vLLM服务器,尽管总体吞吐量低于未量化模型,但在有限硬件环境中提高了推理效率,例如70B模型可在48GB显存的GPU上运行。AWQ适合如Llama 2 7B Chat的对话优化模型,为AI助手应用提供成本效益高的解决方案。
Llama-2-13B-chat-AWQ - 增强Transformer模型推理效率的AWQ量化技术
Github模型开源项目MetaHuggingface文本生成Llama 2对话优化模型量化
Llama-2-13B-chat-AWQ项目利用AWQ低比特量化提高Transformer模型推理效率,支持4比特量化技术,相较于传统GPTQ方法,能更快速地实现多用户并发推理,降低硬件要求和部署成本。AWQ现已兼容vLLM平台进行高吞吐量推理,尽管总体吞吐量较未量化模型略有不如,但可通过较小的GPU实现高效部署,比如70B模型仅需一台48GB GPU即可运行。
WizardVicuna2-13b-hf - 细化Llama 2模型以优化对话生成能力
开源项目模型GithubLlama 2Huggingface文本生成Meta训练数据参数规模
基于ehartford的wizard_vicuna_70k_unfiltered数据集,对Llama-2-13b-hf模型进行精细化训练三次,专注于对话应用的优化。该项目在开源基准测试中表现优异,并在人类评估中显示出与某些流行闭源模型相当的帮助性和安全性。为确保最佳性能,需按照指定格式使用INST和<<SYS>>标签。此模型由Meta研发,访问需遵循相关商业许可证。