#LLaMA

MobileLLaMA-1.4B-Base - 简化的1.4B参数Transformer模型,支持快速部署
Github模型开源项目RedPajamaMobileLLaMAHuggingfaceLLaMA自然语言理解Transformers
MobileLLaMA-1.4B-Base是一款以1.3T tokens训练的1.4B参数Transformer模型,旨在降低LLaMA的参数数量以实现快速部署。通过标准语言理解和常识推理基准测试,展示其性能与最新开源模型相媲美。详细信息请参考GitHub和相关论文。
ToolACE-8B - 在工具调用性能上与GPT-4旗鼓相当的开源语言模型
模型函数调用开源项目HuggingfaceToolACE-8B数据集GithubLLaMAAPI
ToolACE-8B是一个基于LLaMA-3.1-8B-Instruct模型微调的工具调用专家模型。它在Berkeley Function-Calling Leaderboard上表现出色,性能与GPT-4相当。该模型采用ToolACE数据集训练,结合多智能体对话生成和双层验证系统,确保了数据的多样性和准确性。ToolACE-8B在函数调用方面展现出卓越能力,为开发者提供了强大的工具使用支持。
llama-3.2-Korean-Bllossom-3B - 基于Llama 3.2的韩英双语增强语言模型
语言模型模型Bllossom-3BGithubLLaMA英语开源项目Huggingface韩语
llama-3.2-Korean-Bllossom-3B是基于Llama 3.2-3B的韩英双语增强模型。通过150GB精选韩语数据的全面微调和指令调优,该模型在保持英语能力的同时显著提升了韩语表现。在LogicKor基准测试中,它创下了3B-5B规模模型的最高分。这个开源模型支持商业使用,为韩语自然语言处理任务提供了有力支持。
DarkIdol-Llama-3.1-8B-Instruct-1.2-Uncensored-GGUF-IQ-Imatrix-Request - 基于Llama 3.1的无审查8B参数指令型语言模型
非审查Github开源项目LLaMAHugging FaceAI模型Huggingface模型开源
DarkIdol-Llama-3.1-8B-Instruct-1.2-Uncensored-GGUF-IQ-Imatrix-Request是一个基于Llama 3.1架构的8B参数无审查指令型语言模型。采用GGUF格式,该模型具有高性能和灵活性,适用于多种应用场景。作为无审查模型,它在内容生成、问答和复杂任务执行方面提供了更大的自由度。使用时需注意遵守相关法律法规和伦理准则。
LIMA-13b-hf - 基于Transformer架构的自动回归语言模型,用于自然语言处理的研究
自然语言处理开源项目模型性能Github模型LLaMAHuggingface偏见评估大语言模型
LLaMA是由Meta AI的FAIR团队开发的基于Transformer架构的自动回归语言模型,专为自然语言处理和机器学习研究人员而设计。该模型提供7B、13B、33B和65B参数的多种规格,支持问答和自然语言理解等研究用途,并注重偏见和有害内容生成的评估与减少。虽然使用20种语言进行训练,但其在英语文本处理上表现更佳。LLaMA被定位为AI研究基础工具,不建议直接应用于未经评估的下游应用。
vicuna-7b-v1.3 - 开源对话AI助手 基于LLaMA高性能微调
Huggingface模型大语言模型聊天助手GithubVicuna开源项目LLaMAFastChat
Vicuna-7b-v1.3是LMSYS开发的开源对话AI助手,基于LLaMA模型微调。该项目利用约125K条ShareGPT用户对话数据进行监督式指令微调训练,主要用于大型语言模型和聊天机器人研究。Vicuna提供命令行界面和API接口,便于研究人员和爱好者在自然语言处理、机器学习和人工智能领域进行实验。模型在标准基准测试、人类偏好和LLM评判方面表现优异,详细评估结果可在其论文和在线排行榜中查看,是AI对话研究的有力工具。
decapoda-research-llama-7B-hf - Meta AI开发的7B参数开源语言模型
机器学习Github语言训练模型开源项目Huggingface大语言模型LLaMA人工智能
LLaMA-7B是Meta AI开发的开源语言模型,基于Transformer架构,拥有70亿参数。该模型在多语言数据集上训练,主要针对英语优化,可用于自然语言处理研究,如问答和语言理解。LLaMA-7B适合研究人员探索大型语言模型的能力和局限性,但在实际应用中需要进行风险评估。本模型为基础模型,不建议直接用于下游任务。
vicuna-13b-v1.3 - 基于LLaMA微调的Vicuna聊天助手优化交互
机器学习Github模型开源项目聊天助手VicunaHuggingfaceLLaMA自然语言处理
Vicuna v1.3是由LMSYS开发的聊天助手,通过对LLaMA进行125K对话的指令微调,专用于大语言模型和聊天机器人研究,主要用户为自然语言处理、机器学习和人工智能领域的研究者和爱好者。模型经过标准基准、人类偏好及语言模型评测。查看项目主页以获取版本差异的更多信息。
llama-7b-hf - LLaMA-7B模型在自然语言处理和AI研究中的应用
模型评估Huggingface补充授权LLaMA模型Github开源项目自然语言处理自动回归模型
LLaMA-7B是Meta AI的FAIR团队开发的自回归语言模型,基于转换器架构拥有7B参数,主要用于研究大语言模型的可能性。模型改进了解决EOS标记问题,并通过多数据集如CCNet、C4和Wikipedia进行训练,展现出语言间和方言间的性能差异,适合问答和自然语言理解等应用场景。仅限获授权的非商业研究使用,更多信息请参考Meta AI的研究出版物。
llama-30b-instruct-2048 - 语言处理模型,专为增强文本生成能力设计
伦理考量HuggingfaceGithub高性能开源项目LLaMA模型AI绘图数据集
Llama-30b-instruct-2048模型由Upstage研发,基于LLaMA架构,优化用于生成文本,支持动态扩展处理10k+输入符号。在多项基准数据集上表现出色,并结合DeepSpeed与HuggingFace工具进行微调。使用该模型需获得持有Meta授权表单的许可。
DanTagGen-delta - 改进标签生成与艺术图像多样性的开源项目
HakuPhi模型Github开源项目文本生成LLaMADanTagGen龙女Huggingface
DanTagGen-delta项目在HakuBooru数据库的支持下,利用NanoLLaMA架构和7.2M数据集进行训练,适用于LLaMA推理接口。引入质量标签的新版本增强了图像多样性,尽管存在轻微欠拟合。项目提供FP16与低比特量化模型,建议使用llama.cpp提升运行效率。