#Llama-3

LongLM - 通过Self-Extend方法扩展大语言模型的上下文窗口
SelfExtendLLMtransformersFlashAttentionLlama-3Github开源项目
LongLM项目介绍了Self-Extend方法,通过不需要调优的方式扩展大语言模型(LLM)的上下文窗口,利用其内在能力处理长上下文。此方法获得了Google I/O和ICML 2024的关注,并支持多种模型如Llama-3、Gemma和Qwen1.5。项目说明了如何安装和运行Self-Extend,并提供组选参数的指导原则及实验结果,以帮助用户应用这一技术。
raycast-g4f - 无需API Key使用GPT-4和Llama-3等AI模型,与Raycast轻松集成
RaycastGPT-4Llama-3深度学习免费使用Github开源项目
使用Raycast无需API Key即可免费访问GPT-4、Llama-3等AI模型。支持实时消息流、多种命令、文件上传、图像生成、自动更新和智能聊天命名功能。安装简单,通过源代码实现,增强生产力与AI技术的结合。
Meta-Llama-3.1-8B-Instruct-plus-Swallow - 日本语流畅度提升:Meta-Llama-3.1新版本兼容Llama-3
Github模型Meta Llama-3.1开源项目模型升级HuggingfaceLlama-3日本語Swallow-8B
Swallow-8B通过持续的日语预训练提高语言流畅度,并在Meta-Llama-3.1-8B-Instruct新版本中升级整合。该项目结合了tokyotech-llm的技术,增强了模型的日语处理能力。Meta-Llama-3.1-8B-Instruct以保留优势为基础,与Llama-3-Swallow-8B的差分向量融合,实现技术与功能的提升。
Hermes-3-Llama-3.1-405B - 开源大模型提升对话推理与功能调用能力
语言模型Llama-3Huggingface模型大规模模型人工智能GithubHermes 3开源项目
Hermes-3-Llama-3.1-405B是Nous Research基于Llama-3.1 405B进行全参数微调的开源大语言模型。该模型在对话、推理、角色扮演等方面能力显著提升,采用ChatML格式,支持系统提示词和函数调用。Hermes-3在多项基准测试中表现优异,可应用于广泛的通用任务场景。
Llama-3-8B-Lexi-Uncensored - 高性能多任务AI语言模型 无限制对话与灵活应用
人工智能模型模型开源Github文本生成Llama-3Huggingface开源项目自然语言处理
Llama-3-8B-Lexi-Uncensored是一款强大的AI语言模型,在AI2推理挑战、HellaSwag常识理解和GSM8k数学问题等多项任务中表现卓越。该模型在开放式LLM排行榜上平均得分66.18,展现了其在多个领域的应用潜力。虽然模型具有高度灵活性,但使用时需注意实施适当的安全措施。遵循Meta的Llama许可协议,可用于商业及其他多种用途。
Llama-3-8B-Instruct-DPO-v0.1-GGUF - Llama-3指令型语言模型的GGUF量化版本
文本生成Llama-3量化模型Huggingface模型人工智能Github开源项目GGUF
该项目提供Llama-3-8B-Instruct-DPO-v0.1模型的GGUF格式量化版本,支持2至8位多种位宽。模型采用ChatML提示模板,兼容多种GGUF客户端和库,如llama.cpp和LM Studio。作为文本生成模型,它为本地部署提供了高性能和灵活的选择。
Llama-3-8B-Instruct-v0.9-GGUF - 高效量化Llama-3-8B-Instruct模型支持多种位宽
文本生成Llama-3量化模型Huggingface模型人工智能Github开源项目GGUF
Llama-3-8B-Instruct-v0.9模型的GGUF格式量化版本提供2-bit至8-bit多种位宽选择。GGUF作为llama.cpp团队推出的新格式取代了GGML。该模型兼容多种GGUF支持的客户端和库,如llama.cpp和LM Studio,支持GPU加速,适合本地部署文本生成任务。
Llama-3-8B-Instruct-32k-v0.1-GGUF - Llama-3 8B指令模型GGUF版本支持多位量化及广泛应用
开源AILlama-3量化模型Huggingface模型Github开源项目自然语言处理GGUF
本项目提供Llama-3-8B-Instruct-32k-v0.1模型的GGUF格式文件。GGUF是llama.cpp团队开发的新格式,取代了旧有的GGML。该模型支持2至8位量化,主要用于文本生成。它与多款主流本地运行框架和界面工具兼容,如llama.cpp、LM Studio和text-generation-webui等。这些工具普遍支持GPU加速,使模型能够适应多样化的应用需求。
Llama-3_1-Nemotron-51B-Instruct - NVIDIA开发的高效大语言模型
模型神经网络架构搜索Llama-3开源项目Huggingface蒸馏Github大语言模型人工智能
Llama-3_1-Nemotron-51B-Instruct是NVIDIA开发的大语言模型,采用神经架构搜索方法平衡准确性和效率。该模型内存占用低,可在单个H100-80GB GPU上运行大型工作负载。模型在英语对话和编程方面表现出色,也支持非英语语言。经过安全评估和对抗性测试,适合商业应用。
Llama-3-8B-Instruct-v0.10-GGUF - Llama-3指令模型的GGUF格式量化版本 支持2-8比特精度
模型Llama-3开源项目HuggingfaceGGUF格式文本生成Github本地部署量化模型
这是Llama-3-8B-Instruct-v0.10模型的GGUF格式量化版本,提供2-bit至8-bit的精度选项。GGUF是llama.cpp团队开发的新格式,取代了GGML,支持多种客户端和库。该项目使用户能够在本地设备上高效运行大型语言模型,适用于文本生成任务。
Llama-3-8B-Instruct-DPO-v0.2-GGUF - Llama-3-8B的GGUF格式量化模型
模型大型语言模型量化GGUFLlama-3开源项目Huggingface文本生成Github
Llama-3-8B-Instruct-DPO-v0.2模型的GGUF格式量化版本,提供2-bit至8-bit多级量化选项。该版本显著减小模型体积和内存需求,同时维持性能。采用ChatML提示模板,兼容多种GGUF格式支持工具,如llama.cpp和LM Studio。此轻量化版本使大型语言模型能在更多设备上本地运行,扩展了应用范围。
Llama-3-Open-Ko-8B - 高性能开源韩语大型语言模型
语言模型开源AILlama-3Huggingface模型Github韩语预训练开源项目自然语言处理
Llama-3-Open-Ko-8B是一个基于Llama-3-8B进行持续预训练的开源韩语语言模型。该模型使用60GB以上的去重文本训练,包含超过17.7B个token,采用优化的Transformer架构,支持8k上下文长度。它适用于商业和研究目的,可用于助手式聊天等多种自然语言生成任务。开发者使用时需遵循相关许可和负责任的AI开发原则。
L3-Umbral-Mind-RP-v3.0-8B - 专为重度主题角色扮演优化的开源AI语言模型
模型Llama-3语言模型开源项目Huggingface合并模型角色扮演Github心理健康
L3-Umbral-Mind-RP-v3.0-8B是一个开源AI语言模型,专门针对重度主题角色扮演进行优化。该模型能更准确地模拟涉及心理疾病、自残、创伤和自杀等敏感话题的对话情境,避免过于乐观或轻描淡写的表述。通过合并多个预训练模型,这个8B参数的模型特别适合救赎/反向救赎类型的角色扮演场景。为获得最佳效果,建议使用星号或引号的RP格式。
Llama-3.2-3B-Instruct-Q8_0-GGUF - Llama 3.2系列8位量化指令型语言模型
语言模型模型llama.cppGithubLlama-3Huggingface开源项目MetaGGUF
Llama-3.2-3B-Instruct-Q8_0-GGUF是Meta的Llama 3.2系列中经8位量化并转换为GGUF格式的指令微调模型。支持多语言文本生成,可通过llama.cpp在CPU或GPU上运行。模型提供命令行和服务器使用方式,适用于对话和文本生成任务。作为轻量级但功能强大的语言模型,适合开发者和研究人员使用。
Llama-3-WhiteRabbitNeo-8B-v2.0 - 开源网络安全AI模型助力攻防实践
模型人工智能Github网络安全WhiteRabbitNeo模型使用许可Llama-3Huggingface开源项目
Llama-3-WhiteRabbitNeo-8B-v2.0是一款基于Llama-3架构的开源网络安全AI模型。该模型拥有80亿参数,可用于漏洞识别、渗透测试等攻防领域。模型提供API接口和本地部署方式,使用时需遵守相关限制条款。WhiteRabbitNeo系列旨在探索AI在网络安全领域的应用潜力及其社会影响。
Llama-3-8B-Instruct-Gradient-1048k - 优化Llama-3上下文长度以提升AI应用性能
RoPE theta自定义AI模型Llama-3渐进训练长上下文HuggingfaceGithub开源项目模型
Llama-3模型经过Gradient的优化,具备长上下文处理能力,改善了对话功能。项目采用NTK感知插值技术优化RoPE theta,极大提高了训练速度和效率。模型在Q&A任务中表现优异,仅次于GPT-4和Yi,适用于多种业务中的自主助手。
Llama-3-KoEn-8B-Instruct-preview - 基于Chat Vector技术的Llama-3-8B语言模型在多语言生成中的应用
语言模型pytorchLlama-3TRC计划生成模型Github模型开源项目Huggingface
Llama-3-KoEn-8B-Instruct-preview项目是基于TPUv4-256的继续预训练语言模型,结合Chat Vector技术。尽管尚未对韩语指令集进行微调,但为新型聊天和指令模型的开发提供了重要基础。项目中包括详细的示例代码,展示了该模型在文本封装和生成方面的能力,适合需要深入语义生成和自然语言处理的开发者。
tiny-random-Llama-3-lora - 优化轻量级Llama-3模型的LoRA适配器
模型参数高效微调LoRA模型适配器GithubLlama-3Huggingface开源项目peft
本项目为tiny-random-Llama-3模型开发LoRA适配器。LoRA作为一种高效微调技术,能够大幅降低参数量和加速训练过程。研究人员和开发者可利用此适配器快速将tiny-random-Llama-3模型应用于特定任务,无需完整重训练。该工具为小型语言模型的应用研究提供了便利,有助于推动NLP领域的发展。
Hermes-2-Pro-Llama-3-8B-GGUF - 基于Llama-3的通用型语言模型支持智能对话和结构化输出
函数调用开源模型Github人工智能结构化输出HuggingfaceLlama-3开源项目模型
Hermes-2-Pro-Llama-3-8B是基于Llama-3 8B开发的开源语言模型,具备通用对话和函数调用能力。模型通过ChatML格式实现多轮对话,支持JSON结构化输出和系统提示功能。该项目提供了完整的模型使用文档和推理代码示例,并在AGIEval、GPT4All等基准测试中展示了其性能表现。
Llama-3-8B-Instruct-262k - 增强长距离上下文处理,支持自主助手功能
生成式模型Github定量模型开源项目长上下文自监督学习HuggingfaceLlama-3模型
Llama-3 8B-Instruct-262k通过优化RoPE theta,将上下文处理长度从8k扩展至超160k。由Gradient开发并借助Crusoe Energy的算力资源,展示了该模型在低训练条件下的长上下文处理能力,同时通过微调增强了其聊天功能。采用NTK-aware插值及数据驱动的RoPE theta优化,结合渐进式训练策略,在高性能集群中实现了多达262144 tokens的上下文扩展训练,并提供了多种量化版本以适应不同应用场景。
Meta-Llama-3.1-70B-bnb-4bit - 高效智能模型微调框架实现训练提速与内存优化
Huggingface机器学习Gemma模型微调开源项目模型开源模型GithubLlama-3
Unsloth是Meta Llama 3.1模型的优化框架,集成了Gemma 2、Mistral等主流模型支持。框架在Google Colab环境下运行,具备模型训练速度提升2-5倍及内存占用降低70%的特点。支持GGUF、vLLM等格式导出,并提供新手教程指导开发者完成模型微调与部署。
Defne-llama3.1-8B - Defne-llama3.1-8B多语言微调的文本生成模型
Github模型开源项目text-generationHuggingface人工智能Llama-3Defne
Defne-llama3.1-8B是一个经过微调的文本生成模型,专为土耳其语数据集优化,并与VAGOsolutions的Llama-3.1-SauerkrautLM-8b-Instruct结合使用。该模型利用transformers库实现高效的多语言文本生成,支持8位加载及多设备使用,为用户带来流畅的交互体验。
Hermes-2-Theta-Llama-3-8B - 融合LLaMA架构的多功能对话语言模型
Llama-3深度学习机器学习HuggingfaceGithub模型融合开源项目人工智能模型
Hermes-2-Theta-Llama-3-8B通过合并Hermes 2 Pro和Llama-3 Instruct两个基础模型,创建了一个功能全面的开源语言模型。经过RLHF强化学习优化后,模型在对话流畅度和任务完成能力上都有显著提升。它不仅支持标准的多轮对话交互,还具备函数调用和结构化数据输出等高级特性,并在AGIEval、GPT4All等多个权威评测中展现出稳定表现。
Llama-3-SauerkrautLM-8b-Instruct - 基于Llama 3的德英双语语言模型
Fine-Tuning自然语言处理人工智能助手HuggingfaceGithub开源项目模型Llama-3德语模型
Llama-3-SauerkrautLM-8b-Instruct是一个基于Llama 3的德英双语语言模型。通过两阶段DPO微调技术,模型分别在70k和20k规模的数据集上完成训练,增强了德语处理能力。在Open LLM Leaderboard和MT-Bench等基准测试中取得了良好成绩。该模型支持多种量化格式,便于开发者将其集成到实际应用中。
llama-3-8b-Instruct - 开源大模型训练工具实现显著提速与内存优化
Llama-3内存优化性能优化深度学习模型Github开源项目模型微调Huggingface
基于4bit量化技术的开源大语言模型训练工具,为Mistral、Gemma、Llama等主流模型提供优化方案。项目通过技术创新实现训练速度提升2-5倍,内存占用降低70%。支持GGUF格式导出和Hugging Face部署,提供多个免费Colab训练环境,降低了模型训练的硬件门槛。
saiga_llama3_8b - 基于Llama-3模型的俄语聊天自动化工具
SaigaGithub生成模型开源项目对话格式HuggingfaceLlama-3俄语聊天机器人模型
项目基于Llama-3模型开发,专注于俄语对话处理。通过优化提示格式和配置,提升在信息提供和故事创作方面的应用。最新版本v7在性能和用户交互上取得显著进步,并支持多种格式以满足不同开发需求。用户可通过Colab体验此工具,探索其多任务处理能力。
llama-3-8b-gpt-4o-ru1.0-gguf - 俄罗斯语言优化GPT模型,性能接近GPT-4并超越GPT-3.5-turbo
GPT-4oRussianGithub开源项目模型HuggingfaceLlama-3模型评估多语言能力
模型在俄语数据集上表现优异,通过GPT-4o进行多语言能力训练提升了数据质量。在MT-Bench测试中,经过1个epoch的训练后,该模型在俄语评估中超越了GPT-3.5-turbo,接近Suzume。用户可通过llama.cpp或gptchain框架在本地使用该模型。
SwallowMaid-8B-L3-SPPO-abliterated - 多语言模型合并实现角色扮演与写作能力增强
Github开源项目合并模型token模型融合模型SwallowMaid-8B-Llama-3-SPPO-abliteratedHuggingface深度学习Llama-3
SwallowMaid-8B-L3-SPPO-abliterated项目通过mergekit工具多步骤合并多种预训练语言模型,提升模型整体性能及角色扮演功能。该项目结合Llama-3-Instruct-abliteration-LoRA-8B等模型,采用线性和任务算术方法,并注入35% RP-Mix向量方向,增强角色扮演与叙事能力,同时保留Meta's Llama-3-Instruct微调特质,提升人机交互体验。