#Llama-3

LongLM - 通过Self-Extend方法扩展大语言模型的上下文窗口
Github开源项目LLMtransformersSelfExtendFlashAttentionLlama-3
LongLM项目介绍了Self-Extend方法,通过不需要调优的方式扩展大语言模型(LLM)的上下文窗口,利用其内在能力处理长上下文。此方法获得了Google I/O和ICML 2024的关注,并支持多种模型如Llama-3、Gemma和Qwen1.5。项目说明了如何安装和运行Self-Extend,并提供组选参数的指导原则及实验结果,以帮助用户应用这一技术。
raycast-g4f - 无需API Key使用GPT-4和Llama-3等AI模型,与Raycast轻松集成
Github开源项目深度学习GPT-4Raycast免费使用Llama-3
使用Raycast无需API Key即可免费访问GPT-4、Llama-3等AI模型。支持实时消息流、多种命令、文件上传、图像生成、自动更新和智能聊天命名功能。安装简单,通过源代码实现,增强生产力与AI技术的结合。
Meta-Llama-3.1-8B-Instruct-plus-Swallow - 日本语流畅度提升:Meta-Llama-3.1新版本兼容Llama-3
Github开源项目模型HuggingfaceLlama-3日本語模型升级Meta Llama-3.1Swallow-8B
Swallow-8B通过持续的日语预训练提高语言流畅度,并在Meta-Llama-3.1-8B-Instruct新版本中升级整合。该项目结合了tokyotech-llm的技术,增强了模型的日语处理能力。Meta-Llama-3.1-8B-Instruct以保留优势为基础,与Llama-3-Swallow-8B的差分向量融合,实现技术与功能的提升。
Llama-3-8B-Instruct-v0.10-GGUF - Llama-3指令模型的GGUF格式量化版本 支持2-8比特精度
Github开源项目文本生成本地部署量化模型模型HuggingfaceLlama-3GGUF格式
这是Llama-3-8B-Instruct-v0.10模型的GGUF格式量化版本,提供2-bit至8-bit的精度选项。GGUF是llama.cpp团队开发的新格式,取代了GGML,支持多种客户端和库。该项目使用户能够在本地设备上高效运行大型语言模型,适用于文本生成任务。
Llama-3-8B-Instruct-DPO-v0.2-GGUF - Llama-3-8B的GGUF格式量化模型
大型语言模型Github开源项目文本生成模型量化HuggingfaceLlama-3GGUF
Llama-3-8B-Instruct-DPO-v0.2模型的GGUF格式量化版本,提供2-bit至8-bit多级量化选项。该版本显著减小模型体积和内存需求,同时维持性能。采用ChatML提示模板,兼容多种GGUF格式支持工具,如llama.cpp和LM Studio。此轻量化版本使大型语言模型能在更多设备上本地运行,扩展了应用范围。
Llama-3-Open-Ko-8B - 高性能开源韩语大型语言模型
Github开源项目自然语言处理语言模型模型开源AIHuggingfaceLlama-3韩语预训练
Llama-3-Open-Ko-8B是一个基于Llama-3-8B进行持续预训练的开源韩语语言模型。该模型使用60GB以上的去重文本训练,包含超过17.7B个token,采用优化的Transformer架构,支持8k上下文长度。它适用于商业和研究目的,可用于助手式聊天等多种自然语言生成任务。开发者使用时需遵循相关许可和负责任的AI开发原则。
L3-Umbral-Mind-RP-v3.0-8B - 专为重度主题角色扮演优化的开源AI语言模型
Github开源项目语言模型角色扮演模型Huggingface心理健康Llama-3合并模型
L3-Umbral-Mind-RP-v3.0-8B是一个开源AI语言模型,专门针对重度主题角色扮演进行优化。该模型能更准确地模拟涉及心理疾病、自残、创伤和自杀等敏感话题的对话情境,避免过于乐观或轻描淡写的表述。通过合并多个预训练模型,这个8B参数的模型特别适合救赎/反向救赎类型的角色扮演场景。为获得最佳效果,建议使用星号或引号的RP格式。
Llama-3.2-3B-Instruct-Q8_0-GGUF - Llama 3.2系列8位量化指令型语言模型
Github开源项目语言模型llama.cpp模型HuggingfaceLlama-3MetaGGUF
Llama-3.2-3B-Instruct-Q8_0-GGUF是Meta的Llama 3.2系列中经8位量化并转换为GGUF格式的指令微调模型。支持多语言文本生成,可通过llama.cpp在CPU或GPU上运行。模型提供命令行和服务器使用方式,适用于对话和文本生成任务。作为轻量级但功能强大的语言模型,适合开发者和研究人员使用。
Llama-3-WhiteRabbitNeo-8B-v2.0 - 开源网络安全AI模型助力攻防实践
人工智能Github开源项目模型网络安全HuggingfaceLlama-3WhiteRabbitNeo模型使用许可
Llama-3-WhiteRabbitNeo-8B-v2.0是一款基于Llama-3架构的开源网络安全AI模型。该模型拥有80亿参数,可用于漏洞识别、渗透测试等攻防领域。模型提供API接口和本地部署方式,使用时需遵守相关限制条款。WhiteRabbitNeo系列旨在探索AI在网络安全领域的应用潜力及其社会影响。
Llama-3-8B-Instruct-Gradient-1048k - 优化Llama-3上下文长度以提升AI应用性能
Github开源项目模型Huggingface长上下文Llama-3自定义AI模型RoPE theta渐进训练
Llama-3模型经过Gradient的优化,具备长上下文处理能力,改善了对话功能。项目采用NTK感知插值技术优化RoPE theta,极大提高了训练速度和效率。模型在Q&A任务中表现优异,仅次于GPT-4和Yi,适用于多种业务中的自主助手。
Llama-3-KoEn-8B-Instruct-preview - 基于Chat Vector技术的Llama-3-8B语言模型在多语言生成中的应用
Github开源项目语言模型模型生成模型pytorchHuggingfaceLlama-3TRC计划
Llama-3-KoEn-8B-Instruct-preview项目是基于TPUv4-256的继续预训练语言模型,结合Chat Vector技术。尽管尚未对韩语指令集进行微调,但为新型聊天和指令模型的开发提供了重要基础。项目中包括详细的示例代码,展示了该模型在文本封装和生成方面的能力,适合需要深入语义生成和自然语言处理的开发者。
tiny-random-Llama-3-lora - 优化轻量级Llama-3模型的LoRA适配器
Github开源项目模型LoRAHuggingface参数高效微调Llama-3模型适配器peft
本项目为tiny-random-Llama-3模型开发LoRA适配器。LoRA作为一种高效微调技术,能够大幅降低参数量和加速训练过程。研究人员和开发者可利用此适配器快速将tiny-random-Llama-3模型应用于特定任务,无需完整重训练。该工具为小型语言模型的应用研究提供了便利,有助于推动NLP领域的发展。
Hermes-2-Pro-Llama-3-8B-GGUF - 基于Llama-3的通用型语言模型支持智能对话和结构化输出
人工智能Github开源项目开源模型模型Huggingface函数调用Llama-3结构化输出
Hermes-2-Pro-Llama-3-8B是基于Llama-3 8B开发的开源语言模型,具备通用对话和函数调用能力。模型通过ChatML格式实现多轮对话,支持JSON结构化输出和系统提示功能。该项目提供了完整的模型使用文档和推理代码示例,并在AGIEval、GPT4All等基准测试中展示了其性能表现。
Llama-3-8B-Instruct-262k - 增强长距离上下文处理,支持自主助手功能
Github开源项目模型自监督学习Huggingface长上下文Llama-3生成式模型定量模型
Llama-3 8B-Instruct-262k通过优化RoPE theta,将上下文处理长度从8k扩展至超160k。由Gradient开发并借助Crusoe Energy的算力资源,展示了该模型在低训练条件下的长上下文处理能力,同时通过微调增强了其聊天功能。采用NTK-aware插值及数据驱动的RoPE theta优化,结合渐进式训练策略,在高性能集群中实现了多达262144 tokens的上下文扩展训练,并提供了多种量化版本以适应不同应用场景。
Meta-Llama-3.1-70B-bnb-4bit - 高效智能模型微调框架实现训练提速与内存优化
Github开源项目机器学习模型微调开源模型模型GemmaHuggingfaceLlama-3
Unsloth是Meta Llama 3.1模型的优化框架,集成了Gemma 2、Mistral等主流模型支持。框架在Google Colab环境下运行,具备模型训练速度提升2-5倍及内存占用降低70%的特点。支持GGUF、vLLM等格式导出,并提供新手教程指导开发者完成模型微调与部署。
Defne-llama3.1-8B - Defne-llama3.1-8B多语言微调的文本生成模型
人工智能Github开源项目模型HuggingfaceLlama-3text-generationDefne
Defne-llama3.1-8B是一个经过微调的文本生成模型,专为土耳其语数据集优化,并与VAGOsolutions的Llama-3.1-SauerkrautLM-8b-Instruct结合使用。该模型利用transformers库实现高效的多语言文本生成,支持8位加载及多设备使用,为用户带来流畅的交互体验。
Hermes-2-Theta-Llama-3-8B - 融合LLaMA架构的多功能对话语言模型
人工智能Github开源项目深度学习机器学习模型Huggingface模型融合Llama-3
Hermes-2-Theta-Llama-3-8B通过合并Hermes 2 Pro和Llama-3 Instruct两个基础模型,创建了一个功能全面的开源语言模型。经过RLHF强化学习优化后,模型在对话流畅度和任务完成能力上都有显著提升。它不仅支持标准的多轮对话交互,还具备函数调用和结构化数据输出等高级特性,并在AGIEval、GPT4All等多个权威评测中展现出稳定表现。
Llama-3-SauerkrautLM-8b-Instruct - 基于Llama 3的德英双语语言模型
Github开源项目自然语言处理人工智能助手模型HuggingfaceLlama-3德语模型Fine-Tuning
Llama-3-SauerkrautLM-8b-Instruct是一个基于Llama 3的德英双语语言模型。通过两阶段DPO微调技术,模型分别在70k和20k规模的数据集上完成训练,增强了德语处理能力。在Open LLM Leaderboard和MT-Bench等基准测试中取得了良好成绩。该模型支持多种量化格式,便于开发者将其集成到实际应用中。
llama-3-8b-Instruct - 开源大模型训练工具实现显著提速与内存优化
Github开源项目深度学习性能优化模型微调模型Huggingface内存优化Llama-3
基于4bit量化技术的开源大语言模型训练工具,为Mistral、Gemma、Llama等主流模型提供优化方案。项目通过技术创新实现训练速度提升2-5倍,内存占用降低70%。支持GGUF格式导出和Hugging Face部署,提供多个免费Colab训练环境,降低了模型训练的硬件门槛。
saiga_llama3_8b - 基于Llama-3模型的俄语聊天自动化工具
Github开源项目模型生成模型HuggingfaceLlama-3Saiga对话格式俄语聊天机器人
项目基于Llama-3模型开发,专注于俄语对话处理。通过优化提示格式和配置,提升在信息提供和故事创作方面的应用。最新版本v7在性能和用户交互上取得显著进步,并支持多种格式以满足不同开发需求。用户可通过Colab体验此工具,探索其多任务处理能力。
llama-3-8b-gpt-4o-ru1.0-gguf - 俄罗斯语言优化GPT模型,性能接近GPT-4并超越GPT-3.5-turbo
Github开源项目模型GPT-4o模型评估HuggingfaceLlama-3多语言能力Russian
模型在俄语数据集上表现优异,通过GPT-4o进行多语言能力训练提升了数据质量。在MT-Bench测试中,经过1个epoch的训练后,该模型在俄语评估中超越了GPT-3.5-turbo,接近Suzume。用户可通过llama.cpp或gptchain框架在本地使用该模型。
SwallowMaid-8B-L3-SPPO-abliterated - 多语言模型合并实现角色扮演与写作能力增强
Github开源项目深度学习模型HuggingfaceLlama-3合并模型SwallowMaid-8B-Llama-3-SPPO-abliteratedtoken模型融合
SwallowMaid-8B-L3-SPPO-abliterated项目通过mergekit工具多步骤合并多种预训练语言模型,提升模型整体性能及角色扮演功能。该项目结合Llama-3-Instruct-abliteration-LoRA-8B等模型,采用线性和任务算术方法,并注入35% RP-Mix向量方向,增强角色扮演与叙事能力,同时保留Meta's Llama-3-Instruct微调特质,提升人机交互体验。