#Llama-3.2

Llama-3.2-1B-Instruct-GGUF - Llama 3.2语言模型微调加速与优化工具
人工智能Github开源项目大语言模型自然语言处理模型训练模型HuggingfaceLlama-3.2
该项目针对Meta的Llama 3.2-1B-Instruct模型提供开源微调解决方案。通过Unsloth技术,实现2-5倍训练速度提升和70%内存节省。项目提供多种量化版本的GGUF模型文件,支持Llama 3.2、Gemma 2等主流大语言模型。免费Google Colab笔记本便于用户进行微调和部署。适合需要高效定制大语言模型的开发者和研究人员使用。
Llama-3.2-11B-Vision-Instruct-FP8-dynamic - Meta-Llama视觉语言模型FP8量化版支持多语言部署
人工智能Github开源项目模型vLLMHuggingface量化压缩视觉识别Llama-3.2
基于Meta-Llama-3.2架构的视觉语言模型,通过FP8动态量化技术实现模型压缩,在保持原有性能的同时将显存需求降低50%。模型支持图文输入和多语言输出,可通过vLLM实现快速部署,提供OpenAI兼容接口,适合商业场景应用。
Llama-3.2-11B-Vision-Instruct-nf4 - 量化视觉语言模型实现高效图像分析与理解
Github开源项目模型部署模型图像识别Huggingface神经网络量化Llama-3.2视觉AI模型
Llama-3.2-11B-Vision-Instruct-nf4是一个基于meta-llama/Llama-3.2-11B-Vision-Instruct的量化视觉语言模型,采用BitsAndBytes的NF4(4位)量化技术,无需双重量化即可实现高效推理。该模型主要用于图像字幕生成等视觉分析任务,并提供详细的使用示例代码。项目还包含配套的ComfyUI自定义节点,为开发者提供了便捷的视觉分析工具集成方案。
Llama-3.2-1B-Instruct-GGUF - Meta开发的多语言对话AI模型
人工智能Github开源项目大语言模型多语言支持模型Huggingface开源许可Llama-3.2
Llama-3.2-1B-Instruct是Meta开发的多语言对话AI模型,支持128K上下文长度和8种主要语言。该模型适用于代理检索、摘要等任务,由meta-llama创建并提供GGUF量化版本。作为社区模型,它针对多语言对话场景优化,可用于开发多种对话应用。使用时请注意相关责任和免责声明。
Llama-3.2-90B-Vision-Instruct-FP8-dynamic - 基于Meta-Llama架构的FP8量化多语言视觉对话模型
人工智能Github开源项目模型量化模型vLLMHuggingface视觉语言模型Llama-3.2
这是一个基于Meta-Llama-3.2架构开发的视觉语言模型,包含900亿参数。通过FP8量化技术优化,将模型存储空间和GPU内存需求降低约50%。模型支持图像理解和多语言文本生成,主要应用于智能对话系统。借助vLLM后端可实现高效部署和OpenAI兼容服务。
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号