项目介绍:Llama-3.2-1B-Instruct-GGUF
项目背景
Llama-3.2-1B-Instruct-GGUF是由 Meta-Llama 创建的一款多语言大型语言模型(LLM)。该模型属于Meta Llama 3.2 系列,专为多语言对话使用场景设计,优化了文本生成和理解任务。它在行业通用的基准测试中表现优于许多现有的开放和闭源聊天模型。
模型概述
这款Llama 3.2模型系列提供了1B与3B两种型号,以预训练和指令调优为特征,专注于文本输入和输出。该系列模型特别适合用于对话代理的检索与总结任务。Llama-3.2-1B-Instruct是其中的一款指令调优的文本专用模型,它在多语言环境中具有较高的性能表现。
使用方法
使用Sanctum应用的用户可以通过Llama 3的模型预设进行使用。以下是一个简单的Prompt模板:
<|begin_of_text|><|start_header_id|>system<|end_header_id|>
{system_prompt}<|eot_id|><|start_header_id|>user<|end_header_id|>
{prompt}<|eot_id|><|start_header_id|>assistant<|end_header_id|>
硬件需求
该模型有多种压缩方式,每种方式对存储和内存的要求有所不同。下表列举了一些常见的量化方案及其所需的硬件配置:
名称 | 量化方法 | 大小 | 所需内存 (RAM, vRAM) |
---|---|---|---|
Q2_K | Q2_K | 0.58 GB | 3.93 GB |
Q3_K_S | Q3_K_S | 0.64 GB | 3.99 GB |
... | ... | ... | ... |
f16 | f16 | 2.48 GB | 5.70 GB |
声明
Sanctum并不是任何模型的创建者、发起者或拥有者。所有模型均由第三方创建和提供。Sanctum不代表、支持或保证模型的完整性、真实性、准确性或可靠性。用户需了解,这些支持的模型可能生成具有攻击性、错误、不准确或误导性的内容。Sanctum对模型的内容不承担任何责任,并对模型的准确性、可靠性或其他效益不做任何保证。用户需对使用或访问这些模型以及由此导致的任何后果负责。
希望以上信息可以帮助您更好地了解和使用Llama-3.2-1B-Instruct-GGUF模型!