项目介绍:recoilme-gemma-2-9B-v0.3-Q6_K-GGUF
项目背景
recoilme-gemma-2-9B-v0.3-Q6_K-GGUF
是一个基于 recoilme/recoilme-gemma-2-9B-v0.3
转换而来的模型。该模型使用 llama.cpp 通过 ggml.ai 的 GGUF-my-repo 空间完成了格式转换。更详细的模型信息可以参考原始模型卡。
模型许可证
该项目采用的是 cc-by-nc-4.0 许可证,这意味着可以在非商业用途下自由使用和修改该模型,但需要对原作者进行署名。
技术标签
- llama-cpp
- gguf-my-repo
使用说明
安装 llama.cpp
在 Mac 和 Linux 系统上,可以通过 brew
安装 llama.cpp
:
brew install llama.cpp
启动模型
可以通过命令行界面(CLI)或服务器模式来调用和运行这个模型。
CLI 模式
通过命令行运行模型,示例代码如下:
llama-cli --hf-repo zelk12/recoilme-gemma-2-9B-v0.3-Q6_K-GGUF --hf-file recoilme-gemma-2-9b-v0.3-q6_k.gguf -p "The meaning to life and the universe is"
服务器模式
或者可以启动服务器运行模型:
llama-server --hf-repo zelk12/recoilme-gemma-2-9B-v0.3-Q6_K-GGUF --hf-file recoilme-gemma-2-9b-v0.3-q6_k.gguf -c 2048
手动构建使用 llama.cpp
如果想要手动克隆和编译 llama.cpp
,可以按照以下步骤操作:
- 从 GitHub 克隆
llama.cpp
仓库。
git clone https://github.com/ggerganov/llama.cpp
- 进入
llama.cpp
文件夹,并使用LLAMA_CURL=1
构建(可以根据硬件情况添加参数,如在Linux中,Nvidia GPU可以使用LLAMA_CUDA=1
)。
cd llama.cpp && LLAMA_CURL=1 make
- 通过生成的可执行文件进行推理。
./llama-cli --hf-repo zelk12/recoilme-gemma-2-9B-v0.3-Q6_K-GGUF --hf-file recoilme-gemma-2-9b-v0.3-q6_k.gguf -p "The meaning to life and the universe is"
或
./llama-server --hf-repo zelk12/recoilme-gemma-2-9B-v0.3-Q6_K-GGUF --hf-file recoilme-gemma-2-9b-v0.3-q6_k.gguf -c 2048
通过这些步骤和说明,用户可以有效地运用 recoilme-gemma-2-9B-v0.3-Q6_K-GGUF
模型进行文本生成任务,并体验其强大的建模能力。