项目介绍:LlamaChat
LlamaChat 是一款运行于 macOS 系统的对话应用程序,它允许用户在本地使用 LLaMA、Alpaca 和 GPT4All 等模型进行聊天。用户只需在自己的 Mac 上安装此应用,即可与这些强大的语言模型进行互动。
🚀 如何开始
要使用 LlamaChat,您的设备需要运行 macOS 13 Ventura,并配备 Intel 或 Apple Silicon 处理器。您可以通过以下方式获取应用程序:
直接下载
可以通过这个 链接 下载最新版本的 .dmg
文件以安装 LlamaChat。
从源码构建
如果您希望从源码构建应用程序,您可以使用以下步骤:
git clone https://github.com/alexrozanski/LlamaChat.git
cd LlamaChat
open LlamaChat.xcodeproj
注意: 为了实现自动更新功能,LlamaChat 集成了 Sparkle,如果应用程序未签名,加载将会失败。在构建和运行 LlamaChat 时,请确保使用有效的签名证书。此外,在 Debug 模式下模型推理速度会很慢,建议在“LlamaChat > 编辑方案... > 运行”中将构建配置设置为 Release
。
✨ 功能特色
- 支持的模型: LlamaChat 默认支持 LLaMA、Alpaca 和 GPT4All 模型。此外,它也正计划支持 Vicuna 和 Koala 模型,并在寻找讲中文和法语的贡献者来支持中文 LLaMA/Alpaca 和 Vigogne。
- 灵活的模型格式: LlamaChat 构建于 llama.cpp 和 llama.swift 之上,支持添加原始
.pth
PyTorch 检查点格式或.ggml
格式的 LLaMA 模型。 - 模型转换: 用户可以将原始 PyTorch 检查点转换为 LlamaChat 兼容的
.ggml
文件。 - 聊天记录: 对话的历史记录会在应用中持久保存,但可以随时清除历史记录和模型上下文。
- 趣味头像: LlamaChat 提供 7 款趣味头像供用户选择。
- 高级命名: 使用特别的 Magic™ 生成聊天来源的有趣命名。
- 上下文调试: 对机器学习爱好者来说,可以在信息弹出窗口中查看当前模型的上下文。
🔮 模型使用说明
提示: LlamaChat 并不附带任何模型文件,用户需根据各个模型的使用条款自行获取。
- 模型格式: 支持 LLaMA 家族模型的
.pth
和.ggml
格式。 - 使用 LLaMA 模型: 当以
.pth
格式导入模型时,请选择正确的参数大小目录(如7B
,13B
等),其中应包含consolidated.NN.pth
和params.json
文件。 - 疑难解答: 如果使用
.ggml
文件,确保这些文件是最新的。如遇到问题,可能需要使用 llama.cpp 提供的转换脚本。
👩💻 贡献指南
欢迎用户提交 Pull Requests 和 Issues,也请遵守项目的行为准则。LlamaChat 完全使用 Swift 和 SwiftUI 构建,并使用 llama.swift 进行模型推理和操作。项目主要基于 MVVM 架构,广泛使用 Combine 和 Swift Concurrency。
⚖️ 许可证
LlamaChat 在 MIT 许可证下发布,允许用户自由使用、修改和分发。