tlm - 本地CLI助手,由CodeLLaMa驱动。💻🦙
[!提示] Starcoder2 3B模型选项即将推出,以支持资源有限的工作站。
tlm是你的CLI伙伴,不需要任何其他配置,只需你的工作站即可。它在本地环境中使用最有效和强大的CodeLLaMa,为你提供最佳的命令行建议。
特性
- 💸 无需API密钥(订阅)。(ChatGPT, Github Copilot, Azure OpenAI等)
- 📡 无需互联网连接。
- 💻 支持macOS、Linux和Windows系统。
- 👩🏻💻 自动检测Shell环境。(Powershell, Bash, Zsh)
- 🚀 一键生成和命令解释。
安装
安装有两种方式;
前置要求
需要Ollama来下载所需的模型。可以通过以下方法在不同平台上下载。
- 在macOS和Windows上;
下载说明请参阅以下链接:https://ollama.com/download
- 在Linux上;
curl -fsSL https://ollama.com/install.sh | sh
- 或使用官方Docker镜像 🐳;
# 仅限CPU
docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
# 使用GPU (Nvidia & AMD)
docker run -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
安装脚本
安装脚本是推荐的tlm安装方式。它将自动识别平台和架构,执行安装命令。
Linux和macOS;
使用以下命令下载并执行安装脚本;
curl -fsSL https://raw.githubusercontent.com/yusufcanb/tlm/1.1/install.sh | sudo -E bash
Windows (Powershell 5.1或更高版本)
使用以下命令下载并执行安装脚本;
Invoke-RestMethod -Uri https://raw.githubusercontent.com/yusufcanb/tlm/1.1/install.ps1 | Invoke-Expression
Go安装
如果你的系统已安装Go 1.21或更高版本,你可以使用以下命令轻松安装tlm;
go install github.com/yusufcanb/tlm@latest
然后,部署tlm模型文件。
:memo: 注意: 如果你在其他地方部署了Ollama,请先运行
tlm config
并配置Ollama主机。
tlm deploy
使用以下命令检查安装;
tlm help
卸载
在Linux和macOS上;
rm /usr/local/bin/tlm
在Windows上;
Remove-Item -Recurse -Force "C:\Users\$env:USERNAME\AppData\Local\Programs\tlm"