项目介绍:tlm - 本地命令行助手
项目概述
tlm 是一个强大的本地命令行助手,旨在为用户提供高效的命令行建议。它利用 CodeLLaMa 模型,在本地环境中工作,不需要依赖外部的 API 服务,也无需互联网连接。
功能特点
- 无需 API 密钥:不需要使用 ChatGPT、Github Copilot 或 Azure OpenAI 等服务的 API 密钥。
- 无网络需求:不依赖互联网连接,确保用户隐私。
- 跨平台支持:兼容 macOS、Linux 和 Windows 操作系统。
- 自动化 Shell 识别:能够自动检测用户使用的 Shell 环境,如 Powershell、Bash 及 Zsh。
- 一键生成与命令解释:可快速生成一行命令并提供相应解释。
安装说明
tlm 的安装分为两种方式:
- 推荐使用安装脚本
- 通过 Go 编译安装
所需条件
安装 tlm 之前,需安装 Ollama 用于下载必要的模型文件。如果是在 Linux 系统上,可以通过以下命令安装:
curl -fsSL https://ollama.com/install.sh | sh
还可以使用 Docker 安装 Ollama:
# 仅使用 CPU
docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
# 使用 GPU (适用于 Nvidia & AMD)
docker run -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
安装脚本
推荐使用安装脚本,系统会自动识别当前平台并下载对应的文件:
-
Linux 和 macOS:
curl -fsSL https://raw.githubusercontent.com/yusufcanb/tlm/1.1/install.sh | sudo -E bash
-
Windows(Powershell 5.1或以上):
Invoke-RestMethod -Uri https://raw.githubusercontent.com/yusufcanb/tlm/1.1/install.ps1 | Invoke-Expression
Go 编译安装
如果系统中安装了 Go 1.21 或更高版本,可以直接通过以下命令安装:
go install github.com/yusufcanb/tlm@latest
接着,部署 tlm 模型文件:
tlm deploy
通过以下命令检查安装状态:
tlm help
卸载说明
-
Linux 和 macOS:
rm /usr/local/bin/tlm
-
Windows:
Remove-Item -Recurse -Force "C:\Users\$env:USERNAME\AppData\Local\Programs\tlm"
贡献者
项目贡献者可通过 GitHub 贡献者页面 查看。
tlm 项目旨在通过提供一个无需互联网连接的本地助手工具,实现强大的命令行建议与辅助功能,为开发者带来更加高效与安全的使用体验。