#Rust
PGVecto.rs: 革新向量搜索,不改变数据库
大型语言模型(LLM):AI领域的革命性技术
大型语言模型(LLM)的发展与应用
tch-rs
tch-rs是Rust语言对PyTorch C++ API的绑定,通过简洁的封装实现高效的深度学习模型训练和推理。支持系统全局libtorch安装、手动安装和Python PyTorch安装,兼容CUDA并支持静态链接。提供详细的安装说明和丰富的示例代码,包括基础张量操作、梯度下降训练、神经网络构建和迁移学习等,适合不同水平的开发者。
chat-ai-desktop
Chat AI Desktop App是一款非官方开源桌面应用,兼容Mac、Windows和Linux系统。基于Tauri和Rust开发,提供简便的API模式和安全的登录体验。用户可轻松下载并安装不同版本,输入OpenAI API密钥后即可使用。此应用只是流行Chat AI网站的封装,确保数据安全。如遇MacOS验证问题,可通过Finder打开。推荐开发者使用VS Code进行开发和构建。
Tabby
Tabby,一款自托管的AI编码助手,提供开源及私有部署方案,是GitHub Copilot的有效替代。基于Rust语言开发,确保极致速度与安全。通过TOML配置可轻松控制部署,开源代码库也便于安全合规审计。
pgvecto.rs
pgvecto.rs是一个Postgres扩展,提供超低延迟、高精度的向量相似搜索功能,支持稀疏向量和全文本搜索。该扩展由Rust编写,基于pgrx框架,具备完整的SQL支持和异步索引等特性,简化数据管理并提升性能。支持FP16/INT8数据类型和二进制向量索引,是生产环境中集成前沿模型的理想选择。
llm-chain
llm-chain是一组强大的Rust库,支持创建高级LLM应用,如聊天机器人和智能代理。平台支持云端和本地LLM,提供提示模板和多步骤链功能,以处理复杂任务。还支持向量存储集成,为模型提供长期记忆和专业知识。兼容ChatGPT、LLaMa和Alpaca模型,并通过llm.rs实现Rust语言的LLM支持,无需C++依赖。
floneum
Floneum项目提供了一个简便的开发接口,适用于本地预训练的AI模型,包括Kalosm和Floneum Editor。Kalosm在Rust中为语言、音频和图像模型提供了简单接口,支持多种模型和加速选项。Floneum Editor是一个用于本地AI工作流的图形编辑器。这些工具让开发者能够轻松实现AI模型交互、音频转录和图像生成等功能。更多信息和使用案例请参阅项目文档和示例。
femtoGPT
femtoGPT是一个用Rust实现的最小生成预训练转换器,支持在CPU和GPU上进行GPT模型的推理与训练。项目从零开始构建了张量处理逻辑以及训练和推理代码,适合对大语言模型感兴趣并想深入了解其工作原理的用户。使用了随机生成、数据序列化和并行计算库,尽管速度较慢,但能在NVIDIA和AMD显卡上运行。
screen-pipe
Screenpipe提供全天候屏幕和音频捕捉,支持Ollama,开放且安全,用户完全掌控数据。该项目采用Rust开发,兼容MacOS、Windows和Linux,提供CLI和桌面应用。支持多种语音识别和OCR引擎,为开发者提供强大的工具和API接口。适用于搜索、自动化、分析和个人助手等应用场景,旨在简化开发者工作流程,提高效率。
llm
该项目因时间和资源不足已归档,建议使用其他高质量的Rust推理库,如Ratchet、Candle和llama.cpp等。项目原README包含当前状态、支持的模型及使用方法等详细信息。