#llama.cpp
自托管AI助手:开源免费的本地化人工智能解决方案
Alpaca Electron: 在本地运行ChatGPT级别的AI对话模型
llama.cpp
llama.cpp 提供了基于 C/C++ 的纯粹实现,支持包括 LLaMA 在内的多个模型的推理。专为多种硬件和操作系统优化,包括使用 ARM NEON、AVX 指令集和 Metal 框架的设备。此外,项目支持使用 NVIDIA GPU 的自定义 CUDA 核心,以及通过 HIP 支持 AMD GPU,为开发者在本地或云环境中实现高效、低延迟的大规模语言模型推理提供了强大的灵活性和可扩展性。
paddler
Paddler是一个开源、生产就绪的负载均衡和反向代理工具,专为优化llama.cpp服务器设计。它支持动态添加和移除服务器、自动扩展、请求缓冲、AWS集成以及StatsD协议。Paddler通过监控服务器的可用槽位,实现高效的请求分配,适用于需要可配置和可预测内存分配的环境。
selfhostedAI
selfhostedAI是兼容OpenAI接口的自托管AI项目,支持多种开源模型如RWKV、ChatGLM 6B和llama.cpp,以及绘画模型stable-diffusion-webui。项目提供一键安装程序和详细教程,可在本地或云端运行,实现文本生成、对话及绘画功能。此外,还集成了text-generation-webui和Wenda,简化安装和配置流程。
LLMUnity
LLMUnity项目允许在Unity中集成大规模语言模型,创建智能交互角色,实现更沉浸的游戏体验。支持Windows、Linux、macOS和Android等操作系统,兼容所有主流LLM模型。本地快速推理,无需互联网连接,数据隐私有保障。操作简便,仅需一行代码,既适用于个人也适用于商业项目。项目基于llama.cpp和llamafile库,提供免费下载,遵循MIT开源许可证。
InferLLM
InferLLM 是一个高效简洁的语言模型推理框架,源于 llama.cpp 项目。主要特点包括结构简单、高性能、易于上手,并支持多模型格式。目前兼容 CPU 和 GPU,可优化 Arm、x86、CUDA 和 riscv-vector,并支持移动设备部署。InferLLM 引入了专有 KVstorage 类型以简化缓存和管理,适合多种应用场景。最新支持的模型包括 LLama-2-7B、ChatGLM、Alpaca 等。
llava-cpp-server
LLaVA C++ Server是一个简便的API服务端,实现了llama.cpp的LLaVA功能。使用者可以通过下载模型并启动服务器来本地访问,支持自定义主机、端口和HTTP日志记录。API端点位于/llava,接受用户提示和图像数据,便于图像查询和处理。该项目已在macOS上测试,可通过简单构建步骤在其他平台运行。
llama_ros
llama_ros项目提供一系列ROS 2软件包,将llama.cpp的优化能力集成到ROS 2项目中。借助GGUF格式的LLMs和VLMs实现性能优化和功能扩展。内容包括相关项目介绍、安装指南、使用方法,以及各种示范,如llama_cli指令、启动文件配置、LoRA适配器、ROS 2客户端和LangChain集成。
OpenAI-sublime-text
该Sublime Text插件通过LLM模型提升代码助手功能。它支持OpenAI、llama.cpp和Ollama等多种模型,并具备代码操作、聊天模式、GPT-4支持等功能。插件还能管理项目专属的聊天记录和助手设置,支持代理和Markdown语法高亮。用户只需在设置中提供API密钥,即可轻松配置插件,优化编程体验。
alpaca-electron
Alpaca Electron是一款无需命令行或编译即可与Alpaca AI模型对话的应用程序,支持Windows、MacOS和Linux平台。该应用使用llama.cpp作为后端,在本地计算机上运行,无需互联网连接,也不依赖外部库。安装过程简单,只需下载模型和安装程序即可开始使用。主要功能包括上下文记忆和Docker化,并计划集成Stable Diffusion和DuckDuckGo等功能。