Logo

#llama.cpp

selfhostedAI入门指南 - 一键部署自己的AI助手

1 个月前
Cover of selfhostedAI入门指南 - 一键部署自己的AI助手

LLMUnity入门指南 - 在Unity中集成大型语言模型的开源工具包

1 个月前
Cover of LLMUnity入门指南 - 在Unity中集成大型语言模型的开源工具包

Alpaca-electron入门学习资料汇总 - 在本地运行LLaMA模型的最简便方式

1 个月前
Cover of Alpaca-electron入门学习资料汇总 - 在本地运行LLaMA模型的最简便方式

llama-cpp-python: 强大的Python语言模型绑定工具

2 个月前
Cover of llama-cpp-python: 强大的Python语言模型绑定工具

OpenAI Sublime Text插件:为您的代码编辑器带来AI助手

2 个月前
Cover of OpenAI Sublime Text插件:为您的代码编辑器带来AI助手

Paddler入门指南 - 专为llama.cpp设计的状态感知负载均衡器

1 个月前
Cover of Paddler入门指南 - 专为llama.cpp设计的状态感知负载均衡器

InferLLM学习资料汇总 - 轻量级LLM模型推理框架

1 个月前
Cover of InferLLM学习资料汇总 - 轻量级LLM模型推理框架

LLaMACpp.rb: Ruby与LLaMA模型的完美结合

2 个月前
Cover of LLaMACpp.rb: Ruby与LLaMA模型的完美结合

TinyLLM: 在消费级硬件上运行本地大语言模型和聊天机器人

2 个月前
Cover of TinyLLM: 在消费级硬件上运行本地大语言模型和聊天机器人

llama_ros: 整合llama.cpp与ROS 2的强大工具包

2 个月前
Cover of llama_ros: 整合llama.cpp与ROS 2的强大工具包

相关项目

Project Cover
alpaca-electron
Alpaca Electron是一款无需命令行或编译即可与Alpaca AI模型对话的应用程序,支持Windows、MacOS和Linux平台。该应用使用llama.cpp作为后端,在本地计算机上运行,无需互联网连接,也不依赖外部库。安装过程简单,只需下载模型和安装程序即可开始使用。主要功能包括上下文记忆和Docker化,并计划集成Stable Diffusion和DuckDuckGo等功能。
Project Cover
llama.cpp
llama.cpp 提供了基于 C/C++ 的纯粹实现,支持包括 LLaMA 在内的多个模型的推理。专为多种硬件和操作系统优化,包括使用 ARM NEON、AVX 指令集和 Metal 框架的设备。此外,项目支持使用 NVIDIA GPU 的自定义 CUDA 核心,以及通过 HIP 支持 AMD GPU,为开发者在本地或云环境中实现高效、低延迟的大规模语言模型推理提供了强大的灵活性和可扩展性。
Project Cover
paddler
Paddler是一个开源、生产就绪的负载均衡和反向代理工具,专为优化llama.cpp服务器设计。它支持动态添加和移除服务器、自动扩展、请求缓冲、AWS集成以及StatsD协议。Paddler通过监控服务器的可用槽位,实现高效的请求分配,适用于需要可配置和可预测内存分配的环境。
Project Cover
selfhostedAI
selfhostedAI是兼容OpenAI接口的自托管AI项目,支持多种开源模型如RWKV、ChatGLM 6B和llama.cpp,以及绘画模型stable-diffusion-webui。项目提供一键安装程序和详细教程,可在本地或云端运行,实现文本生成、对话及绘画功能。此外,还集成了text-generation-webui和Wenda,简化安装和配置流程。
Project Cover
LLMUnity
LLMUnity项目允许在Unity中集成大规模语言模型,创建智能交互角色,实现更沉浸的游戏体验。支持Windows、Linux、macOS和Android等操作系统,兼容所有主流LLM模型。本地快速推理,无需互联网连接,数据隐私有保障。操作简便,仅需一行代码,既适用于个人也适用于商业项目。项目基于llama.cpp和llamafile库,提供免费下载,遵循MIT开源许可证。
Project Cover
InferLLM
InferLLM 是一个高效简洁的语言模型推理框架,源于 llama.cpp 项目。主要特点包括结构简单、高性能、易于上手,并支持多模型格式。目前兼容 CPU 和 GPU,可优化 Arm、x86、CUDA 和 riscv-vector,并支持移动设备部署。InferLLM 引入了专有 KVstorage 类型以简化缓存和管理,适合多种应用场景。最新支持的模型包括 LLama-2-7B、ChatGLM、Alpaca 等。
Project Cover
llava-cpp-server
LLaVA C++ Server是一个简便的API服务端,实现了llama.cpp的LLaVA功能。使用者可以通过下载模型并启动服务器来本地访问,支持自定义主机、端口和HTTP日志记录。API端点位于/llava,接受用户提示和图像数据,便于图像查询和处理。该项目已在macOS上测试,可通过简单构建步骤在其他平台运行。
Project Cover
llama_ros
llama_ros项目提供一系列ROS 2软件包,将llama.cpp的优化能力集成到ROS 2项目中。借助GGUF格式的LLMs和VLMs实现性能优化和功能扩展。内容包括相关项目介绍、安装指南、使用方法,以及各种示范,如llama_cli指令、启动文件配置、LoRA适配器、ROS 2客户端和LangChain集成。
Project Cover
OpenAI-sublime-text
该Sublime Text插件通过LLM模型提升代码助手功能。它支持OpenAI、llama.cpp和Ollama等多种模型,并具备代码操作、聊天模式、GPT-4支持等功能。插件还能管理项目专属的聊天记录和助手设置,支持代理和Markdown语法高亮。用户只需在设置中提供API密钥,即可轻松配置插件,优化编程体验。
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号