#本地运行
alpaca-electron - 一款无需命令行或编译即可与Alpaca AI模型对话的应用程序
Alpaca ElectronAlpaca.cppllama.cpp人工智能聊天本地运行Github开源项目
Alpaca Electron是一款无需命令行或编译即可与Alpaca AI模型对话的应用程序,支持Windows、MacOS和Linux平台。该应用使用llama.cpp作为后端,在本地计算机上运行,无需互联网连接,也不依赖外部库。安装过程简单,只需下载模型和安装程序即可开始使用。主要功能包括上下文记忆和Docker化,并计划集成Stable Diffusion和DuckDuckGo等功能。
ai-code-translator - 使用AI技术实现编程语言间的即时代码转换
AI Code Translator代码翻译npm本地运行开源项目Github热门
AI Code Translator利用先进的AI技术,支持开发者快速将代码从一种编程语言转换至另一种。该项目易于本地部署与运行,帮助用户提升编程效率并探索代码的多语言应用。如有疑问,欢迎通过Twitter联系项目维护者。
node-llama-cpp - 本地运行文本生成AI模型,兼容Metal和CUDA
node-llama-cppAI模型本地运行预构建二进制文件CLI工具Github开源项目
node-llama-cpp是一个可以在本地机器上运行文本生成AI模型的开源项目,支持Metal和CUDA。提供预构建二进制文件,并在需要时可从源代码构建。用户可以通过命令行界面与模型交互,无需编写代码。项目兼容最新版本的llama.cpp,并支持强制生成解析格式输出,如JSON。
IncognitoPilot - 用于敏感数据的 AI 代码解释器
Incognito PilotGPT-4Code Llama数据分析本地运行Github开源项目
Incognito Pilot将大型语言模型(LLM)和Python解释器结合,使代码可以本地运行,执行数据分析、文件转换和互联网访问等任务,无需将敏感数据上传到云端。用户可以选择使用本地模型(如Llama 2)或API(如GPT-4),通过UI中的审批机制确保数据隔离。项目提供多种安装和配置方式,适应不同需求,并附带丰富的预装依赖,确保安全便捷的集成和运行。
edgen - 本地运行的生成AI API服务,兼容OpenAI API
EdgenGenAIOpenAI模型缓存本地运行Github开源项目
Edgen是一款本地运行的生成AI API服务器,兼容OpenAI API。支持文本生成、语音转文字等AI功能,可在Windows、Linux和MacOS平台上运行。通过本地推理保障数据隐私,减少对云计算的依赖。其模块化设计便于添加新模型,并能自动选择最佳运行时。Edgen还提供模型缓存功能,减少重复下载,无需Docker,采用Rust编写,为用户提供高效、可靠的AI解决方案。
MusicGPT - 本地运行的MusicGPT音乐生成应用
MusicGPTAI音乐生成自然语言提示本地运行性能高效Github开源项目
MusicGPT为本地运行的功能强大的音乐生成应用,支持MusicGen by Meta等模型,无需重型依赖,适配多平台。计划扩展支持更多音乐AI模型。用户可通过命令行或UI界面响应自然语言提示创作音乐,兼容Mac、Linux和Windows,支持在CPU与CUDA加速GPU上运行。
Robby-chatbot - AI聊天机器人,支持CSV、PDF、TXT数据和YouTube视频的交互
Robby-chatbotAI聊天机器人Python 3.8本地运行贡献Github开源项目
Robby-chatbot是一款具备会话记忆功能的AI聊天机器人,允许用户直观地讨论CSV、PDF、TXT数据和YouTube视频。该项目支持本地安装和运行,用户可以通过简单步骤设置服务,并参与项目开发。了解更多关于安装、运行和贡献的信息,以提升数据交互体验。
WeCron - WeCron微信定时提醒服务
WeCron定时提醒微信数据库初始化本地运行Github开源项目
WeCron是一个提供微信定时提醒功能的开源项目,用户可以通过克隆代码、安装依赖、初始化数据库并启动服务器来实现个性化的定时任务管理。该项目利用wechatpy SDK,从2015年开始持续稳定运行。扫码关注微定时公众号即可体验,适用于微信用户的高效便捷定时提醒服务。
GeminiProChat - 轻量级 Gemini Pro Chat 网页界面,支持多种部署方式
GeminiProChat部署API密钥本地运行环境变量Github开源项目
Gemini Pro Chat 提供简洁的网页界面,支持 Vercel、Railway 和 Zeabur 等多种部署方式。通过点击部署按钮即可完成设置,支持 Docker 部署,并可通过环境变量自定义功能。运行需 Node v18 及 GEMINI API KEY。基于 ChatGPT-Demo 开源项目,包含本地运行指南和依赖安装说明。
act - 在本地环境中运行GitHub Actions的开源工具
GitHub Actions本地运行Docker工作流自动化Github开源项目
Act是一个开源工具,能在本地环境中运行GitHub Actions。它无需频繁提交代码即可测试工作流程变更,提供快速反馈。Act可替代Makefile作为本地任务运行器,并通过模拟GitHub环境确保执行结果一致。支持Docker镜像操作,Act为开发者提供了高效的工作流程测试方案。
llamafile - 单文件执行的开源LLM部署框架
llamafileLLM人工智能开源本地运行Github开源项目
llamafile项目将开源语言模型(LLM)封装为单个可执行文件,无需安装即可在本地运行。它集成了llama.cpp和Cosmopolitan Libc,支持跨平台使用,并提供Web界面和OpenAI兼容API。该框架简化了LLaVA、Mistral等多种LLM的部署流程,方便开发者和用户快速访问和应用这些模型。
OpenPlexity-Pages - 开源AI研究内容生成工具
Openplexity Pages开源内容创作AI生成本地运行Github开源项目
OpenPlexity Pages是一款AI驱动的开源研究内容生成工具,可将研究成果转化为综合性文章。支持本地LLM,注重隐私保护,提供可定制的内容结构和语调。适用于教育者、研究人员、爱好者和内容创作者,有助于创建高质量、信息丰富的文章。该项目鼓励社区贡献,为用户提供对内容创作工具的控制权。
FreeAskInternet - 本地多引擎智能搜索与问答聚合器
FreeAskInternet搜索聚合本地运行自由API自定义LLMGithub开源项目
FreeAskInternet是一款本地运行的搜索聚合和智能问答系统。它集成了SearXNG多引擎搜索功能,并利用ChatGPT3.5等大语言模型生成回答。该项目无需GPU和API密钥,支持自定义语言模型,适配网页和移动设备。FreeAskInternet在本地环境中提供类似Perplexity AI的功能,同时保障用户隐私和数据安全。
localpilot - 本地 Mac 上一键启用 AI 代码补全工具
GitHub Copilot本地运行代码补全VS CodeMacBookGithub开源项目
localpilot 是一个开源的本地 AI 编程助手,允许开发者在 Mac 上使用类似 GitHub Copilot 的功能。它支持代码补全和函数生成,在 M2 Max 芯片上性能接近在线服务。作为离线 AI 编程工具,特别适合在网络不稳定或受限的环境中使用。该项目目前正在持续优化中,欢迎贡献以提升性能和用户体验。
httparchive.org - Web性能数据分析开源项目
HTTPArchive.orgWeb ServerApp Engine部署本地运行Github开源项目
HTTPArchive.org是一个开源的Web性能数据分析项目,提供网站性能指标和趋势分析。该项目基于App Engine构建,支持本地开发环境和云端部署。采用Python和Node.js技术栈,整合Highcharts和Font Awesome等工具,为Web开发者和研究人员提供全面的性能数据洞察。
yakGPT - 优化本地ChatGPT界面 提升文本生成速度和聊天体验
YakGPTChatGPT界面语音交互API集成本地运行Github开源项目
YakGPT是一个本地运行的ChatGPT界面,支持GPT-3.5和GPT-4模型。项目特点包括语音交互、快速响应和数据隐私保护。集成语音识别和合成功能,直连API提高响应速度,支持麦克风输入。用户可使用个人API密钥,保障数据安全。支持本地运行和Vercel部署,所有状态本地存储,无需安装额外应用。适用于需要高效、安全AI对话体验的用户。
mirror - 本地运行的实时AI视频分析开源项目
MirrorAI镜像人工智能本地运行可定制Github开源项目
Mirror是一个开源项目,通过本地运行的AI模型实时分析网络摄像头视频流。项目完全在本地执行,保障用户隐私,无需联网且免费使用。通过修改提示,Mirror可适应多种场景需求。该项目基于Bakllava模型和llama.cpp,为开发者提供了探索AI视觉分析的平台。
RAGNA Desktop - 私密高效的AI多功能工具 提升工作效率
AI工具RAGNA Desktop私有AI助手数据安全效率提升本地运行
RAGNA Desktop是一款本地运行的私密AI多功能工具,无需互联网连接,确保数据安全。它提供直观的用户界面,支持多种使用场景,专为提高生产力和自动化日常任务而设计。通过自动化重复性工作,优化工作流程,为创新腾出空间。RAGNA Desktop不仅提高效率,还能降低运营成本,是一个灵活、安全且经济高效的解决方案,特别适合处理敏感信息。
Sanctum - 本地运行的私密AI助手应用
AI工具SanctumAI助手本地运行隐私保护大型语言模型
Sanctum是一款在本地设备上运行开源大语言模型的AI助手应用。通过本地加密技术确保数据私密性,支持AI对话和PDF文档分析等功能。该应用适合注重数据安全同时希望使用AI功能的用户,无需网络连接即可运行完整的AI模型。
Ava PLS - 开源桌面应用支持本地运行多功能语言模型
AI工具Ava PLS语言模型开源桌面应用本地运行自然语言处理
Ava PLS是一款基于AI的开源桌面应用,支持在本地计算机上运行语言模型。该应用可执行文本生成、语法纠正、改写、摘要和数据提取等多种语言任务。兼容macOS、Windows和Linux系统,采用Zig、C++和Swift UI等技术开发。Ava PLS提供私密高效的语言处理方案,适合需要离线或高安全性环境的用户。
Frankenfile - 智能文件处理和批量操作平台
AI工具FrankenfileAI文件处理批量文件操作文件转换本地运行
Frankenfile是一个基于AI的文件处理平台,能根据文字指令自动执行多种文件操作。它支持批量重命名、图像处理、视频编辑和PDF操作等功能。用户只需选择文件并描述需求,系统就会自动完成相应任务。Frankenfile在本地运行,无需上传文件,确保数据安全。这一AI文件管理工具利用自然语言处理技术,简化了文件处理流程,有效提升工作效率。
NEXA AI - 高性能本地化多模态AI模型
AI工具Octopus模型AI代理本地运行功能调用边缘设备
NEXA AI开发的本地化AI模型Octopus系列,可在多种设备上离线运行,无需订阅。这些模型具备自然语言理解、工具调用等能力,可执行多样化任务。相比云端AI,Octopus模型在速度、成本和准确度上均有优势,同时保障数据隐私。该技术适用于需要高性能、低延迟和数据安全的AI应用场景。
airunner - 本地运行的多模态AI界面:语言模型与图像生成集成
AI Runner人工智能图像生成语音交互本地运行Github开源项目
AI Runner整合了开源大型语言模型和AI图像生成技术,为用户提供本地运行的多模态AI体验。它支持语音交互、文本创作、图像生成等功能,具备快速处理能力和多模型并行运行特性。该项目注重离线使用和用户隐私保护,核心程序禁止网络连接,并采取严格的安全措施。
rag-chatbot - RAG聊天机器人 支持多PDF智能对话和灵活部署
RAGPDF聊天本地运行GradioHuggingfaceGithub开源项目
rag-chatbot项目采用检索增强生成(RAG)技术,实现了与多个PDF文档的智能交互。系统支持本地运行和Kaggle环境,可灵活选择Huggingface或Ollama的各类模型。其特色功能包括多PDF并行处理、跨语言对话潜力和简易部署流程。项目持续优化中,未来将引入高级文档管理和ReAct Agent等功能,适用于研究、教育和企业等多种场景。
ava - 离线运行AI语言模型的开源跨平台应用
Ava PLS语言模型本地运行桌面应用开源软件Github开源项目
Ava PLS是一款开源跨平台应用,支持在本地计算机上离线运行AI语言模型。该应用可执行文本生成、语法纠正、改写、摘要和数据提取等多种语言任务。Ava PLS采用Zig、C++、Swift UI和SQLite等技术开发,适用于macOS、Windows和Linux系统。作为离线虚拟助手和个人语言服务器,Ava PLS为用户提供了一个功能全面的本地化AI语言处理解决方案。
privy - 开源本地化AI编程助手 提升代码开发效率
Privy开源代码补全本地运行VS Code扩展Github开源项目
Privy是一款开源的本地化AI编程助手,为注重代码隐私的开发者提供安全可靠的解决方案。该工具支持实时代码补全、AI代码对话、代码解释、单元测试生成和错误诊断等功能,全部在本地运行,无需担心代码泄露。Privy兼容多种大型语言模型,如DeepSeek Coder和CodeLLama,开发者可根据自身硬件配置选择适合的模型。作为GitHub Copilot的开源替代品,Privy旨在提高编程效率,同时保障代码安全。
Meta-Llama-3.1-70B-Instruct-GGUF - 多语言支持的70B参数GGUF量化指令模型
模型量化Github开源项目HuggingfaceGGUF模型文本生成本地运行Meta-Llama
Meta-Llama-3.1-70B-Instruct模型的GGUF格式量化版本,提供2-bit至8-bit多种精度选择。这个70B参数模型支持英语、德语、法语等多种语言,适用于文本生成任务。GGUF格式优化了本地部署和推理效率,适合在本地环境运行大型语言模型。该模型兼容多种支持GGUF的推理工具,为用户提供灵活的应用选择。
Yi-Coder-9B-Chat-GGUF - 多位宽量化的Yi-Coder-9B-Chat GGUF代码生成模型
模型GPU加速开源项目HuggingfaceGGUF格式Yi-Coder-9B-Chat本地运行Github模型文件
Yi-Coder-9B-Chat-GGUF是01-ai原始代码生成模型的GGUF格式版本,提供2至8位量化选项。该模型兼容多种GGUF支持工具,如llama.cpp和LM Studio,便于本地部署。不同位宽的量化版本可满足各种性能和资源需求,适用于多样化的代码生成场景。
相关文章
Alpaca Electron: 在本地运行ChatGPT级别的AI对话模型
2024年08月30日
node-llama-cpp: 在Node.js中运行本地AI模型的强大工具
2024年08月30日
MusicGPT:本地运行的AI音乐生成工具
2024年08月30日
IncognitoPilot:本地运行的AI代码解释器,保护敏感数据安全
2024年08月31日
EdgenAI:本地化的AI服务器,OpenAI的替代方案
2024年08月31日
Robby-chatbot: 一个智能AI聊天机器人的创新之旅
2024年08月31日
llamafile: 革命性的本地化AI运行方案
2024年09月04日
Mirror: 一个轻量级的AI驱动智能镜子项目
2024年09月05日
AI代码翻译器:跨语言编程的革命性工具
2024年08月30日