#本地LLM

Lumos - 基于本地LLM的Chrome浏览助手,无需依赖远程服务器
LumosOllamaChrome扩展本地LLMLangChainGithub开源项目
Lumos是一款基于本地LLM的Chrome扩展,无需远程服务器即可浏览和解析网页内容。支持总结长篇内容、解析技术文档等多功能应用,依赖于Ollama服务器的本地运行,适用于技术文档、社交媒体、新闻等场景。
Dot - 本地LLM驱动的文档交互与增强检索工具
Dot开源文档管理本地LLMPhi-3Github开源项目
Dot是一款独立的开源应用,使用本地LLM和增强检索技术,实现与PDF、DOCX、PPTX、XLSX和Markdown等格式文件的无缝交互。基于Electron JS构建,内含所有必要的Python库,适合非编程用户使用。未来计划增加Linux支持、图像文件支持和更多文档类型。
EmbedAI - 离线问答聊天机器人创建
PrivateGPT本地LLM数据隐私QnA聊天机器人无需互联网Github开源项目
PrivateGPT利用本地大型语言模型(LLM)技术,在不依赖互联网的情况下创建问答聊天机器人,确保数据的完全隐私和安全。该项目支持的文档类型包括但不限于PDF、Word、HTML等,支持无网络环境下流畅查询。特别适合需要处理敏感信息的企业和个人用户。
AI-tamago - 基于LLM的本地虚拟宠物模拟Tamagotchi体验
AI Tamago虚拟宠物本地LLMOllamaSupabaseGithub开源项目
AI-tamago项目利用本地LLM技术创建虚拟宠物,模拟Tamagotchi体验。该项目集成Ollama推理、Inngest状态管理和Supabase向量数据库等技术。支持本地部署和云端运行,具备多租户和访问控制功能。
Autogen_GraphRAG_Ollama - 实现本地多智能体RAG系统的开源项目
GraphRAGAutoGenOllamaChainlit本地LLMGithub开源项目
Autogen_GraphRAG_Ollama是一个将GraphRAG与AutoGen代理结合的开源项目。它利用Ollama的本地LLM实现免费离线嵌入和推理,通过函数调用整合GraphRAG的知识搜索方法。项目支持本地模型推理和嵌入,扩展了AutoGen以支持非OpenAI LLM的函数调用,并集成Chainlit UI处理持续对话和用户交互,打造了一个功能完备的本地化多智能体RAG系统。
Socrates - 文档智能分析系统 快速提取文件信息
AI工具Socrates文档问答AI分析本地LLM多文档比较
Socrates为文档分析工具,支持PDF和DOCX格式。该系统能从文件中快速提取信息、回答问题,并提供带引用的解释。支持Windows、Mac和网页版,提供本地AI模型,保障文件隐私。适合研究人员、学生和专业人士使用,可高效分析复杂文档,提升工作学习效率。
generativeAgent_LLM - 交互式人类行为模拟框架
Generative AgentsLangchain本地LLMAI模拟人工智能Github开源项目
generativeAgent_LLM是一个基于Guidance、Langchain和本地LLM的生成式智能体框架。该项目支持记忆检索、反思、规划和对话生成等功能,能够模拟人类行为并实现交互。它在Langchain基础上进行了改进和扩展,添加了更多特性,更贴近原始论文的设计。除了支持本地LLM,项目还提供代理总结和采访等功能。同时包含详细使用说明和示例代码,便于快速上手和定制开发。
Gemmasutra-Mini-2B-v1-GGUF - 小型2B模型实现高效本地语言处理
Github精细调整本地LLM开源项目角色扮演HuggingfaceGemmasutra Mini 2B模型
Gemmasutra Mini 2B v1是一款具备本地化处理能力的小型语言模型,适用于多种设备,包括普通笔记本和树莓派。其自由和无对齐特性,提供了个性化体验,推荐使用Gemma Instruct模板进行系统角色调整使用,但不适合数学应用。