热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#本地语言模型
gpt4all
GPT4All项目允许用户在常规桌面或笔记本电脑上私密运行大型语言模型(LLMs),无需进行API调用或使用GPU。用户可以直接下载应用程序开始使用,支持Windows、MacOS和Ubuntu等操作系统。该项目通过与Paperspace等合作伙伴的支持,实现了LLMs的高效和易于访问。
local_llama
Local Llama是一个基于本地LLM的离线文档对话系统。该项目支持PDF、TXT、DOCX等多种文件格式,使用Ollama集成本地LLM,实现完全离线运行。系统采用持久化向量数据库存储文档索引,通过Streamlit提供用户界面。Local Llama无需依赖云服务,确保数据隐私和离线访问,为用户提供安全、高效的文档交互体验。
Memory-Cache
Memory Cache是Firefox浏览器扩展,支持将网页保存为PDF并同步至指定文件夹。结合privateGPT使用可增强本地语言模型。项目包含Firefox补丁应用和扩展安装步骤。用户通过工具栏图标便捷保存网页,有助于信息管理和本地AI模型训练。
相关文章
缓存内存(Cache Memory):深入浅出的全面解析
1 个月前
Local Llama: 本地运行大型语言模型的创新解决方案
1 个月前
GPT4All学习资源汇总 - 在本地设备上运行大型语言模型
1 个月前
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号