#Ollama
TranscriptionStream: 自托管离线转录和说话人分离服务
open-webui
Open WebUI是一个为多设备设计的自托管WebUI,支持离线使用,集成LMStudio、GroqCloud等API。支持Docker和Kubernetes安装,提供Markdown、LaTeX支持、多语言翻译、图像生成等功能,并通过角色控制访问权限,定期更新,适用于企业和个人用户。详细信息请访问官方文档。
Lumos
Lumos是一款基于本地LLM的Chrome扩展,无需远程服务器即可浏览和解析网页内容。支持总结长篇内容、解析技术文档等多功能应用,依赖于Ollama服务器的本地运行,适用于技术文档、社交媒体、新闻等场景。
enchanted
这款开源应用兼容Ollama,支持macOS、iOS和visionOS系统,提供安全、私密且多模式的体验。用户可通过应用连接私有模型,如Llama 2、Mistral、Vicuna和Starling等。主要功能包括多模态支持、会话历史、Markdown支持、语音提示及图像附件等,所有功能均可离线使用。需配置Ollama服务器以使用全部功能。
chatd
Chatd是一款桌面应用,使用本地大型语言模型与文件交互,确保数据安全,不上传云端。应用内置LLM运行程序,开箱即用,使用Ollama服务器支持跨平台LLM运行API,并自动管理其生命周期。支持GPU加速和自定义模型选择,适用于MacOS、Windows和Linux系统。
screen-pipe
Screenpipe提供全天候屏幕和音频捕捉,支持Ollama,开放且安全,用户完全掌控数据。该项目采用Rust开发,兼容MacOS、Windows和Linux,提供CLI和桌面应用。支持多种语音识别和OCR引擎,为开发者提供强大的工具和API接口。适用于搜索、自动化、分析和个人助手等应用场景,旨在简化开发者工作流程,提高效率。
local-rag-example
优化描述,以如何在本地机器上快速建立和运行ChatPDF为核心,突出其隐私保护和成本效益的特点。进一步细化技术栈的用途,即Langchain、Ollama和Streamlit如何具体提升操作效率和用户界面体验。
llm-apps-java-spring-ai
升级的SEO描述应详细而精准地概述使用Java和Spring AI开发基于生成式AI和LLMs的应用。明确强调该项目支持的具体应用,如聊天机器人、问题解答、语义搜索等,并展示其在内容生成、多模态交互等领域的应用广泛性。同时,应突出项目提供的技术支持——如LLM输出到结构化对象的转换、嵌入模型及文档ETL流程等,更好地展示如何帮助开发者融合最新AI技术,解决实际业务需求。
ollama-grid-search
Ollama Grid Search是一款用Rust开发的工具,通过自动化选择和优化LLM模型、提示及推理参数,帮助用户进行组合迭代和结果可视化。适用于本地或远程Ollama服务器,支持多模型和参数的A/B测试,输出推理参数和响应元数据,并支持有限并发和同步推理调用。用户可以下载实验数据(JSON格式)并评估对比不同模型和提示组合。
ai-renamer
基于Node.js的CLI工具,利用Ollama和LM Studio模型(如Llava、Gemma、Llama等)智能识别并重命名文件。支持重命名视频、图片及其他文件,适用于Ollama或LM Studio用户,并可配置OpenAI及自定义端口。通过简单的命令行操作,提供灵活的文件命名方式和多种参数设置,满足用户需求。