#本地部署

stt - 高效离线本地语音识别工具,基于fast-whisper模型,支持多种输出格式
Github开源项目语音识别fast-whisper本地部署CUDA加速文本输出热门
这款语音识别工具可在本地离线运行,基于开源的fast-whisper模型,可将视频和音频中的人声快速转换为文字。支持输出json、srt及纯文本格式,无需联网,确保隐私安全,与openai语音识别接口准确率相当。用户可便捷下载预编译版本,或自行部署源码,支持多种操作系统。此外,还提供API接口,适合开发者使用。支持CUDA加速,优化处理速度。
chatbot-ui - 开源AI聊天应用
Github开源项目Supabase本地部署Chatbot UIopen-source更新热门
Chatbot UI是一个开源的人工智能聊天应用,面向所有用户免费开放。本项目支持快速本地部署和云端托管,适配了最新的移动设备布局,并持续优化后端兼容性。使用Chatbot UI,用户可以享受即时的信息交流体验,增强交互效率。项目提供官方托管版本,无需自行托管,简化了设置过程。同时,Chatbot UI鼓励社区用户参与讨论,共同推动项目进步。
Qmedia - 专为内容创作者设计的开源AI搜索引擎
Github开源项目本地部署内容创作者QMedia多模态搜索引擎AI内容搜索
QMedia是一个开源的多媒体AI搜索引擎,专为处理和整合文本、图片及短视频内容而设计。此搜索引擎支持本地部署,便于在保护隐私的同时进行有效的内容搜索和问答处理。
Auto-PPT - 个性化PPT自动化生成工具
Github开源项目本地部署gpt-3.5-turboPPT自动生成Auto_PPTUnsplash
Auto_PPT是一款采用gpt-3.5-turbo技术的先进自动化PPT生成工具,专为高效生成高质量PPTX文件,支持md格式并提升文本生成过程。搭配Unsplash精选插图,增强视觉吸引力,同时提供本地部署选项以保障数据安全。
whisper-website - 通过Whisper模型实现本地语音转文字
Github开源项目Whisper本地部署语音转文字Docker虚拟环境
本页面介绍了如何通过Whisper模型将语音转换为文字,包括在本地环境和Docker中的部署方法。提供克隆项目代码、配置虚拟环境或Docker镜像的详细步骤,帮助用户快速启动和测试Whisper模型在本地的运行效果。
grontown - 基于eastworld框架开发的黑色风格互动游戏grontown
Github开源项目本地部署grontowneastworld游戏框架
grontown是一款基于开源游戏代理框架eastworld开发的黑色风格互动游戏。作为eastworld框架的演示和开发平台,grontown展示了AI技术在游戏中的应用。游戏可在gron.games网站上体验,也支持本地安装运行。项目源代码开放,为开发者提供了学习和研究eastworld框架的机会。
Local-LLM-User-Guideline - 本地大语言模型深度解析 理论与实践全方位探讨
Github开源项目隐私保护本地部署LLM开源模型自定义
本项目提供Local-LLM全面指南,深入剖析大语言模型背景、开源LLM利弊、在线与本地LLM对比及应用场景。详述LLM运作机制、应用差异和在线使用挑战。指南助力用户选择合适LLM方案,尤其适合本地部署LLM的开发者和研究人员参考。
onprem - 本地运行大型语言模型 安全处理私密数据
Github开源项目大语言模型代码生成本地部署向量数据库OnPrem.LLM
OnPrem.LLM是一个Python工具包,支持在本地机器上运行大型语言模型,处理非公开数据。该工具兼容本地LLM和OpenAI API,提供文档问答、文本摘要和信息提取等功能。适用于需要在防火墙内处理敏感信息的企业,可轻松将本地LLM集成到实际应用中。
ollama-gui - 本地大语言模型的Web交互界面
Github开源项目本地部署LLM模型管理Web界面Ollama GUI
Ollama GUI为ollama.ai提供Web界面,支持在本地运行大型语言模型。该项目集成多种模型,如Mixtral、Phi和Solar,实现模型下载、聊天历史管理和Markdown解析等功能。基于Vue.js、Vite和Tailwind CSS开发,Ollama GUI为AI爱好者和开发者打造了便捷的本地LLM交互平台。
smov - 开源流媒体项目 支持多服务器和本地部署
Github开源项目本地部署流媒体服务Sudo-Flix实例更新
Sudo-Flix是一个开源流媒体项目,支持多服务器选择和本地部署。项目包含浏览器扩展、代理服务、后端和前端组件,用户可使用官方实例或自行部署。FMHY将其评为2024年最佳多服务器流媒体网站,并在Reddit相关版块获得推荐。项目提供详细文档和国际化支持,旨在优化在线观影体验。
Phi-3.5-mini-instruct-GGUF - Microsoft Phi-3.5-mini模型的GGUF格式多位宽量化版本
Github开源项目文本生成本地部署量化模型模型HuggingfaceGGUFPhi-3.5
此项目提供Microsoft Phi-3.5-mini-instruct模型的GGUF格式量化版本。GGUF是llama.cpp团队推出的新格式,取代了GGML。支持2-bit至8-bit多种量化位宽,兼容多个GGUF支持工具,如llama.cpp和LM Studio。这些工具具备GPU加速和Web界面,便于本地部署和使用大型语言模型。
Llama-3-8B-Instruct-64k-GGUF - 指令调优型64k上下文窗口大语言模型
Github开源项目文本生成本地部署量化模型模型HuggingfaceLlamaGGUF
Llama-3-8B-Instruct-64k-GGUF 是一款采用 GGUF 格式量化的指令调优大语言模型。该模型支持 2 至 8 位多种量化精度,具有 64k 上下文窗口,适用于长文本处理任务。它可通过多种开源工具使用,如命令行接口、Python 库和 Web 界面等,在各类硬件上实现高效运行。
Mistral-7B-Instruct-v0.3-GGUF - 高性能量化版指令调优大语言模型
Github开源项目文本生成本地部署语言模型模型HuggingfaceMistral-7B-InstructGGUF格式
本项目提供Mistral-7B-Instruct-v0.3模型的GGUF格式量化版本。GGUF是llama.cpp团队开发的新格式,兼容多种客户端和库。模型支持2-8位量化,可在不同平台上实现GPU加速,适合文本生成和对话应用。这为在本地设备部署高性能大语言模型提供了便捷解决方案。
Llama-3-8B-Instruct-v0.10-GGUF - Llama-3指令模型的GGUF格式量化版本 支持2-8比特精度
Github开源项目文本生成本地部署量化模型模型HuggingfaceLlama-3GGUF格式
这是Llama-3-8B-Instruct-v0.10模型的GGUF格式量化版本,提供2-bit至8-bit的精度选项。GGUF是llama.cpp团队开发的新格式,取代了GGML,支持多种客户端和库。该项目使用户能够在本地设备上高效运行大型语言模型,适用于文本生成任务。