Project Icon

Verbi

灵活的开源语音助手框架 支持多模型实验与对比

Verbi是一个开源的模块化语音助手框架,允许在语音转文字、响应生成和文字转语音等组件中灵活切换不同模型。项目集成了OpenAI、Groq和Deepgram等API,并支持本地模型接入。其易于配置的特性和模块化结构,使Verbi成为测试、比较不同语音助手技术的理想平台,适用于开发者、研究人员和技术爱好者。

VERBI - 语音助手 🎙️

GitHub 星标 GitHub 分支 GitHub 问题 GitHub 拉取请求 许可证

动机 ✨✨✨

欢迎来到语音助手项目!🎙️ 我们的目标是创建一个模块化的语音助手应用程序,让您可以试验各种组件的最先进(SOTA)模型。模块化结构提供了灵活性,使您能够在不同的转录、响应生成和文本转语音(TTS)的SOTA模型之间进行选择。这种方法有利于轻松测试和比较不同的模型,使其成为语音助手技术研究和开发的理想平台。无论您是开发者、研究人员还是爱好者,这个项目都适合您!

特性 🧰

  • 模块化设计:轻松在不同的转录、响应生成和TTS模型之间切换。
  • 支持多个API:集成了OpenAI、Groq和Deepgram API,同时为本地模型预留了位置。
  • 音频录制和播放:从麦克风录制音频并播放生成的语音。
  • 配置管理:集中在config.py中进行配置,便于设置和管理。

项目结构 📂

voice_assistant/
├── voice_assistant/
│   ├── __init__.py
│   ├── audio.py
│   ├── api_key_manager.py
│   ├── config.py
│   ├── transcription.py
│   ├── response_generation.py
│   ├── text_to_speech.py
│   ├── utils.py
│   ├── local_tts_api.py
│   ├── local_tts_generation.py
├── .env
├── run_voice_assistant.py
├── setup.py
├── requirements.txt
└── README.md

设置说明 📋

前提条件 ✅

  • Python 3.10 或更高版本
  • 虚拟环境(推荐)

逐步说明 🔢

  1. 📥 克隆仓库
   git clone https://github.com/PromtEngineer/Verbi.git
   cd Verbi
  1. 🐍 设置虚拟环境

使用venv

    python -m venv venv
    source venv/bin/activate  # 在Windows上使用 `venv\Scripts\activate`

使用conda

    conda create --name verbi python=3.10
    conda activate verbi
  1. 📦 安装所需包
   pip install -r requirements.txt
  1. 🛠️ 设置环境变量

在根目录创建一个.env文件并添加您的API密钥:

    OPENAI_API_KEY=your_openai_api_key
    GROQ_API_KEY=your_groq_api_key
    DEEPGRAM_API_KEY=your_deepgram_api_key
    LOCAL_MODEL_PATH=path/to/local/model
  1. 🧩 配置模型

编辑config.py以选择您想使用的模型:

    class Config:
        # 模型选择
        TRANSCRIPTION_MODEL = 'groq'  # 选项: 'openai', 'groq', 'deepgram', 'fastwhisperapi' 'local'
        RESPONSE_MODEL = 'groq'       # 选项: 'openai', 'groq', 'ollama', 'local'
        TTS_MODEL = 'deepgram'        # 选项: 'openai', 'deepgram', 'elevenlabs', 'local', 'melotts'

        # API密钥和路径
        OPENAI_API_KEY = os.getenv("OPENAI_API_KEY")
        GROQ_API_KEY = os.getenv("GROQ_API_KEY")
        DEEPGRAM_API_KEY = os.getenv("DEEPGRAM_API_KEY")
        LOCAL_MODEL_PATH = os.getenv("LOCAL_MODEL_PATH")

如果您通过Ollama在本地运行LLM,请确保在启动verbi之前Ollama服务器正在运行。

  1. 🔊 配置ElevenLabs Jarvis的声音
  • 语音样本在这里
  • 按照此链接将Jarvis的声音添加到您的ElevenLabs账户。
  • 将声音命名为'Paul J.',或者如果您更喜欢不同的名称,请确保它与text_to_speech.py文件中的ELEVENLABS_VOICE_ID变量匹配。
  1. 🏃 运行语音助手
   python run_voice_assistant.py
  1. 🎤 安装FastWhisperAPI

    如果您需要本地转录模型,这是可选步骤

    克隆仓库

       cd..
       git clone https://github.com/3choff/FastWhisperAPI.git
       cd FastWhisperAPI
    

    安装所需包:

       pip install -r requirements.txt
    

    运行API

       fastapi run main.py
    

    替代设置和运行方法

    API也可以直接在Docker容器或Google Colab中运行。

    Docker: 构建 Docker 容器:

docker build -t fastwhisperapi .

运行容器

docker run -p 8000:8000 fastwhisperapi

关于 Google Colab 方法,请参阅仓库文档:https://github.com/3choff/FastWhisperAPI/blob/main/README.md

  1. 🎤 安装本地 TTS - MeloTTS

    如果您需要本地文本转语音模型,这是可选步骤

    从 Github 安装 MeloTTS

    使用以下链接为您的操作系统安装 MeloTTS。

    一旦软件包安装在您的本地虚拟环境中,您可以使用以下命令启动 API 服务器。

    python voice_assistant/local_tts_api.py
    

    local_tts_api.py 文件实现了一个 fastapi 服务器,它将监听传入的文本并使用 MeloTTS 模型生成音频。 为了使用本地 TTS 模型,您需要更新 config.py 文件,设置:

    TTS_MODEL = 'melotts'        # 选项:'openai'、'deepgram'、'elevenlabs'、'local'、'melotts'
    

    您可以运行主文件开始使用带有本地模型的 verbi。

模型选项 ⚙️

转录模型 🎤

  • OpenAI:使用 OpenAI 的 Whisper 模型。
  • Groq:使用 Groq 的 Whisper-large-v3 模型。
  • Deepgram:使用 Deepgram 的转录模型。
  • FastWhisperAPI:使用 FastWhisperAPI,一个由 Faster Whisper 驱动的本地转录 API。
  • Local:本地语音转文本(STT)模型的占位符。

响应生成模型 💬

  • OpenAI:使用 OpenAI 的 GPT-4 模型。
  • Groq:使用 Groq 的 LLaMA 模型。
  • Ollama:使用通过 Ollama 提供的任何模型。
  • Local:本地语言模型的占位符。

文本转语音(TTS)模型 🔊

  • OpenAI:使用 OpenAI 的 TTS 模型,配合 'fable' 声音。
  • Deepgram:使用 Deepgram 的 TTS 模型,配合 'aura-angus-en' 声音。
  • ElevenLabs:使用 ElevenLabs 的 TTS 模型,配合 'Paul J.' 声音。
  • Local:本地 TTS 模型的占位符。

详细模块描述 📘

  • run_verbi.py:运行语音助手的主脚本。
  • voice_assistant/config.py:管理配置设置和 API 密钥。
  • voice_assistant/api_key_manager.py:根据配置的模型处理 API 密钥的检索。
  • voice_assistant/audio.py:用于录制和播放音频的功能。
  • voice_assistant/transcription.py:使用各种 API 管理音频转录。
  • voice_assistant/response_generation.py:使用各种语言模型处理响应生成。
  • voice_assistant/text_to_speech.py:管理将文本响应转换为语音。
  • voice_assistant/utils.py:包含实用功能,如删除文件。
  • voice_assistant/local_tts_api.py:包含运行 MeloTTS 模型的 API 实现。
  • voice_assistant/local_tts_generation.py:包含使用 MeloTTS API 生成音频的代码。
  • voice_assistant/__init__.py:初始化 voice_assistant 包。

路线图 🛤️🛤️🛤️

以下是语音助手项目的下一步计划:

  1. 添加流式处理支持:实现音频输入和输出的实时流式处理。
  2. 添加 ElevenLabs 和增强 Deepgram 的 TTS 支持:整合额外的 TTS 选项,以提高质量和多样性。
  3. 添加填充音频:在等待模型响应时包含背景或填充音频,以增强用户体验。
  4. 全面添加本地模型支持:扩展对转录、响应生成和 TTS 的本地模型支持。

贡献 🤝

我们欢迎社区的贡献!如果您想帮助改进这个项目,请遵循以下步骤:

  1. Fork 这个仓库。
  2. 创建一个新分支(git checkout -b feature-branch)。
  3. 进行更改并提交(git commit -m '添加新功能')。
  4. 推送到分支(git push origin feature-branch)。
  5. 开启一个详细说明您更改的拉取请求。

星标历史 ✨✨✨

星标历史图表

项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号