FunClip简介
FunClip是一款功能强大的开源视频剪辑和语音识别工具。它利用阿里巴巴达摩院语音实验室的开源FunASR Paraformer系列模型对视频进行语音识别,然后用户可以根据识别结果自由选择文本片段或说话人,点击剪辑按钮即可获得相应的视频剪辑。
FunClip主要特性
- 🔥支持使用大语言模型进行AI智能剪辑
- 集成了业界领先的开源中文语音识别模型Paraformer-Large
- 支持热词定制功能,可指定特定实体词、人名等作为热词来提升识别效果
- 集成了说话人识别模型CAM++,可以根据自动识别的说话人ID进行剪辑
- 通过Gradio实现交互界面,安装简单,使用方便
- 支持多段自由剪辑,自动生成全视频SRT字幕和目标片段SRT字幕
安装使用
环境准备
FunClip的基本功能只依赖Python环境:
git clone https://github.com/alibaba-damo-academy/FunClip.git
cd FunClip
pip install -r ./requirements.txt
启动服务
运行以下命令启动FunClip本地服务:
python funclip/launch.py
然后访问localhost:7860
即可使用FunClip的Web界面。
相关资源
- FunClip GitHub仓库
- FunClip Modelscope在线体验
- FunClip HuggingFace在线体验
- FunASR语音识别工具箱
- Paraformer-Large模型
- SeACo-Paraformer模型
社区交流
FunClip由FunASR团队首次开源,欢迎提交有价值的PR。你也可以扫描以下二维码加入钉钉群或微信群进行交流:
FunClip为视频剪辑和语音识别任务提供了一个开源、易用的解决方案。无论你是研究人员还是开发者,都可以利用FunClip来简化工作流程,提高效率。欢迎大家尝试使用并为项目贡献自己的想法!