独立可执行文件 适用于不想折腾Python的用户,OpenAI的Whisper 和 Faster-Whisper。
Faster-Whisper 可执行文件兼容Windows 7、Linux v5.4、macOS v10.15及以上版本。
Faster-Whisper-XXL 可执行文件兼容Windows 7、Linux v5.4及以上版本。
Whisper 可执行文件兼容Windows 7及以上版本。
可在命令行界面或在程序中使用,如 Subtitle Edit、Tero Subtitler、FFAStrans。
Faster-Whisper 比 OpenAI 的 Whisper 更快、更好,占用更少的 RAM/VRAM。
使用示例:
whisper-faster.exe "D:\videofile.mkv" --language English --model medium --output_dir source
whisper-faster.exe "D:\videofile.mkv" -l English -m medium -o source --sentence
whisper-faster.exe "D:\videofile.mkv" -l Japanese -m medium --task translate --standard
whisper-faster.exe --help
注意事项:
可执行文件及库可以从 Releases
下载。 [在本页面右侧]
不要将程序复制到 Windows 文件夹中! [如果这样做了,请以管理员身份运行]
如果检测到 CUDA,程序会自动选择在 GPU 上运行。
为了进行合理的转录,请使用不小于 medium
模型。
命令行程序运行指南:https://www.youtube.com/watch?v=A3nwRCV-bTU
批处理多个文件的示例:https://github.com/Purfview/whisper-standalone-win/discussions/29
独立Whisper信息:
原版Whisper,按原样编译 - 没有对原始代码进行更改。
一款参考实现,目前可能对一些测试有用。
独立Faster-Whisper信息:
一些默认设置已针对电影转录进行了调整,并使其可移植。
具有各种新的实验设置和调整。
在命令行界面标题栏显示进度条。 [或可使用 -pp
打印]
默认情况下,它会在相同文件夹中查找模型,路径类似于 -> _models\faster-whisper-medium
。
模型会自动下载,或可从以下网址手动下载:https://huggingface.co/Systran
beam_size=1
:可以使转录速度加倍。 [在我的测试中,对准确性的影响微乎其微]
compute_type
:测试不同类型以找到最适合硬件的最快选项。 [--verbose=true
查看所有支持的类型]
要降低内存使用量,可尝试逐步使用:--best_of=1
、--beam_size=1
、-fallback=None
。
独立Faster-Whisper-XXL信息:
包括所有独立Faster-Whisper的功能加上附加功能,例如:
使用MDX23 Kim_vocal_v2人声提取模型进行音频预处理。
替代的VAD方法:'silero_v3'、'silero_v4'、'pyannote_v3'、'pyannote_onnx_v3'、'auditok'、'webrtc'。
更多信息,请参阅 讨论线程。