当前位置:AIGC资讯 > AIGC > 正文

whisper-large-v3:速度快的令人翻译模型三种实用的调用方法

1、whisper-large-v3 是openai公司的模型,可使用Python代码调用;

2、whisper-large-v3基础上chenxwh 制作了开源库insanely-fast-whisper ,可本地指令运行,或 Google Colab T4 GPU 运行;

3、以上两个模型应用,如果觉得使用复杂难度大,国内软件工程师制作了更简单的版本fast-whisper3。

以下分三部分介绍:

开源库

insanely-fast-whisper

https://github.com/chenxwh/insanely-fast-whisper

使用 OpenAI 的 Whisper Large v3 在不到 98 秒的时间内转录 300 分钟(5 小时)的音频。

insanely-fast-whisper

本地安装

1、pip install pipx

2、pipx install insanely-fast-whisper

默认路径:

C:\Users\Administrator\AppData\Local\pipx\pipx\venvs\insanely-fast-whisper

3、运行(cmd)

- 路径:

C:\Users\Administrator\AppData\Local\pipx\pipx\venvs\insanely-fast-whisper\Scripts

- 指令:

insanely-fast-whisper --file-name e:\huang.mp3

usage: insanely-fast-whisper.exe [-h] 

[--file-name FILE_NAME ]

[--device-id DEVICE_ID]                                

[--transcript-path TRANSCRIPT_PATH] 

[--model-name MODEL_NAME]

[--task {transcribe,translate}]

[--language LANGUAGE]

[--batch-size BATCH_SIZE]                                 

[--flash FLASH] 

[--timestamp {chunk,word}] 

[--hf_token HF_TOKEN]                                 

[--diarization_model DIARIZATION_MODEL]

二  另一个分享

在开源whisper上加工,打包的翻译软件

更简单,更方便

large-v3

夸克网盘链接:https://pan.quark.cn/s/82b36b6adfa7提取码:JsyQ

Whisper

命令行使用

(例)

1、使用medium模型转录音频文件中的语音:

whisper audio.flac audio.mp3 audio.wav --model medium

2、指定语言--language

whisper japanese.wav --language Japanese(cantonese)

3、--task translate会将演讲翻译成英语

whisper japanese.wav --language Japanese --task translate

4、查看所有可用选项

whisper --help

5、python使用

import whisper

model = whisper.load_model("base")

result = model.transcribe("huang.mp3")

print(result["text"])

6、python安装whisper

pip install -U openai-whisper

或者

7、python 升级whisper

pip install --upgrade --no-deps --force-reinstall git+https://github.com/openai/whisper.git

pip install git+https://github.com/openai/whisper.git 

参考文献:

1、《【本地开源】whisper-large-v3:速度快得令人难以置信的翻译模型,分享三种实用的调用方法》作者:万能君软件库

更新时间 2024-04-07