OpenAI 升級 Whisper 語(yǔ)音轉錄 AI 模型,不犧牲質(zhì)量速度快 8 倍
IT之家 10 月 3 日消息,OpenAI 在 10 月 1 日舉辦的 DevDay 活動(dòng)日中,宣布推出了 Whisper large-v3-turbo 語(yǔ)音轉錄模型,共有 8.09 億參數,在質(zhì)量幾乎沒(méi)有下降的情況下,速度比 large-v3 快 8 倍。
Whisper large-v3-turbo 語(yǔ)音轉錄模型是 large-v3 的優(yōu)化版本,并且只有 4 層解碼器層(Decoder Layers),作為對比 large-v3 共有 32 層。
Whisper large-v3-turbo 語(yǔ)音轉錄模型共有 8.09 億參數,比 7.69 億參數的 medium 模型稍大,不過(guò)比 15.5 億參數的 large 模型小很多。
OpenAI 表示 Whisper large-v3-turbo 的速度比 large 模型快 8 倍,并且所需的 VRAM 為 6GB,而 large 模型需要 10GB。
Whisper large-v3-turbo 語(yǔ)音轉錄模型大小為 1.6GB,OpenAI 繼續根據 MIT 許可證提供 Whisper(包括代碼和模型權重)。
IT之家援引 Awni Hannun 測試結果,在 M2 Ultra 上,將 12 分鐘的內容轉錄為 14 秒。
021yin.com/openai/whisper/discussions/2363
模型下載:
在線(xiàn)體驗: