IT之家 10 月 3 日消息,OpenAI 在 10 月 1 日舉辦的 DevDay 活動(dòng)日中,宣布推出了 Whisper large-v3-turbo 語(yǔ)音轉(zhuǎn)錄模型,共有 8.09 億參數(shù),在質(zhì)量幾乎沒(méi)有下降的情況下,速度比 large-v3 快 8 倍。
Whisper large-v3-turbo 語(yǔ)音轉(zhuǎn)錄模型是 large-v3 的優(yōu)化版本,并且只有 4 層解碼器層(Decoder Layers),作為對(duì)比 large-v3 共有 32 層。
Whisper large-v3-turbo 語(yǔ)音轉(zhuǎn)錄模型共有 8.09 億參數(shù),比 7.69 億參數(shù)的 medium 模型稍大,不過(guò)比 15.5 億參數(shù)的 large 模型小很多。
OpenAI 表示 Whisper large-v3-turbo 的速度比 large 模型快 8 倍,并且所需的 VRAM 為 6GB,而 large 模型需要 10GB。
Whisper large-v3-turbo 語(yǔ)音轉(zhuǎn)錄模型大小為 1.6GB,OpenAI 繼續(xù)根據(jù) MIT 許可證提供 Whisper(包括代碼和模型權(quán)重)。
IT之家援引 Awni Hannun 測(cè)試結(jié)果,在 M2 Ultra 上,將 12 分鐘的內(nèi)容轉(zhuǎn)錄為 14 秒。