(来自:OpenAI Blog)
OpenAI 表示,Whisper 的不同之处,在于其接受了从网络收集的 68 万小时的多语言和“多任务”训练数据,从而提升了该方案对独特口音、背景噪声和技术术语的识别能力。
官方 GitHub 存储库上的概述称:
Whisper 模型的主要目标用户,是研究当前模型稳健性、泛化、能力、偏差和约束的 AI 研究人员。
与此同时,它也很适合作为面向开发者的自动语音识别解决方案尤其是英语语音识别。
感兴趣的朋友,可以从托管平台上下载 Whisper 系统的多个版本,其模型在大约 10 种语言上展现出了强大的 ASR 结果。
此外假如在某些任务上加以微调的话,它们还有望在语音活动检测、讲述者分类等应用场景下表现出额外的能力。
架构示意
遗憾的是,Whisper 尚未在相关领域得到强有力的评估、且模型也有其局限性 —— 有其在文本预测领域。
由于该系统接受了大量“嘈杂”的数据训练,OpenAI 决定提前给大家打一剂预防针,警告称 Whisper 可能在转录中包含实际上未讲述的单词。
原因可能是 Whisper 既试图预测音频中的下一个单词、又试图转录音频本身。
流程示例
此外 Whisper 在不同语言场景下的表现也不大一致,尤其涉及在训练数据中没有很好被代表的语言的讲述者时,其错误率也会更高。
不过后者在语音识别领域早已不是什么新鲜事,即使业内首屈一指的系统,也一直受到此类偏差的困扰。
参考斯坦福大学在 2020 年分享的一项研究结果 —— 相较于黑人,来自亚马逊、苹果、Google、IBM 和微软的系统,针对白人用户的错误率要低得多(大约 35%)。
Whisper 有约 1/3 的音频数据集为非英语
即便如此,OpenAI 还是认为 Whisper 的转录功能,可被用于改进现有的可访问性工具。其在 GitHub 上写道:
尽管 Whisper 模型不适用于开箱即用的实时转录,但其速度和大小表明,其他人可在此基础上构建近乎实时的语音识别和翻译应用程序。
建立在 Whisper 模型之上的有益应用程序,其价值切实地表明了这些模型的不同性能,有望发挥出真正的经济影响力。
我们希望大家能够将该技术积极应用于有益目的,使自动语音识别技术更易获得改进、让更多参与者能够打造出更负责任的项目。
在速度和准确性的双重优势下,Whisper 将允许对大量通信提供可负担得起的自动转录和翻译体验。
相关文章:
[视频]OpenAI展示DALL-E 2:AI图像生成器支持编辑图像了
扫一扫
在手机上阅读