10月28日,一则令人震惊的消息在科技界和医疗界同时引爆:OpenAI旗下的AI语音转写工具Whisper被曝存在重大缺陷,竟然会凭空创造大段虚假信息。这一发现迅速在网络上引起轩然大波,尤其是当多家医疗机构公开承认使用Whisper记录医生与患者间的会诊内容时,更是引发了公众的广泛担忧。
据不完全统计,目前已有超过30000名临床医生和40个卫生系统在使用法国AI诊疗公司Nabla基于Whisper开发的工具。这些机构中不乏知名医疗机构,如美国明尼苏达州曼卡托诊所、洛杉矶儿童医院等。然而,OpenAI此前已明确发出警告,指出Whisper不宜在“高风险领域”内应用,这一警告似乎并未引起足够的重视。
一位机器学习工程师在初步分析超过100小时的Whisper转录数据时,惊人地发现其中约有一半的内容存在“幻觉”现象,即转写内容与原始语音严重不符。这一发现无疑为Whisper的可靠性打上了大大的问号。
关于Whisper这一严重缺陷的具体成因,目前仍众说纷纭。有软件开发者推测,这些虚构内容的产生可能与语音中的停顿、背景噪音或音乐播放等因素有关。但无论原因如何,这一缺陷已经对医疗机构和患者造成了潜在的巨大风险。
针对此问题,OpenAI方面表示正在积极研究如何有效降低虚构内容的产生,并对研究人员的发现表示感谢。同时,OpenAI还承诺将在后续的模型更新中融入相应的反馈机制,以期进一步提升转写的准确性和可靠性。然而,对于已经使用Whisper的医疗机构和患者来说,这一补救措施是否来得太迟?
以上就是Whisper AI语音转写工具陷“造假”风波,医疗机构紧急应对的全部内容了,极8网精心打造,旨在为您呈现一个满载精彩纷呈资讯的宝库,全球前沿资讯、深度剖析行业动态、汇聚热门话题与独特视角,力求为您带来一场场知识与娱乐并重的盛宴。