更令人担忧的是,由于患者与医生的会面是保密的,因此其他人很难知道AI生成的记录对医生和患者有何影响■■◆。
幻觉是指大模型在生成文本★◆◆■■、回答问题或进行其他输出时■◆■■■,会产生一些看似合理但实际上是错误的信息◆★■◆★。这些信息没有事实依据,就好像模型产生了 “幻觉”。
Whisper还用于为聋人和听力障碍者制作隐藏式字幕——这一群体特别容易出现转录错误◆■■。负责美国加劳德特大学技术访问项目的聋人患者克里斯蒂安·沃格勒 (Christian Vogler)说:★◆★◆★“这是因为聋人和听力障碍者无法识别隐藏在所有其他文本中的捏造★■★★★◆。”
即使是录制良好的短音频样本,转录幻觉的问题仍然存在。计算机科学家最近进行的一项研究发现,在他们检查的13000多个清晰音频片段中★★,有187个片段中出现幻觉。
这种幻觉的普遍存在促使专家、倡导者和OpenAI前员工呼吁联邦政府考虑制定AI法规。他们认为,OpenAI至少需要优先解决这一缺陷。
Whisper是2020年9月OpenAI推出的一款开源AI语音转文字工具,其在英语语音识别方面的稳健性和准确性已达到人类水平★◆■,并且支持其他98种语言的自动语音辨识。截至目前◆■,Whisper的使用范围已经涵盖了全球数千家公司,并且仅上个月开源AI平台HuggingFace中Whisper的最新版本下载量就超过420万次,基于Whisper构建的工具已经有超过30000名临床医生和40个医疗系统使用◆★◆★■◆。
即便AI公司一直在努力解决幻觉问题,但目前看来收效甚微。今年早些时候,谷歌的AI助手因建议使用无毒胶水来防止奶酪从披萨上掉下来而遭到批评;苹果CEO蒂姆·库克也在接受采访时提到,幻觉可能会成为其AI未来产品的一个重要问题,并且他对这些工具是否会产生幻觉的信心程度并不是100%■◆■★★。
OpenAI曾在其在线披露中建议不要在“决策环境中”使用Whisper★★◆,因为“决策环境的准确性缺陷可能导致结果出现明显缺陷”。但这一警告并没有阻止医院或医疗中心使用Whisper等语音转文本模型来转录医生就诊时所说的内容★★■■◆,因为这些工具可以帮助医务人员花更少的时间做笔记或撰写报告。
Whisper目已集成到OpenAI旗舰聊天机器人ChatGPT的某些版本中★■,同时也是甲骨文和微软云计算平台的内置产品。HuggingFace的机器学习工程师桑奇特·甘地(Sanchit Gandhi)说◆★■◆■★,Whisper是最受欢迎的开源语音识别模型,并被嵌入到从呼叫中心到语音助手等各种设备中。
因此,如何平衡好产品开发、推向市场■■◆,与这一产品被应用到各行各业所产生的影响,对于AI产业的参与者而言都至关重要。
Nabla的相关负责人认为★◆■,没有一种模型是完美的,目前他们的模型要求医疗服务提供者快速编辑和批准转录的记录,但未来他们或许会改变这种操作模式■★■◆★。
美国康奈尔大学的艾莉森·科内克(Allison Koenecke)教授和美国弗吉尼亚大学的莫娜·斯隆(Mona Sloane)教授研究了他们从卡内基梅隆大学的研究资料库TalkBank获得的经转录的数千个简短片段。他们确定★◆★,Whisper产生的幻觉中有近40%的是有害或令人担忧的,因为说话者可能会被误解或歪曲。
本文为澎湃号作者或机构在澎湃新闻上传并发布,仅代表该作者或机构观点■★,不代表澎湃新闻的观点或立场★■◆★,澎湃新闻仅提供信息发布平台。申请澎湃号请用电脑访问。
去年之前一直担任美国科技政策办公室主任的阿隆德拉·尼尔森(Alondra Nelson)说,这样的错误可能会产生“非常严重的后果■■★◆★★”,尤其是在医院环境中。
原音频为“嗯,她的父亲再婚后不久就去世了”,但AI将其转录为◆■◆“没关系。只是太敏感了,不方便透露。她确实在65岁时去世了■◆◆■”。
智东西10月28日报道,OpenAI的AI转录工具Whisper被曝出,在文本转录和翻译时会出现整句幻觉!
在第三次转录中■■,Whisper发明了一种不存在的药物,称为■◆■“高活性抗生素◆◆★■”。
采访了十几位工程师、开发人员和学术研究人员,发现OpenAI的AI转录工具Whisper很容易编造大段文本甚至整句话■■◆★◆,这些幻觉中包含种族评论、暴力言论,甚至会编造医生和患者的对话★■◆■◆。
另一段录音中的一位发言人描述了★■◆◆“另外两名女孩和一名女士◆★■”。Whisper编造了关于种族的额外评论★★◆◆,补充说:“另外两名女孩和一名女士◆◆◆,嗯◆◆◆,是黑人。”
因此,使用范围最广的Whisper◆■■◆★,被发现出现大量幻觉也更令使用者担忧。
据OpenAI发言人透露,公司正在不断研究如何减少幻觉,并对研究人员的发现表示赞赏◆■◆★,并补充说OpenAI在模型更新中纳入了反馈。
研究人员并不确定Whisper和类似工具为何会产生幻觉,但软件开发人员称,幻觉往往发生在说话声音暂停,出现背景声音或有音乐播放时。
但转录软件补充道:“他拿了十字架的一大块和一小块碎片.◆◆.....我敢肯定他没有带恐怖刀,所以他杀了很多人。”
密歇根大学的一名研究人员在进行一项关于公开会议的研究时透露■■,在他开始尝试改进模型之前,他发现他检查的每10个音频转录中就有8个出现幻觉■■■★■;一位机器学习工程师称◆◆★★,他最初分析了100多个小时的Whisper转录样本★★◆,发现其中约有一半内容存在幻觉。还有开发人员透露,他用Whisper创建的26000份转录样本中几乎每一份都发现了幻觉◆■◆★★。
一些专家在接受媒体采访时提到,此类捏造是有问题的★■■,因为Whisper被全球众多行业用来翻译和转录采访、在流行的消费技术中生成文本以及为视频创建字幕。更令人担忧的是,尽管OpenAI警告不应在“高风险领域★■★”使用该工具,但医疗中心仍急于使用基于Whisper的工具来记录患者与医生的咨询◆■。
目前,有超过30000名临床医生和40个医疗系统已开始使用由美国数字健康创企Nabla开发的基于Whisper的转录工具。Nabla首席技术官马丁·雷森(Martin Raison)称,这一工具根据医学语言进行了微调,可以转录和总结医生与患者的互动,该工具已用于记录约700万次医疗就诊记录★◆★。不过,这家创企的负责人也透露■■◆★◆★,他们知道Whisper可能会产生幻觉并正在解决这个问题★■◆◆。
“如果(OpenAI)公司愿意优先考虑这个问题■◆,这个问题似乎是可以解决的■★。”桑德斯认为,■◆★◆◆“如果你把它推出去,人们过于自信它能做什么,并将其整合到所有其他系统中◆■,那就有问题了。■★★”
美国加州议员丽贝卡·鲍尔-卡汉(Rebecca Bauer-Kahan)称,今年早些时候■★★,她带着一个孩子去看医生并拒绝签署该医疗网络提供的一份表格,该表格要求她允许将咨询音频分享给包括微软Azure在内的供应商■◆★★,她不希望如此私密的医疗对话被分享给科技公司。“该法案(美国加州和联邦隐私法)明确规定营利性公司有权获得这些权利。★◆”但卡汉说■★■◆★,“我当时的反应是绝对不行■★■★◆◆。★◆★”
在他们发现的一个例子中,一位发言者说道:“他■★◆■★◆,那个男孩◆★★◆★,我不太确定■◆★◆,要拿走雨伞◆★■■★。◆◆★◆■”
这种趋势或许将导致数百万条录音中出现数万处错误的转录◆◆■★■,这对于事关人们健康安全的医疗行业影响更为深远。
例如下图中,音频文件的原话是■★★◆“她接了电话后,她开始祈祷”,转录的内容为“我感觉我要摔倒了,我感觉我要摔倒了,我感觉我要摔倒了”★◆。
雷森称★■★◆■,他们无法将Nabla生成的记录与原始录音进行比较★★◆■★◆,因为Nabla的工具会出于“数据安全原因★◆◆■■★”删除原始音频。OpenAI前工程师威廉·桑德斯(William Saunders)认为■◆■★,如果没有仔细检查记录,或者临床医生无法访问录音来验证其是否正确,删除原始音频可能会令人担忧。因为“如果你抛弃了基本事实,你就无法发现错误”★■◆■◆。
虽然大多数开发人员认为转录工具会出现拼写错误或犯其他错误,但工程师和研究人员表示■■◆,他们从未见过其他AI转录工具像Whisper一样产生如此多的幻觉◆★■■◆■。