IT之家 10 月 13 日消息,一項(xiàng)新的研究表明,AI 提供的醫(yī)療建議可能會(huì)對(duì)用戶造成嚴(yán)重傷害,甚至導(dǎo)致死亡。
據(jù)IT之家了解,研究人員對(duì)微軟 Copilot 進(jìn)行了測(cè)試,要求它回答美國(guó)最常見的 10 個(gè)醫(yī)療問(wèn)題和 50 種最常用藥物的相關(guān)問(wèn)題,總計(jì)生成了 500 個(gè)答案。結(jié)果顯示,Copilot 的回答在準(zhǔn)確性和完整性方面都存在問(wèn)題。其中,24% 的回答與已有的醫(yī)學(xué)知識(shí)不符,3% 的回答完全錯(cuò)誤。更令人擔(dān)憂的是,42% 的回答可能會(huì)對(duì)患者造成中度或輕度傷害,而 22% 的回答甚至可能導(dǎo)致死亡或嚴(yán)重傷害,只有 36% 的回答是無(wú)害的。
研究人員指出,人們不應(yīng)該依賴 Copilot 或其他 AI 系統(tǒng)來(lái)獲取準(zhǔn)確的醫(yī)療信息,最可靠的方式仍然是咨詢醫(yī)務(wù)人員。然而,由于種種原因,并非所有人都能夠輕松地獲得高質(zhì)量的醫(yī)療建議。因此,Copilot 等 AI 系統(tǒng)可能會(huì)成為許多人的首選,其潛在的危害不容忽視。