【ITBEAR】一項最新研究顯示,人工智能(AI)在提供醫(yī)療建議時存在顯著的安全風險。德國和比利時的研究團隊針對微軟的Bing Copilot進行了專項測試,該AI引擎被設計為回答美國最常見的十個醫(yī)療問題及五十種常用藥物的相關信息。
在生成的五百個回答中,研究人員發(fā)現(xiàn),有24%的答案與現(xiàn)有醫(yī)學知識不符,而3%的回答完全錯誤。尤為嚴重的是,42%的回答可能給患者帶來中度或輕度的傷害,22%的回答甚至可能導致死亡或嚴重傷害,僅36%的回答被認為安全無害。

研究還揭示,AI答案的平均完整性得分為77%,最低的答案完整性僅為23%。在準確性方面,26%的AI答案與參考數(shù)據(jù)存在不符,超過3%的回答完全偏離了實際。僅54%的答案與科學共識相符,而39%的答案與之相悖。
該研究結果已在《BMJ Quality & Safety》期刊上發(fā)表。研究人員強調,盡管AI技術展現(xiàn)出一定的潛力,但患者在尋求準確且安全的醫(yī)療信息時,仍應咨詢專業(yè)的醫(yī)療人員。






