近期,隨著醫(yī)療資源面臨壓力,包括長時(shí)間等待和高昂成本在內(nèi)的諸多問題日益凸顯,越來越多的民眾開始嘗試?yán)萌斯ぶ悄芰奶鞕C(jī)器人,如ChatGPT,進(jìn)行自我診斷。最新數(shù)據(jù)顯示,美國約有六分之一的成年人每月至少一次利用這類機(jī)器人獲取健康建議。
然而,對(duì)聊天機(jī)器人輸出的過度信賴可能潛藏風(fēng)險(xiǎn)。牛津大學(xué)主導(dǎo)的一項(xiàng)研究顯示,用戶在與聊天機(jī)器人交流時(shí),往往難以提供足夠的關(guān)鍵信息,從而妨礙了獲取最佳健康建議的可能性。
牛津互聯(lián)網(wǎng)研究所的研究生項(xiàng)目主任亞當(dāng)·馬赫迪在接受采訪時(shí)指出,這項(xiàng)研究揭示了雙向溝通的障礙。他表示,使用聊天機(jī)器人的人并未比依賴傳統(tǒng)方法(例如在線搜索或自行判斷)的人做出更明智的決策。
為了進(jìn)行這項(xiàng)研究,研究人員招募了約1300名英國參與者,并向他們提供了由醫(yī)生設(shè)計(jì)的醫(yī)療場景。參與者需要識(shí)別潛在的健康狀況,并借助聊天機(jī)器人及自己的方法來決定行動(dòng)方案,比如是否就醫(yī)。
研究中,參與者使用了包括GPT-4在內(nèi)的多種人工智能模型。研究結(jié)果顯示,聊天機(jī)器人不僅讓參與者更難識(shí)別相關(guān)健康狀況,還導(dǎo)致他們低估了已識(shí)別健康問題的嚴(yán)重性。
馬赫迪強(qiáng)調(diào),參與者在向聊天機(jī)器人提問時(shí)經(jīng)常遺漏重要細(xì)節(jié),或收到難以理解的回答。他指出,聊天機(jī)器人提供的建議往往好壞參半,而目前的評(píng)估方法未能反映出與人類用戶互動(dòng)的復(fù)雜性。
與此同時(shí),科技公司正積極推動(dòng)人工智能在改善健康狀況方面的應(yīng)用。例如,蘋果正在開發(fā)一款提供運(yùn)動(dòng)、飲食和睡眠建議的人工智能工具;亞馬遜則在探索利用人工智能分析醫(yī)療數(shù)據(jù)庫中的健康社會(huì)決定因素;微軟則協(xié)助構(gòu)建能夠?qū)颊甙l(fā)送給護(hù)理提供者的消息進(jìn)行初步分類的人工智能。
然而,無論是醫(yī)療專家還是患者,對(duì)于人工智能是否已準(zhǔn)備好應(yīng)用于高風(fēng)險(xiǎn)健康領(lǐng)域,都存在不同看法。美國醫(yī)學(xué)協(xié)會(huì)建議醫(yī)生不要使用ChatGPT等聊天機(jī)器人輔助臨床決策,而包括OpenAI在內(nèi)的主要人工智能公司也發(fā)出警告,不要僅憑聊天機(jī)器人的輸出結(jié)果進(jìn)行診斷。






