2023年對AI(人工智能)來說意味著什么?每個人可能都有自己的答案。這一年,AI真正進(jìn)入公眾視野。這一年,聊天機(jī)器人和其他生成式AI技術(shù)迎來爆發(fā)。也是這一年,政府及其他組織開始認(rèn)真對待AI的風(fēng)險。
在一組“照片”上,美國前總統(tǒng)特朗普狼狽地被一群警察追逐,并在混亂中被制伏。當(dāng)時恰逢特朗普面臨刑事訴訟,這些圖片一時間引發(fā)了震驚和困惑,但很快被證實(shí)是AI生成的假照片。
類似的案例越來越多,擔(dān)憂隨之而來。AI技術(shù)使得虛假信息變得更加難以鑒別,可能被用于詐騙,也可能被用于影響輿論和選舉。2024年將是全球選舉大年,多國將迎來大選,AI技術(shù)將成為選舉中的不確定因素。
監(jiān)管AI的呼聲漸起。從一封科學(xué)家和研究人員聯(lián)名呼吁暫停開發(fā)AI公開信,到我國首個AI監(jiān)管文件,再到全球首屆AI安全峰會和歐盟首部“AI法”……這一年,AI安全已經(jīng)上升為全球政治的中心話題之一。
生成式AI爆發(fā)
去年年底,一款新的AI聊天機(jī)器人問世,它以近乎人類的文字運(yùn)用能力進(jìn)行溝通。不久之后,更多的AI系統(tǒng)不僅生成文字,還生成圖像、音頻、視頻和音樂等。這些系統(tǒng)被稱為生成式AI。
人們漸漸開始使用AI進(jìn)行娛樂、學(xué)習(xí)、寫作、編程、制作圖像和視頻等。廣告業(yè)開始通過AI幫助生成廣告。科技服務(wù)公司使用AI幫助客戶修復(fù)技術(shù)漏洞。藝術(shù)家運(yùn)用AI創(chuàng)作藝術(shù)作品。眾多企業(yè)開始尋求將生成式AI工具集成到其現(xiàn)有產(chǎn)品或服務(wù)中去。
英國一家研究機(jī)構(gòu)11月發(fā)布的調(diào)查報告顯示,英國約五分之四的青少年正在使用生成式AI工具,澳大利亞約三分之二的員工在工作中使用生成式AI。
甚至新的工作崗位開始出現(xiàn),比如提示詞工程師,他們通過設(shè)計適當(dāng)?shù)奶崾驹~,合理利用不同的AI模型,實(shí)現(xiàn)最優(yōu)的輸出內(nèi)容。
業(yè)內(nèi)人士預(yù)測,AI發(fā)展的下一個里程碑將是生成式AI系統(tǒng)變得更加多模態(tài),即它能夠處理文本、圖像、音頻、視頻等多種類型的數(shù)據(jù),這意味著AI將對現(xiàn)實(shí)世界有更深入的理解。
開啟“潘多拉”之盒?
然而,新奇之余,擔(dān)憂也開始顯現(xiàn)。
在世界各地,學(xué)生開始讓AI代寫論文、作答家庭測驗(yàn),引發(fā)了教育界的擔(dān)憂,一些學(xué)校不得不禁止學(xué)生使用AI工具。
AI聊天機(jī)器人在回答中常常犯事實(shí)性錯誤。它們以絕對肯定的語言撒謊或胡言亂語。研究人員稱這種現(xiàn)象為“幻覺”。開發(fā)AI聊天機(jī)器人的公司警告說,不能全部相信聊天機(jī)器人所說的話。
AI換臉和聲音克隆技術(shù)被用于網(wǎng)絡(luò)詐騙。不法分子可以使用這些新技術(shù)在視頻通話中模擬他人的面部和聲音,令人一時難以辨別真?zhèn)巍?/p>
據(jù)追蹤虛假信息的組織NewsGuard在12月發(fā)布的報告,自今年4月以來,該組織記錄的利用AI制造假新聞的網(wǎng)站從49個激增至600多個,增長11倍有余。
9月,在斯洛伐克,全國選舉投票日前夕,一段聽起來像是一名候選人的聲音的音頻在社交媒體傳播,音頻中的聲音似乎在描述通過賄賂部分選民來操縱選舉的計劃。事后,核查人員指出,音頻有AI偽造跡象。
10月,阿根廷舉行大選,兩名領(lǐng)先候選人的團(tuán)隊(duì)和支持者都使用AI生成了大量宣傳內(nèi)容,被媒體稱為全球首個“AI大選”。
分析人士認(rèn)為,美國、印度、俄羅斯、墨西哥等國都將在明年迎來全國選舉,AI制作的宣傳內(nèi)容和虛假信息預(yù)計都將出現(xiàn)大幅上升,可能成為影響選舉的一大因素。
搶走人類“飯碗”?
對大眾而言,更大的擔(dān)憂或許是AI可能會取代人類的工作。
當(dāng)生成式AI工具可以生成文字、圖像、音樂、聲音、代碼等內(nèi)容時,它們似乎威脅到任何從事相關(guān)領(lǐng)域工作的人。
今年5月,在美國,好萊塢編劇舉行罷工,要求制片方禁止使用AI生成劇本,他們擔(dān)心自己的工作會被AI取代。
高盛公司的一份評估報告預(yù)測,未來,生成式AI將可以取代目前人類工作崗位總量的四分之一,僅在歐盟和美國,3億個人類工作崗位可能因AI而消失。不過,生成式AI也會造就許多高創(chuàng)造力的新崗位。
美國未來學(xué)家馬丁·福特認(rèn)為,在AI面前,短期內(nèi)相對安全的職位有三類:真正創(chuàng)新性的工作,比如提出新的商業(yè)策略和法律策略等;需要復(fù)雜人際交往的工作,比如護(hù)士、商業(yè)顧問和調(diào)查記者;需要大量移動性和靈巧度的技術(shù)工種,比如電工、管道工、焊工等。
把AI管起來
AI技術(shù)爆發(fā)式發(fā)展,AI監(jiān)管隨之而起。
3月,一批AI科學(xué)家和研究人員呼吁暫停AI開發(fā)六個月。“只有當(dāng)我們確信其影響將是積極的,其風(fēng)險將是可控的時候,才應(yīng)該開發(fā)強(qiáng)大的AI系統(tǒng)。”他們在信中說。
當(dāng)然,AI開發(fā)沒有因?yàn)檫@封信而暫停。但這封信傳達(dá)了一個強(qiáng)烈信號,即人類已經(jīng)到了需要關(guān)注AI帶來的風(fēng)險的時刻了。
同月,聯(lián)合國教科文組織總干事奧德蕾·阿祖萊發(fā)表聲明,呼吁各國盡快實(shí)施該組織通過的《人工智能倫理問題建議書》,為人工智能發(fā)展設(shè)立倫理標(biāo)準(zhǔn)。
7月,中國政府發(fā)布《生成式人工智能服務(wù)管理暫行辦法》,以促進(jìn)生成式人工智能健康發(fā)展和規(guī)范應(yīng)用,維護(hù)國家安全和社會公共利益,保護(hù)公民、法人和其他組織的合法權(quán)益。
10月,美國總統(tǒng)拜登簽署行政命令,推動15家AI領(lǐng)域領(lǐng)軍企業(yè)自愿承諾推動安全、可靠和可信的AI發(fā)展的工作,并建立AI安全的新標(biāo)準(zhǔn)。
11月,首屆全球人工智能(AI)安全峰會在英國舉辦,包括中國、美國、英國在內(nèi)的28個國家及歐盟共同簽署了《布萊切利宣言》,承諾以安全、以人為本、值得信賴和負(fù)責(zé)任的方式設(shè)計、開發(fā)、部署和使用AI。
12月,歐洲議會、歐盟成員國和歐盟委員會三方就《人工智能法案》達(dá)成協(xié)議,該法案經(jīng)過多年辯論,為AI應(yīng)用設(shè)置了規(guī)則和風(fēng)險分級制度,這是全球首個針對AI的主要法規(guī)。

2023年4月14日,新京報專訪加利福尼亞大學(xué)伯克利分校計算機(jī)科學(xué)教授斯圖爾特·羅素報道版面。
- 記者手記
今年年初,AI聊天機(jī)器人突然走紅。人們在新奇中夾雜疑慮。恰逢一批科學(xué)家和業(yè)內(nèi)人士寫了一封公開信,呼吁暫停正在進(jìn)行的AI開發(fā)競賽,并警告AI的風(fēng)險。
這封公開信的末尾附著一連串響亮的名字:圖靈獎得主、蒙特利爾大學(xué)教授約書亞·本吉奧,加利福尼亞大學(xué)伯克利分校計算機(jī)科學(xué)教授、智能系統(tǒng)中心主任斯圖爾特·羅素,特斯拉創(chuàng)始人埃隆·馬斯克,蘋果聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克,以色列學(xué)者尤瓦爾·赫拉利……
我們順著這份名單一個接著一個聯(lián)系,多數(shù)人出于各種原因沒有接受采訪。幸好,斯圖爾特·羅素回復(fù)說可以通過郵件回答一些問題。羅素是國際人工智能聯(lián)合會議(IJCAI)兩項(xiàng)大獎得主,其與他人合著的《人工智能:一種現(xiàn)代的方法》被譽(yù)為人工智能領(lǐng)域最受歡迎的教材。
我們與羅素在兩周時間內(nèi)斷斷續(xù)續(xù)地溝通了十幾封郵件。羅素及一批科學(xué)家擔(dān)心的AI風(fēng)險,并不只是我們目前能夠看到的信息不準(zhǔn)確、利用AI造假等,更多是對未來不確定性的擔(dān)憂。
他進(jìn)一步解釋道,大型語言模型是非常大的“黑箱系統(tǒng)”(Black-box system),即一個系統(tǒng)的內(nèi)部運(yùn)作方式對于外部觀察者是不可見的或難以理解的。因此,即使我們賦予AI的是一個善意的目標(biāo),它仍可能帶來災(zāi)難性后果。
羅素假設(shè)了一個場景:假如抽掉大氣中的氧氣可以阻止氣候變化,人類肯定不會同意這種方案,因?yàn)闆]有氧氣會導(dǎo)致所有人類滅亡,但AI可能會認(rèn)為這個方案是沒有問題的,因?yàn)檫@個方案可以實(shí)現(xiàn)其預(yù)設(shè)的阻止氣候變化的目標(biāo),且它自身也不需要依靠氧氣來生存。
對于羅素提出這個假設(shè),業(yè)界正在試圖給出解決方案。不少AI模型開發(fā)商采取“基于人類反饋的強(qiáng)化學(xué)習(xí)”(RLHF)技術(shù),繞過了給AI設(shè)置目標(biāo)這一風(fēng)險環(huán)節(jié)。通俗來說,RLHF有一點(diǎn)像馴狗,人類評估員對AI作出的不同響應(yīng)給予“獎勵”和“懲罰”,以此來規(guī)范AI。另外,有研究團(tuán)隊(duì)提出編寫一部AI“憲法”,即一套AI必須遵守的規(guī)則和價值觀來規(guī)范AI。
但這兩種路徑各有短板或難點(diǎn)。前者需要大量的人力,且對于今后可能出現(xiàn)的超越人類思維能力的AI來說,這一方法可能不會奏效。后者的問題之一是誰來編寫這些規(guī)則,應(yīng)該由專業(yè)人士操刀還是應(yīng)該鼓勵大眾參與。
AI監(jiān)管領(lǐng)域遇到的另一個難題是技術(shù)發(fā)展快,去年的AI監(jiān)管方案可能今年就過時了。比如,歐盟前幾年在討論AI監(jiān)管時,還沒有遇到生成式AI爆炸式發(fā)展。因此,今年歐盟在通過“AI法”之前,不得不對其進(jìn)行大幅修改。
回到年初科學(xué)家們發(fā)出的那封公開信,其實(shí)他們很明白,從可行性角度來看,在世界范圍內(nèi)協(xié)調(diào)所有政府、企業(yè)叫停AI開發(fā)是一件幾乎不可能的事。羅素自己也說,這封公開信的意圖是引發(fā)世界各地媒體和政府的關(guān)注。在過去一年內(nèi),首屆全球AI安全峰會召開,首部“AI法”誕生,注意力和資源都開始涌入這一領(lǐng)域,羅素等人的意圖無疑是實(shí)現(xiàn)了。
新京報記者 陳奕凱






