當(dāng)?shù)貢r間周一(5月22日),聊天機器人(15.640, 0.04, 0.26%)開發(fā)公司AI target=_blank class=infotextkey>OpenAI的三位創(chuàng)始人CEO山姆·奧特曼、總裁Greg Brockman和首席科學(xué)家Ilya Sutskever在公司博客聯(lián)合撰文,發(fā)表了他們對治理超級智能的看法。
文章指出,在未來10年,人工智能(AI)系統(tǒng)將在大多數(shù)領(lǐng)域超越人類專家的技能水平,在開展生產(chǎn)活動方面能夠比肩巨頭公司。超級智能既有巨大的好處,也有巨大的風(fēng)險,它可以創(chuàng)造一個更加繁榮的未來,但也存在需要加以管理的風(fēng)險。
奧特曼等在文章中將超級智能比作核能和合成生物學(xué),由于它們的潛在風(fēng)險,需要特殊的處理和協(xié)調(diào)。他們提出了引導(dǎo)超級智能發(fā)展的三個關(guān)鍵要點。
首先,領(lǐng)先的AI開發(fā)工作需要協(xié)調(diào),以確保安全并順利融入社會。各國政府可以建立相關(guān)項目,或者就AI能力增長的限制達成一致。
其次,達到一定水平的AI項目應(yīng)該受到國際權(quán)威的約束,類似于國際原子能機構(gòu)(IAEA)對核能的監(jiān)管,該機構(gòu)負責(zé)檢查系統(tǒng),執(zhí)行安全標(biāo)準(zhǔn),并對部署和安全性進行限制。
最后,有必要進行針對超級智能的安全性進行研究,而這正是OpenAI和其他公司正在進行的研究領(lǐng)域。
文章強調(diào),監(jiān)管不能扼殺低于一定門檻的AI模型的發(fā)展,公司和開源項目應(yīng)該有開發(fā)這種模型的自由,而不需要繁瑣的監(jiān)管。
三位創(chuàng)始人在文章最后解釋了OpenAI開發(fā)超級智能的原因,他們相信它會帶來一個更美好的世界,能解決問題,改善社會。另一方面,阻止超級智能的發(fā)展是危險且困難的,其潛在好處太大了,建造成本每年都在下降,參與者正在迅速增加。因此,謹(jǐn)慎對待超級智能的發(fā)展至關(guān)重要。






