【ITBEAR科技資訊】5月27日消息,近日,知名人工智能公司OpenAI遭遇了一系列安全團(tuán)隊(duì)成員的離職潮,其中備受關(guān)注的是AI策略研究員Gretchen Krueger,被業(yè)界親切地稱為“格姐”。自2019年加入OpenAI以來(lái),格姐不僅深度參與了GPT-4和DALL·E 2等重大項(xiàng)目的開發(fā),還在2020年領(lǐng)導(dǎo)了公司首次全范圍“紅隊(duì)”測(cè)試。然而,她現(xiàn)在卻選擇離開,并對(duì)外發(fā)出了安全警示。
在社交媒體上,格姐坦言她對(duì)OpenAI的決策流程、問(wèn)責(zé)制度、透明度、文檔管理和策略執(zhí)行表示擔(dān)憂,她認(rèn)為這些方面亟需改進(jìn)。同時(shí),她也強(qiáng)調(diào)了在技術(shù)推進(jìn)的同時(shí),必須關(guān)注并減輕其對(duì)社會(huì)不平等、權(quán)利及環(huán)境產(chǎn)生的潛在影響。格姐還尖銳地指出,科技企業(yè)有時(shí)會(huì)采取分裂策略,以削弱那些試圖追責(zé)的聲音,她對(duì)此表示高度警覺(jué)并希望能防止此類情況的發(fā)生。
據(jù)ITBEAR科技資訊了解,格姐的離去并非孤例,此前OpenAI的首席科學(xué)家Ilya Sutskever和超級(jí)對(duì)齊團(tuán)隊(duì)負(fù)責(zé)人Jan Leike也已相繼離職,這一系列人事變動(dòng)無(wú)疑加劇了外界對(duì)OpenAI安全決策層面的質(zhì)疑。
OpenAI內(nèi)部設(shè)有多個(gè)安全團(tuán)隊(duì),包括專注于未來(lái)超級(jí)智能控制的超級(jí)對(duì)齊團(tuán)隊(duì)、致力于減少現(xiàn)有模型濫用的Safety Systems團(tuán)隊(duì),以及負(fù)責(zé)識(shí)別前沿模型新風(fēng)險(xiǎn)的Preparedness團(tuán)隊(duì)。盡管如此,安全風(fēng)險(xiǎn)評(píng)估的最終決策權(quán)依然集中在公司高層。OpenAI的董事會(huì)具有推翻任何決策的權(quán)力,其成員由來(lái)自各行各業(yè)的專家和高管組成。
格姐的離職及其所發(fā)表的公開言論,加之OpenAI安全團(tuán)隊(duì)的其他人員變動(dòng),已經(jīng)引發(fā)了整個(gè)社區(qū)對(duì)AI安全性和公司治理結(jié)構(gòu)的廣泛關(guān)注。這些問(wèn)題不僅關(guān)乎OpenAI自身,更對(duì)整個(gè)社會(huì)和未來(lái)的發(fā)展規(guī)劃產(chǎn)生深遠(yuǎn)影響。