【ITBEAR科技資訊】6月5日消息,近日,一封由OpenAI和谷歌DeepMind的前員工及現(xiàn)員工聯(lián)署的公開信在科技界引起了廣泛關(guān)注。這封公開信主要表達(dá)了對當(dāng)前人工智能公司監(jiān)管不足的擔(dān)憂,并警告了先進(jìn)人工智能技術(shù)的潛在風(fēng)險。此舉再次將人工智能的安全性和監(jiān)管問題推至風(fēng)口浪尖。
據(jù)ITBEAR科技資訊了解,此次聯(lián)名發(fā)表公開信的共有13人,其中包括5名OpenAI前員工,6名選擇匿名的OpenAI現(xiàn)員工,以及1名谷歌DeepMind的現(xiàn)員工和前員工。這些員工在信中明確表示,雖然人工智能技術(shù)為人類帶來了前所未有的福祉潛力,但同時也伴隨著嚴(yán)峻的風(fēng)險。這些風(fēng)險包括加劇社會不平等、助長操控和虛假信息傳播,甚至可能導(dǎo)致自主人工智能系統(tǒng)失控,進(jìn)而引發(fā)人類滅絕的危機。

公開信中強調(diào),盡管人工智能公司、全球監(jiān)管機構(gòu)和專家都已意識到這些風(fēng)險,但掌握大量關(guān)鍵信息的公司卻僅有微弱的義務(wù)與政府部門分享部分信息,而無需向社會公眾披露。這使得公眾對人工智能技術(shù)的了解和監(jiān)督受到了嚴(yán)重限制。
為了化解這些風(fēng)險,公開信中的員工們呼吁在科學(xué)界、決策者和公眾的充分指導(dǎo)和監(jiān)督下進(jìn)行操作。然而,他們也指出,人工智能公司往往出于強大的經(jīng)濟(jì)利益動機而避免接受有效監(jiān)管,同時,公司內(nèi)部的治理結(jié)構(gòu)也不足以改變這一現(xiàn)狀。

在缺乏有效政府機構(gòu)監(jiān)管的情況下,這些員工認(rèn)為自己成為了少數(shù)對公眾負(fù)責(zé)的人。然而,廣泛的保密協(xié)議卻限制了他們?yōu)楣姲l(fā)聲的權(quán)利。為此,他們在公開信中提出了四項措施,以保護(hù)那些為人工智能風(fēng)險發(fā)聲的員工。這些措施包括禁止簽訂或執(zhí)行任何阻止員工對風(fēng)險相關(guān)問題進(jìn)行批評的協(xié)議、推動可驗證的匿名舉報流程、支持公開批評的文化,以及在必要情況下不對公開風(fēng)險相關(guān)機密信息的員工進(jìn)行報復(fù)。
這封公開信的發(fā)表無疑為人工智能行業(yè)的監(jiān)管問題敲響了警鐘。隨著技術(shù)的不斷發(fā)展,如何確保人工智能的安全性和可控性已成為亟待解決的問題。希望此次事件能引發(fā)更多關(guān)于人工智能監(jiān)管的討論和行動,共同推動行業(yè)的健康發(fā)展。






