【ITBEAR科技資訊】7月26日消息,近期微軟的大規(guī)模藍(lán)屏事件在全球范圍內(nèi)引起了廣泛關(guān)注,這一事件不僅揭示了軟件BUG可能引發(fā)的巨大風(fēng)險,同時也讓人們開始思考,在AI時代,類似的問題可能會帶來更為嚴(yán)重的后果。
在此背景下,中國人工智能產(chǎn)業(yè)發(fā)展聯(lián)盟(簡稱“AIIA”)安全治理委員會的成果發(fā)布會備受矚目。AIIA秘書長、中國信通院院長余曉暉在會上強調(diào),當(dāng)前人工智能安全治理亟需行業(yè)各方的共同努力。他提出,應(yīng)完善人工智能安全風(fēng)險識別的方法論,構(gòu)建更為敏捷、精確的安全風(fēng)險識別機制,從而能夠及早、準(zhǔn)確地發(fā)現(xiàn)潛在風(fēng)險。此外,加強人工智能安全評測技術(shù)工具的研究也至關(guān)重要,旨在通過技術(shù)手段來有效治理技術(shù)本身所帶來的問題。
據(jù)ITBEAR科技資訊了解,AIIA安全治理委員會已經(jīng)圍繞人工智能的治理框架、風(fēng)險管理、內(nèi)生安全及安全應(yīng)用等方面展開了深入的理論和技術(shù)研究工作。為了應(yīng)對AI帶來的安全挑戰(zhàn),該委員會推出了一系列舉措。
在發(fā)布會上,人工智能安全守護計劃正式啟動。該計劃旨在打造AI Guard品牌,通過建立AI系統(tǒng)情報共享機制和AIGC真實性和可信賴來源互認(rèn)機制,提升國內(nèi)AI技術(shù)服務(wù)提供方和使用方的安全防護能力。同時,推動設(shè)立與人工智能相關(guān)的保險產(chǎn)品,為行業(yè)提供更多保障。
中國信通院人工智能所的黑一鳴博士還發(fā)布了自研的大模型安全加固解決方案。該方案通過模型微調(diào)、外掛安全知識庫等方式對開源大模型進行安全防護加固,旨在保持模型原有通用能力和推理效率的同時,增強其抵御多種誘導(dǎo)攻擊的能力。
人工智能具有高度的技術(shù)交叉性和產(chǎn)業(yè)融合性。中國法學(xué)會法治研究所研究員劉金瑞指出,法學(xué)專家在了解技術(shù)特征的基礎(chǔ)上,才能設(shè)計出有效的規(guī)范方案。隨著人工智能的不斷發(fā)展,國家層面已經(jīng)開始通過小切口的方式進行立法,涉及深度合成、算法、AIGC等領(lǐng)域,并出臺了如科技倫理審查辦法等相關(guān)法規(guī)。
總體來看,人工智能的安全治理需要技術(shù)、法律和行業(yè)各方的共同努力。通過不斷完善風(fēng)險識別機制、加強技術(shù)研究和立法保障,我們可以更好地應(yīng)對AI時代的安全挑戰(zhàn)。






