【ITBEAR科技資訊】5月2日消息,據彭博社報道,韓國三星公司已經內部通知員工停止使用生成式AI工具ChatGPT和Bard等,理由是擔心這些工具會帶來安全隱患。
據悉,三星此舉是在上個月發生代碼泄露事件后采取的“亡羊補牢”措施。據一些消息人士透露,在引入ChatGPT僅僅20天后,三星就發生了3起涉及該工具的事件,其中有兩起涉及到半導體設備,還有一起涉及到會議內容。
內部備忘錄顯示,三星擔心使用這些生成式AI工具會導致數據傳輸到外部服務器上,存儲在那里的數據很難被檢索和刪除,最終可能會泄露給其他用戶。因此,三星上個月進行了一項關于內部使用AI工具的調查,其中65%的受訪者認為這類服務存在安全風險。
據ITBEAR科技資訊了解,三星正在開發自己的內部AI工具,用于翻譯和總結文件以及軟件開發,同時還在研究阻止敏感公司信息上傳到外部服務的方法。該公司正在審查安全措施,以創造一個安全的環境,以安全地使用生成式AI來提高員工的生產力和效率。但在準備好這些措施之前,三星暫時限制了生成式AI的使用。
據報道,三星的新政策禁止在公司自有的電腦、平板電腦和手機以及內部網絡上使用生成式AI系統,不過這不會影響銷售給消費者的設備,例如Android智能手機和Windows筆記本電腦。值得一提的是,三星在消費者設備中積極推廣生成式AI,最近向旗下所有的手機以及平板電腦產品推送了微軟Bing AI更新,在這一更新完成后,三星用戶可直接通過手機或者平板使用微軟Bing AI。
三星代表向彭博社證實了這份內部備忘錄,并表示“我們要求您認真遵守我們的安全指南,否則可能會導致公司信息泄露,違者進行紀律處分,甚至包括解雇。”三星正在努力加強其安全措施,以保護公司和員工的信息安全。






