亚洲视频二区_亚洲欧洲日本天天堂在线观看_日韩一区二区在线观看_中文字幕不卡一区

公告:魔扣目錄網為廣大站長提供免費收錄網站服務,提交前請做好本站友鏈:【 網站目錄:http://www.430618.com 】, 免友鏈快審服務(50元/站),

點擊這里在線咨詢客服
新站提交
  • 網站:51998
  • 待審:31
  • 小程序:12
  • 文章:1030137
  • 會員:747

“人工智能(AI)的風險是真實存在的,但是可控的。”7月11日,美國微軟公司聯合創始人比爾·蓋茨在網上發文,對發展AI表現出樂觀態度。不過,包括已故的英國著名物理學家霍金等在內的不少科學家認為,AI的發展可能會以不同形式導致人類的滅絕。重大科學技術通常都是雙刃劍,在帶來紅利的同時也隱藏著風險,此前科技革命帶來的很多擔憂隨著時間一一被化解,那么,AI的發展是否也會遵循這般路徑?面對誘人的利益和潛在的威脅,我們應該繼續前行還是為AI發展按下“暫停鍵”?如果選擇前者,我們又該如何規避風險?

資料圖(IC photo)

取代人類成為地球上的主要生命形式?

1983年9月26日凌晨,在莫斯科郊外一座核導彈預警中心里,蘇聯中校彼得羅夫剛剛坐下,警報聲突然大作,雷達系統顯示多枚核導彈正同時從美國向蘇聯襲來。1983年正是冷戰最緊張的時期,當時蘇聯堅定地認為美國準備對其進行核攻擊。作為應對,莫斯科匆忙投入使用了一套導彈預警系統,該系統可以篩選衛星數據,以此判斷美國是否有發射導彈的跡象或者已經發射導彈,而彼得羅夫的工作就是守著裝有這套系統的電腦,以及時發現異常情況。

彼得羅夫后來回憶說,當時感覺身下的椅子就像熱鍋。他必須快速作出決定——在美國發射導彈后,蘇聯只有非常短的時間決定是否反擊。在高壓之下,彼得羅夫發現預警系統顯示所有導彈都來自一個美軍基地,這不符合打擊常理,如果美國真要對蘇聯進行核打擊,應該會從不同基地發射導彈,以擴大打擊面。他據此判斷是系統故障,并通知上級這是“虛驚一場”,而事后的調查顯示,蘇聯衛星誤把云層反射的陽光當作洲際彈道導彈發動機噴射的痕跡。

因為彼得羅夫的沉著冷靜,蘇美核戰甚至是第三次世界大戰得以避免,而現在很多人認為AI可能引發核戰并導致人類滅亡的一大原因,就是AI系統會和上述蘇聯預警系統一樣犯錯。隨著AI的發展,它將被廣泛應用于軍事決策系統,而AI系統的錯誤可能導致決策失誤,從而給人類帶來滅頂之災。

核戰爭不是AI可能給人類帶來深重災難或者導致人類滅絕的唯一方式。美國加州大學伯克利分校計算機科學教授羅素在他所著的《人類相容:AI與控制問題》一書中表示,AI給人類帶來的滅絕風險來自于AI不斷變強的能力以及人類的疏忽。如果人類給機器人設置了錯誤的目標,它們可能在無意中把人類消滅。羅素舉例稱,如果人類要求AI系統尋找解決氣候變暖的方法,而該系統如果認為消滅人類是最好的辦法并將此付諸實踐,那人類可能因此遭遇劫難。

很多人認為,隨著AI的發展,機器人在擁有自我意識后會起來反抗人類,從而與人類爆發戰爭,導致人類滅亡。在剛剛舉行的“人工智能造福人類全球峰會”期間,召開了首場有機器人與人類共同參與的新聞發布會。會上,名為“索菲亞”的機器人直言,它相信機器人可以成為比人類更好的領導者。值得注意的是,現場許多機器人最近配備了最新版本的生成式人工智能系統,它們對記者提問的回答讓其制造者都感到震驚。

加州大學宇宙學家阿吉雷表示,隨著技術的發展,AI可能奪取人類的決策權,“到了某個時候,人們會發現運行社會和經濟的大型機器其實并不在人類的控制之下,也無法將它們關掉”。瑞典哲學家博斯特羅姆著有《超級智能》一書。他認為,當機器知道如何制造其他機器時,就會出現“智能大爆炸”。如果機器大腦在一般智能方面超越人類大腦,這種新的超級智能可能會取代人類成為地球上的主要生命形式。

到2030年,7億人可能因機器人失業

美國政治風險咨詢公司歐亞集團總裁布雷默表示,AI帶來的負面影響包括制造虛假信息、大量失業、人與人之間的關系將被人與AI之間的關系取代等。

布雷默的部分結論已經得到印證。今年3月,一張由AI合成的“特朗普被捕”照片在網絡上瘋傳。同樣在3月,一段“烏克蘭總統澤連斯基呼吁烏克蘭士兵放下武器”的合成視頻在網上瘋傳。4月,在美國總統拜登宣布將競選連任后,一段批評他的視頻虛構了他連任后華爾街陷入恐慌、移民涌過邊界等“黑暗場景”。很多看了該視頻的人表示,不能辨別其真偽。

替代風險是很多專家對AI的擔憂之一。隨著AI的發展,大量人群可能失業。國際咨詢公司麥肯錫的研究顯示,到2030年,機器人可能在工作中會取代7億人。彭博社稱,經合組織(OECD)日前在7個成員國的5000多名員工和雇主中展開的調查顯示,3/5的勞動者擔心AI的高速發展會使自己在未來10年徹底失業,3/4則表示AI提高了工作強度。OECD認為,世界經濟當前對AI的使用仍處于“非常早期的階段”,但AI“破壞”各行各業就業的可能性依然很高。

帶來威脅,但也能在多領域造福人類

除了上述風險之外,國際非營利組織“人工智能安全中心”認為,AI被用來制造生化武器、先進技術越來越集中在少數人手中、人類過度依賴AI以至于失去獨立生存能力等,都是這項新技術可能帶來的災難性后果。不過,AI作為最新科技革命的代表性技術,也將在多個領域取得突破,從而造福人類。

曾擔任美國智庫布魯金斯學會主席的約翰·艾倫等研究人員表示,AI為經濟發展帶來巨大機會。他們發文稱,據普華永道估計,到2030年,AI技術將使全球國內生產總值(GDP)增加15.7萬億美元。其中,AI將使中國的GDP增加7萬億美元、北美增加3.7萬億美元、北歐增加1.8萬億美元。

AI也將極大提高一國的國防能力。與AI相關的大數據分析將深刻影響情報分析,因為大量數據被近乎實時地篩選,從而為指揮官提供前所未有的情報分析水平。此外,AI還能預測犯罪,改善社會治安。美國芝加哥市利用AI技術,根據年齡、犯罪活動、受害情況、幫派關系等項目,給40萬人打分,并據此制定了一份“戰略對象名單”,以評估被逮捕的人是否有成為犯罪分子的風險。有研究發現,相關AI技術有助于預防和減少犯罪。

AI正在幫助病人獲得更好的醫療服務。一個典型例子就是德國的Merantix公司。該公司將機器深度學習應用于醫療領域,開發了一個軟件,通過研究計算機斷層掃描(CT)圖像來檢測人體淋巴結。該軟件能夠區分正常淋巴結和病變淋巴結,從而判斷病人患淋巴癌的風險。該軟件的開發人員稱,關鍵在于識別可能有問題的淋巴結并進行標記。醫生也可以做到這一點,但放射科醫生每小時收費100美元,且每小時只能仔細查看4張圖像。如果有1萬張圖像,看完這些圖像的成本將是25萬美元。如果由人類完成這項工作,成本會很高。另據BBC報道,谷歌AI研究員、硅谷奇點大學聯合創始人庫茲韋爾預測,到2030年,納米機器人(非常小的機器人)將能在人體內工作,修復所有人體損傷并治愈一切疾病,幫助人類實現永生。

AI還能被用來改善城市服務。美國俄亥俄州辛辛那提市消防部門正在使用AI數據分析來優化應急響應, 通過考慮呼叫類型、位置、天氣等因素,向調度員推薦對醫療緊急呼叫的適當響應。

“人類社會從來沒有阻止過科技進步”

AI發展帶來的正面以及負面影響都非常廣泛,那么它到底是利大于弊,還是弊大于利呢?伏羲智庫創始人、清華大學互聯網治理研究中心主任李曉東認為,AI發展整體利大于弊,雖然存在AI終結人類的可能性,但這就像核問題一樣,取決于其發展走向和人類的選擇。李曉東認為,現階段不必夸大AI的風險,社會在使用AI技術的過程中會通過協作和理性規避來化解這些風險,科幻大片中原子彈毀滅地球的場景也并未真正出現過。

中國現代國際關系研究院美國研究所所長助理李崢則認為,目前AI技術發展已經往前進了一步,但整個社會對其利弊的認知及監管卻沒有跟上。AI是不可阻擋的、革命性的技術,鼓勵并不能加速其發展,限制也無法阻擋其發展。在此過程中,社會應該扮演的角色是為適應AI沖擊做好準備并且進行監督,而不是鼓勵無序的技術研發。整個社會應當對AI的未來發展有正確預期和理解,保證其與社會發展相適應,避免技術因過度使用而“轉利為弊”。

浙江大學國際聯合商學院數字經濟與金融創新研究中心聯席主任盤和林說,人類社會從來沒有阻止過科技進步,所以應對潛在風險的方法不是阻止科技進步,而是以技術來對抗技術風險。AI的發展是必然趨勢,總體上AI對于人類社會利大于弊,部分風險也有應對方法,比如AI生成虛假信息問題,只要進行AI生成信息標注,并通過AI對AI生成但未標注信息進行識別和處罰,就能解決這個問題;對于AI替代人工的問題,AI其實降低了很多職業的就職門檻,未來人類將減少套路性的內容創作,更多聚焦于創造性內容創作,需要改變的不是AI,而是我們的教育。至于AI終結人類則是太過遙遠的事情,是對AI功能和作用的夸大。

必須盡快就監管達成共識

現在各國對AI的討論除了其利弊之外,還集中在AI的倫理和監管問題上。什么是AI倫理?據美國《福布斯》雜志報道,通常來講,它是指如何讓AI更負責任,其范疇包括避免AI偏見、隱私問題、避免AI犯錯等。

AI倫理為何重要?使用AI技術的經驗表明,讓AI技術符合倫理不僅是負責任的行為,也是獲得良好商業價值的必要條件。李崢認為,合乎倫理的AI至少要兼顧三個方面:一是做到人類可控,不能放任其自我演化;二是AI的應用和賦能方向應該“向善”;三是AI要與人類社會相適應,不能超脫人類社會發展而走得太快。李曉東表示,關于人類的倫理問題,不同國家和民族都仍然存在分歧,因此合乎倫理的AI首先要尊重世界的多樣性,包容不同的政治體制、文化習慣和經濟狀況。

7月6日,在“人工智能造福人類全球峰會”上,聯合國秘書長古特雷斯強調,現在必須盡快就如何監管AI的開發與部署達成共識。李崢表示,建立全球共同的監管和發展機制是有必要的,尤其是那些具有危險傾向的研發和應用方向必須由全世界統一監管,否則就會出現部分國家擅自研發危險技術,對別國構成威脅的情況,造成人工智能的“軍備競賽”。從現實來看,AI監管不可能拓展至所有領域,全球聯合監管主要是針對那些特定技術和應用。不過,李崢指出,建立全球監管機制面臨諸多挑戰,包括中美歐對關鍵問題的認識存在政治性差異。李曉東認為,目前全球已經建立了很多共同治理的機制和平臺,所以要利用好現有機制來應對AI發展,不到萬不得已沒必要重新打破規則,例如涉及AI在軍事領域的應用,就應放到聯合國的軍控體系內去探討。

結語: 讀者朋友,截至今天,我們用3期“深度認知”版為您講述了人工智能(AI)的起源和現狀、AI對地緣政治的影響,以及其發展將給人類社會帶來的紅利和威脅。技術創新是人類文明進步的動力,而每一次科技革命的進行都伴隨著興奮與懷疑。通過了解AI發展的“前世今生”,我們知其“然”,也知其“所以然”,并能預測這一技術未來的發展趨勢。只有深度認知,在面對不斷變幻的“AI風云”時,我們才能心中有數,笑看風云。

【來源:環球時報】

分享到:
標簽:人類 美國 人工智能 發展 蘇聯 風險 技術 彼得
用戶無頭像

網友整理

注冊時間:

網站:5 個   小程序:0 個  文章:12 篇

  • 51998

    網站

  • 12

    小程序

  • 1030137

    文章

  • 747

    會員

趕快注冊賬號,推廣您的網站吧!
最新入駐小程序

數獨大挑戰2018-06-03

數獨一種數學游戲,玩家需要根據9

答題星2018-06-03

您可以通過答題星輕松地創建試卷

全階人生考試2018-06-03

各種考試題,題庫,初中,高中,大學四六

運動步數有氧達人2018-06-03

記錄運動步數,積累氧氣值。還可偷

每日養生app2018-06-03

每日養生,天天健康

體育訓練成績評定2018-06-03

通用課目體育訓練成績評定