7月9日,2021世界人工智能大會騰訊論壇在上海世博中心成功舉辦。在「綻放“視界”想象力」之后,今年,我們和大家一起迎接“光”。會上,我們正式宣布,與國家天文臺聯合發布探星計劃,用AI尋找被譽為宇宙中的燈塔的脈沖星,更好地促進中國天體物理領域的深入研究。
追求“科技向善”,就要推動“AI向善”,讓AI技術實現“可知、可控、可用、可靠”。
今年,騰訊將“可持續社會價值創新”寫入了發展戰略,希望能和大家一起凝聚成光,一步一個腳印地實現“科技向善”。在以“AI與可持續發展的未來”為主題的圓桌會議上,來自多個領域的大咖們共同探討AI與社會可持續發展,AI如何助力可持續社會價值創新?如何讓AI更人文、溫暖一點?擔憂與期望并行,AI如何保證安全和公平等問題?
讓我們在本次圓桌論壇中尋找答案
圓桌論壇現場
圓桌論壇主題
AI與可持續發展的未來
主持人
李剛 騰訊研究院副院長
對話嘉賓
蘇文穎 聯合國兒童基金會駐華辦 兒童保護官員
朱勁松 騰訊安全管理部總經理
陳楸帆 全球華語科幻獎獲得者、科幻作家
黃飛躍 騰訊優圖實驗室副總經理
01 AI應如何助力可持續社會價值創新?
蘇文穎:“AI最重要的起點,即是來源于現實社會中最真實的需求”
蘇文穎 聯合國兒童基金會駐華辦 兒童保護官員
最近這幾年來,技術企業和公益行業都在探索如何讓技術更好的賦能于一些社會問題的解決。比如說在我之前參與評委的騰訊Light·公益創新挑戰賽上,我對在未成年人賽道上獲得一等獎的,一個專門致力于做青少年心理健康服務的平臺印象深刻。因為大家知道,現在青少年的心理問題比如抑郁、焦慮等非常的多發,他們迫切需要讓他們有安全感、歸屬感的平臺傾訴和交流一些心理問題。而這個青少年心理健康服務平臺就提供了這樣一種服務,而AI語音和AI聊天的技術搭載在這類心理健康服務平臺上,在服務體驗和效果上也值得期待今后更多的可能性。
在我熟悉的未成年人領域,一些實踐從技術和產品出發,解決一些底層的需求,比如說未成年人上網安全的需求。騰訊優圖也有一個「守護青苗」的行動,基于圖象識別和OCR等技術,來過濾網上的一些不良內容或是不適合未成年人、對他們的身心健康有負面影響的內容。還有技術企業聚焦兒童健康,比如說用AI進行一些關于兒童身體形態和體能的評測,致力于推動教育公平的一些AI賦能教育實踐也很多,雖然在很多領域,大量技術應用還仍在嘗試和摸索階段,但也積累了很多寶貴的經驗和試錯。
其實不僅僅是在未成年人領域,在日益老齡化的社會,AI技術能夠助力服務于老年人群體,特別是在他們的生活支持、健康管理、心理慰籍方面。不過,當前很多AI的應用對于未成年人和老年人群體而言,總體來說還是比較注重安全和健康這類底層需求。很多技術應用的預設邏輯可能還是或多或少矮化了未成年人和老年人,往往采取了居高臨下的扶助和管理思維,缺乏對他們真實處境和需求的理解,可能忽視了他們的尊嚴感和價值感,這需要今后更多吸納這些群體的視角,進一步完善和豐富技術應用場景和體驗,讓AI更好地起到陪伴和賦能的作用。
歸根到底,AI服務于這些社會問題的解決,它必須有一個最重要的起點,就是它是植根于真實的需求,而解決方案既符合AI技術自身的邏輯,也有現實應用可實現的路徑,同時還要符合現階段的法律和社會倫理。
02 AI技術如何和人文思想相結合?
陳楸帆:“AI是為每個人而生的,而不是為了某些特定的群體去設計出來”
陳楸帆 全球華語科幻獎獲得者、科幻作家
最近可以看到包括國內外的一些相關的法律法規都在出臺對于個人的一些數據隱私的保護,包括對一些不當應用個人數據行為的一些打擊。其實賽博朋克這樣一個類型是在上個世紀80年代在美國開始興起,有非常強的一個時代背景,一個是消費類電子的興起,一個是所謂的跨國的大工業、大公司的崛起。大家會重新提到賽博朋克這樣一種美學和生活方式,我覺得是有一定歷史的回音在。而且在當下,我們會發現這樣一個命題更加的貼近我們現實。因為賽博朋克由“控制論+組織”,組合成的這樣一個東西,就是人在一個高度信息化的控制論的社會里,它會不斷的受到數據流反向的操控,你會發現自己無意之間會變成這個系統的一部分。人的自主性、人的主觀能動性、自由意志被削減。蘇老師提到的價值感、尊嚴感。去年開始提到困在系統里的人,會發現很多的外賣小哥受到算法的驅使,不斷得更快的趕路,完成訂單,賺到微不足道的收入。
歸根到底,我們當以什么樣的標準,以一種什么樣的權量的參照系創造出這樣一種算法。今年我跟李開復博士有一本書《AI 2041》,講的是10個在20年后跟AI相關的故事,醫療、教育、娛樂也包括老年人等等這樣一些問題,我們花很長的時間,跟AI從業者、學者、研究者做交流,希望從最堅實的基礎展望未來。在這個過程當中,我發現現在的弱勢群體在未來的AI主導的社會里,變得更加的弱勢。因為我們現有的AI是基于現有收集的數據,經過機器的強化學習得到的解決方案,所謂的弱勢群體,比如說在疫情中沒有用智能手機的這樣一群人,包括沒有接入網絡的一群人,他可能出行遇到很大的困難。其實在我們的書里探討了非常多這樣的議題,在未來怎么建立更加平衡、友好,用善意對待每個人這樣一個AI技術。因為AI是為每個人而生的,而不是為了某些特定的群體去設計出來。
我們需要傳遞“AI可持續發展”這樣一個非常重要的觀念,不僅是對政策的制訂者,對于大公司,對于技術的從業者,更重要的對每個個體應該理解說,我有什么樣的權利。這種可持續發展在社會層面,在經濟的層面,包括在環境、在個體的心理層面,比如說剛剛講到的咱們青少年的心理問題、老人的陪伴問題,比如說個體在非常高度競爭的環境下,我們怎么樣去給他一定的空間實現自我價值?我們通過文字做了非常多的設想,需要跟更多的業界從業者一起探討,把一個想象通過講故事的方式,建立起一個更大的共識,這樣的共識形成之后,我們才能凝聚起這樣的力量,讓每個人都能看到AI所能帶來的這種未來的光。
03 人們對AI有期待也有擔憂 作為騰訊旗下頂級人工智能實驗室,優圖實驗室做了哪些努力?
黃飛躍:“人工智能能實現它的價值”
黃飛躍 騰訊優圖實驗室副總經理
刀可以做菜也可以傷人,這都取決于用這個物件的人本身。人工智能也是這樣一個邏輯,它是能力特別強大的工具、系統,但技術再強大,使用者才是核心。我們怎么樣更好地設計它,怎么運用它,這非常關鍵。絕大多數的時候,我們看到的人工智能一定是對于人類,對于社會有非常大的幫助。這幾年的人工智能的快速發展,我們有更多的時間、更多的去沉淀和思考人工智能如何發揮的更好。以前我們更多的是去想怎樣解決問題,現在就會考慮更多的社會價值,比如我們在談的人工智能可持續性發展。
早期的人工智能相對不成熟,比如說我打印一張照片,是不是可以仿冒這個人,能不能冒名。再比如人工智能對不同識別的個體,很難做到完全公平。也許我訓練的數據集對于老年人識別效果未必那么好,這都是社會可持續發展的問題,這是我們更多需要討論的,也有更多的考慮。
人工智能實際上會面臨很多的一系列的問題,這個也正好切合我們現在的一些關注的點或者我們現在做的事情。優圖從2012年成立以來,解決的問題是人工智能可以實現它的價值,我們從最開始圖像智能的壓縮,智能識別、圖像檢索、OCR、車輛識別,我們更多的是在實現它的應用功能。現在這些基礎能力上面,我們都已經健全且足夠完備,所以我們思考如何讓人工智能降本增效和高效應用。
個體的AI應用無法做到單獨針對性訓練、采集數據,部署成本非常高,而成本高了以后,導致人工智能的成本增加,這樣中小企業用起來是很難的。這個時候我們關注的是通過自動機器學習的算法、自適應,且通過平臺的自動訓練,更好的部署應用。即使在手機上端上運行,我們也要用自動的方法尋找出來一些更優的模型,能夠讓模型更小,跑的更快,這樣才能真正的高效、降本增效地用起來。
人工智能里我們關注幾個技術點:
一是怎么幫助人工智能應用的成本降低。人工智能其實它在長尾應用里數據是稀缺的,數據分散在不同場景里。其實就像我們今年跟國家天文臺的合作,我們收集的望遠鏡觀測的數據是殘缺的,這些數據可能是不同的望遠鏡收集出來的,它的表現形式是有區別的。怎么樣能夠把這些不同的數據、殘缺的數據用起來,所以我們會關注數據的監督,半監督的學習和訓練的方式,以及跨越遷移等等技術,把這些技術能夠真正的幫助人工智能應用的成本進一步的降低,在不同的場景里。這是我們關注的一個技術點。
二是讓人工智能做到更公平,更安全。公平像剛剛提到的針對老年人,或者理解為我們以前這個機器見到的數據比較少,見到樣本比較少,對它來說是比較難的一些事情。怎么樣能讓這些難的,老年人或者青少年識別也做的足夠準,這樣刷臉支付的時候可以非常方便的來用。這也是我們關注的問題,這是公平性的問題。
三就是人工智能要考慮的社會倫理和安全問題。像我們給健康碼和刷臉支付提供的人臉識別技術,我們要注意防范的安全問題就是有人拿著別人的照片、面具、頭模各種東西,希望攻破人臉識別系統。如果想真正的大批量應用,這些安全和公平都是我們關注的點。
這幾年技術趨勢上有一些變化,從原來的識別,現在往更多的像生成對抗網絡這樣一些深層的技術也有飛速的進步,把多模態的信息融合起來做一些綜合的視頻內容的理解。舉個例子,像我們在做青少年內容保護,互聯網上有很多不良的內容,包括色情、暴力、恐怖,如何更好的去鑒別這些內容,我們就會使用到多模態的技術,將CV,NLP,OCR等技術融合貫通來使用。
04 以AI技術為代表的新技術給安全帶來了哪些挑戰?
朱勁松:“安全問題不容忽視,但我們有信心解決,并相信AI會讓我們的生活更美好”
朱勁松 騰訊安全管理部總經理
在互聯網安全行業從業13年,我理解安全與技術的關系,首先,安全是一個基石,如果處理不好會導致整個技術發展的失序。其次,安全的問題不能以偏概全,我們要用發展的眼光解決它,而不是出現問題就踩腳剎車,扼殺創新,這是不可取的。
隨著人工智能的發展,它帶給我們整個生活或者學習,工作,帶來三類挑戰和風險。
第一,以人工智能為代表的新技術,它對我們傳統的倫理規則這一塊帶來很多的挑戰。例如現在大家經常看到的關于自動駕駛的技術。有一天自動駕駛的車輛遭遇了緊急的狀況,我們車里面有四個人,他判斷這里面有50%的可能性會有死亡的發生的風險。但是如果采取緊急避險,往旁邊的行人方向開過去撞死一個人,這里面的死亡率是100%,這時候自動駕駛的系統怎么選擇?我們把一個人的選擇權交給了一個人工智能,交給一個算法做決策的時候,這里帶來了很多的倫理上的問題。包括看到最近法律上的服務,我們讓人工智能來對證據做一些判斷和排除,對量刑給一些建議。我們知道法律有溫度,有很多可考量的角度,如果讓算法去對案子做分析和決策,這里面也有倫理的問題遇到挑戰。
第二,關于社會安全的角度。剛剛幾位老師也有提到,這里面衍生很多的網絡犯罪,網絡黑產的問題,還有利用人臉識別深度偽造技術,可以騙過很多驗證的策略,這都會帶來很多安全風險,對于用戶財產,包括整個社會網絡秩序都造成比較大的沖擊。
第三,關于用戶隱私方面的挑戰。大家最近幾年談的比較多,比如說關于信息繭房的問題。大數據會知道你很多的喜好,您喜歡瀏覽哪些新聞,你的觀點是什么樣的,它會推送同質的內容,似乎我們看到很多的信息,實際上處在很窄的信息繭房里面。包括大數據殺熟的問題,最近幾年大家逐漸關注到,并且察覺到科技的發展給我們帶來的困擾。但是,我覺得這些安全問題,是我們科技發展過程當中泛起的小漣漪,我們更要相信科技會給我們和我們的生活帶來更多美好的東西。
過去幾年參與了很多的項目,包括騰訊Light·公益創新挑戰賽,還有更早之前我們部門跟優圖一起合作了一個比較有意義的項目。中國西部地區有一個地方是被拐的兒童最多的省份,當地破獲了一個案子,做惡很多年拐賣人口的團伙被抓了。犯罪分子交待說,他們拐賣很多兒童,都把兒童賣到了中國東南某沿海地區的地方,但是賣給誰卻沒有記錄,那個時候沒有任何的電子的數據存儲的條件,他們也不記得買家是誰。只有這樣一個很模糊的信息,在過去這種案件就變成沒有辦法破的案件。我們跟優圖實驗室做了一個推演,說這里面用人工智能的能力幫助解決社會痛點,通過照片比對,把相似度最高的前十名的學生篩出來,最后通過警方比對出來十幾對被拐賣多年的兒童。這是我們利用技術能力去解決社會長期痛點,一個非常正面的例子。
安全問題是客觀的存在,但是我們應該有信心去解決這個問題。一是開展立法研究,建立適應智能化時代的法律法規體系。二是對行業要有一個完善的監管的規則體系。三是引導大的平臺,有技術能力的團隊去做一些積極的向善的事情。我們安全問題不能忽視,我們要做好自己對于整個網絡,安全免疫的能力,同時要有更多的信心,我們AI人工智能這樣一種技術會給我們的生活帶來更多更美好的東西。
05 Q&A
李剛 騰訊研究院副院長
科技是中性還是本身就有自己的價值觀?
朱勁松:我一直認為科技應該是有溫度的,應該是要有價值觀的。雖然從技術的角度看有中性的特點,但是背后用科技,包括算法其實是人在背后推動的,從整個實際應用層面,科技一定是有價值觀的。在科技使用的時候,如何規制這一塊,比如說作為政府的監管部門,它可以對這種科技的發展設立一些禁區和紅線,我們所有人在規則之下去做這樣一個科技的研發和應用的工作,就會更好的做一些引導。
黃飛躍:科技可以定義為發現一些規則或者是一些原理,這些可能是世界中客觀已經存在的。在客觀存在的規律中,我們發現了它,在這個基礎上,我們把這些技術,規則原理設計出來成為人類服務的系統,是向善的系統,把它用的更好。
陳楸帆:我順著黃總這個往下說,我比較贊同黃總的意思,科學是對客觀世界規律的一種探尋和發現,它是一個中性的存在。但是技術是對于這種規律的一個應用,它是根據人的需求來量體裁衣。但是對于某些人可以說是正面的科技對于另一些人來說不一定,就是我們從AI這件事上可以看到特別明顯的,因為是一個非常中性的篩選簡歷的AI,但是在使用過程中,您會發現它變得越來越具有某種傾向性,比如說性別上的,比如說種族上的,比如說背景上的傾向性,后面還是由于目標函數最大化的設置,讓它不斷的自我強化。
我們現在所謂的科學都是一個啟蒙于工業革命,一直一路到現在的產物,它對于人類來說有正向的,比如說出生率、存活率,人的平均壽命,包括人的物質生活的水平,它其實提升的。但你從另一個角度,從整體的生物圈,生態多樣性,氣候變化,有可能是一個負面的科技。因為我們從去年可以感受到,為什么野豬在成都街頭,高速公路狂奔,很多野生動物開始在城市里嬉戲,北京的霧霾沒有那么嚴重了,這是對于原來工業文明,人類主導的加速主義視角下的一個撥亂反正,在我看來,包括病毒同樣也是這樣一種存在。這樣的視角下,我們應該用更宏觀,更大,更多元的甚至是去人類中心化的視角討論科技這件事情。如果人類想讓自己的文明延續的更久遠一些,我們必須去深刻的考慮什么是可持續發展,是針對誰的可持續發展。
蘇文穎:我同意幾位老師分享的。我們都在提到對于青少年做科學素養的普及,這理念有一個開宗明義就是科學和技術,黃總也提到,科學是發現客觀規律,技術是怎么樣應用這些客觀規律。技術,人是在應用,肯定還是會有一個尺度或者價值觀在后面的。科技向善這個術語,我覺得最關鍵的,是在“向”字上,這是一個動態詞,是主觀能動性,是一個主動的選擇。我非常的贊同已經升級到可持續社會價值,因為“善”的尺度其實在不同的人,不同的群體,不同的歷史階段和社會發展階段會有一些不同的解讀。當然最核心的人之為人,最基本的價值,是非常可持續的。可持續社會價值的提法,一方面借鑒了聯合國2030年可持續發展目標的宏偉的體系,這個可持續發展目標,其實也是拆分成了很多具體的領域,每個里面是有很多的小目標和衡量的指標。社會價值更是從經濟、社會、文化各個維度設立一些標準衡量的。所以可持續社會價值這個提法是對科技向善的一個非常及時的升級,同時也是一個更加好衡量,和實現的東西。
回到這個問題上來,之前還跟陳楸帆老師談到我最近看的科幻小說印象非常深的,還是陳楸帆老師翻譯的劉宇昆的《拜占庭同情》。這本小說為什么印象深,因為它關注的就是我關注的公益慈善行業,設計了一個思想實驗,探討了虛擬現實技術,VR和區塊鏈技術如何可能會重構我們傳統的主流的公益慈善行業。當然像很多科幻小說的思想實驗一樣,并沒有一個確定的結論,只是促使我們思考,同樣的技術其實在兩種,二元對立的價值體系之下,其實能夠發展出完全不一樣的應用,甚至是在平常談論技術上比較少去思考的,怎么重塑慈善這樣一個行業。其實我覺得目前來說,我們更多的不是說科技是是否向善,而是在互聯網或者技術的下半場,我們應該去做什么,能夠解決什么問題,這些問題肯定是要植根于真實的社會需求的,這個可能也是可持續社會價值這樣一個事業要探索的。
站在個人的專業角度上看,未來五年您對于人工智能的發展有一個什么樣的展望?有什么樣的期待?展望和期待是兩回事,您覺得他能發展到什么樣的程度,如果沒有現實的限制,它期待它是什么樣子?
蘇文穎:談不上展望,因為不了解技術的很多細節包括它發展的速度,我也沒有能力做出預測。從我的角度來講,我非常希望AI技術能去解決一些之前人類科技進步史中尚未能夠更深入地觸及和幫助的群體,更關注一些現在并沒有納入到很多技術應用場景中的人群,比如說殘障群體,特別是更復雜的心智障礙群體。另外一方面,AI賦能其實遠遠不止我們平時常說的青少年群體或者是老年人群體。當下我們每一個人與數字科技及其應用的平臺和場景,其實都是一個陪伴、共同成長和彼此賦能的關系,這個人與技術互相影響的終極命題,我覺得也是值得從不同學科視角去探索和思考的。
陳楸帆:五年說長不長,說短不短,技術不是線速勻速發展的東西,它有自己的生命曲線,所以很難預測。對于我來說,有幾個趨勢,我希望在深度學習算法的底層的邏輯能有一些突破。因為我們不知道它為什么能有效的解決一些問題,這其實是最基礎的一個研究。在這基礎上,我們應該去把AI把大數據往小數據去遷移,因為我們知道人其實是小數據學習的一個認知的模式。只有這樣的基礎上,才能期待一個通用人工智能的到來。在這個基礎上,我覺得可能,希望五年之內AI能夠以一個更自然的NLP包括種種的多模態的交互的能力能變得更加的易用,更加貼近我們普通人交流的習慣。因為在疫情之后,你可以看到這樣的需求非常的大量,包括遠程在線學習,工作,甚至一些家居的娛樂都會加速往線上往虛擬化、數字化去發展。我覺得其實這是在五年之內比較可期待的一個發展的目標。
黃飛躍:過往的近十年,比如說人工智能發展的趨勢來說,人工智能后續的發展可能是有兩種方式,一種是在技術上有比較大的突破,就像之前的深度學習網絡快速,基礎研究層面巨大的突破,我們會把新的突破的技術應用在各個場景,各個領域,尋找更多機會點。第二種人工智能發展的路徑,某些行業,某些領域,某些產業,像下一代移動互聯網或者自動駕駛汽車或者是可能其他的一些行業里面,這些行業取得特別大的發展,這個時候人工智能在這個行業里能夠有進一步的發展。
實際上,我們很難預測未來五年到底AI在哪里取得特別大的突破。從我個人期待的角度來說,我希望人工智能能夠給人類帶來更多真正的便利,現在來講AI還是更多的偏向生活體驗,應用層面用的更多,那么未來是不是能夠給我們提供更多真實的指導和建議,譬如像氣候,醫學這些方面,能夠幫助人類能夠更好的應對自然變化和生理變化。
朱勁松:信息技術其實以加速的方式往前推進。從現在往后推五年是什么樣子,實際上用過去尺度衡量,可能是十年二十年,五年內會發生什么真的很難預料。現在整體來講,全球人工智能還處于弱人工智能的時代,五年之后如果當強人工智能到來的時候,它對整個世界的顛覆到什么樣的程度,我們都很難現在有明確的判斷。有一點是很明確的,我們這些人工智能的技術發展,現在更多的圍繞不同的社會痛點去解決一個社會問題,從這樣一點一點事情出發,慢慢往先演化、推進。
如果再看強人工智能到來以后,人類該怎么辦?我們要建這樣一些基本的準則,人工智能原則的時候,我覺得應該要放棄現在傳統社會治理里面因為地域,因為政治觀點,因為文化宗教沖突所帶來的局限性,我們應該放在一個全球化的視角。因為信息社會是沒有地域限制,整個世界是一體的,從人類未來的角度,我們應該規范人工智能應該遵從的原則,在這樣大的原則下,整個全球不同的國家推進這樣一個科技的發展,才會有更美好的未來。