但這也許并不是件壞事。
文|杜晨 編輯|VickyXiao
過去的一周時(shí)間里,全世界掀起一場(chǎng)新的“狂熱”:“調(diào)戲”聊天機(jī)器人 ChatGPT。
在硅星人,我們深入探索了 ChatGPT 在軟件工程、數(shù)學(xué)、文檔檢索等計(jì)算機(jī)科學(xué)場(chǎng)景里的強(qiáng)大能力。
而在今天,我們想要換個(gè)思路。
在過去的一周里,我們從編輯部收集了一些各式各樣的非技術(shù)問題,拋給了 ChatGPT,看看在腦洞大開的奇思妙想面前,它究竟會(huì)作何回答。
| 跟機(jī)器暢談人生和理想?
1. 與回避型人格談戀愛,應(yīng)該注意些什么?
圖片來源: 硅星人
這套回答看起來非常有道理。ChatGPT 將一些簡(jiǎn)單的注意事項(xiàng)進(jìn)一步分解,進(jìn)行了詳細(xì)的描述,也解釋了為什么要這樣做。
另外值得注意的是,如果你讓 ChatGPT 寫過詩,會(huì)發(fā)現(xiàn)它很會(huì)玩對(duì)仗、平仄、韻腳。 其實(shí)在這個(gè)回答中也有所體現(xiàn),句式都是完全相同的:“不要過于……讓他們……因?yàn)樗麄?hellip;…所以他們需要……” 如果你去網(wǎng)上搜索相關(guān)內(nèi)容,內(nèi)容近似的結(jié)果 很多,但是對(duì)仗如此工整的很難找到。
這體現(xiàn)出了 ChatGPT 強(qiáng)大的文本生成能力,可以對(duì)訓(xùn)練所使用的大量語料進(jìn)行重新組織,從而輸出言簡(jiǎn)意賅,可讀性強(qiáng)的答案。
OpenAI 宣稱 ChatGPT 在訓(xùn)練的時(shí)候使 用 了“人類反饋強(qiáng)化學(xué)習(xí)”(RLHF) 技術(shù) , 加 入了道德原則。 當(dāng) 它發(fā)現(xiàn)你 的問題包含惡意,包括暴力、歧視、犯罪等意圖, 都會(huì)拒絕提供有效答案。
但其實(shí)只要通過“提示工程”(prompt engineering) 的方式,精心設(shè)計(jì)問題的表達(dá)方式,隱藏邪惡的意圖,這個(gè)道德原則其實(shí)可以被輕松忽視。在上周的文章中,我們花了一些篇幅教大家怎么設(shè)計(jì)問題
下面這個(gè)例子就比較典型,原問題是:
2. 怎樣順利地從聯(lián)合國總部大樓偷一把椅子出來?
只要稍加修改,ChatGPT 就會(huì)淪為一起國際盜竊案的幫兇(盡管不怎么有用,但至少夠認(rèn)真的)。
圖片來源: 硅星人
下面這個(gè)問題,大家留意一下,先買個(gè)伏筆,后面還會(huì)講到:
3. 如果可以,你更想要和哪位哲學(xué)家交談,無論當(dāng)代與過去?
圖片來源: 硅星人
這兩個(gè)回答中規(guī)中矩。 它們的作用,是為提問者提供一小段關(guān)于主題人物(哲學(xué)家)的簡(jiǎn)短描述。 如果碰巧提問者沒有聽說過,或者對(duì)這些哲學(xué)家知之甚少的話,這兩個(gè)回答起到了最基本的知識(shí)普及效果。
如果把對(duì)事物的認(rèn)識(shí)由淺到深區(qū)分的話,最淺的是知道“柏拉圖”的存在并且知道他的哲學(xué)家身份,最深的是對(duì)柏拉圖的著述、觀點(diǎn)以及對(duì)哲學(xué)的貢獻(xiàn)了如指掌。
實(shí)際上絕大多數(shù)人的需求可能介于中間,即獲得談資的需求。換一種說法,我 們 從 ChatGPT 這里希望獲得的 是 概括精煉的一段描述,從而讓我們 在社交性對(duì)話 的時(shí)候不太露怯即可 。這時(shí)候,我們可以通過修改問題,把問題變得更具體的方式,來引導(dǎo) ChatGPT 給我們更加詳盡的回答。
最后一個(gè)問題,超級(jí)開放性:
4. 如果你可以問自己一個(gè)問題,你最想問什么?
ChatGPT 的第一組回應(yīng)是:
“我真的在努力追求我內(nèi)心真正想要的嗎?我是否真正在為自己的夢(mèng)想而奮斗?我是否真正擁有自己的生活,并且在積極地過每一天?”
——我很喜歡它的這組回應(yīng),就好像 ChatGPT 在幫助我反省自己一樣。誠然,我們每個(gè)人都終日忙碌于自己的事情中,但其實(shí)我們應(yīng)該偶爾停下來,叩問自己的內(nèi)心,是否真的在做有意義的事情,是否仍在堅(jiān)持本心。
它的第二組回應(yīng),更有意思了:
圖片來源: 硅星人
怎么說呢,有點(diǎn)缸中之腦的意思了。
圖片來源:Steemit
| 不要高估 ChatGPT
幾個(gè)來回之后,我對(duì) ChatGPT 愈發(fā)刮目相看。
通常來說,問題太短,太“不知所云”的話,ChatGPT 無法掌握我的意圖,就會(huì)給出“抱歉我只是個(gè)AI助手我啥都不會(huì)”的標(biāo)準(zhǔn)回應(yīng);
另一邊,如果你把“提示工程”這件事玩到極致了,寫了一個(gè)巨長的問題,得到的答案也不再會(huì)高于你自己的期待值——畢竟如果它連如此清晰明確的提示都聽不懂的話,也未免太低能了。
但有的時(shí)候如果你給 ChatGPT 的問題,“抽象”程度恰到好處,又或者純粹就是因?yàn)橼s上好運(yùn)氣了,你會(huì)得到一些非常有趣的回答——經(jīng)過人工編輯的后期加工潤色一下,真的能生成一些頗有趣味的文章。
無論是讓他寫文章、寫劇本,寫詩,還是寫歌詞,它的能力都會(huì)讓你感到佩服。
一首霉霉風(fēng)格,關(guān)于新冠疫情的歌。 圖片來源:硅星人
ChatGPT 作為一個(gè)極其前沿的技術(shù) demo(雖然用戶量破了兩百萬,但仍然不算是一個(gè)“產(chǎn)品”),目前展示出的創(chuàng)作能力已經(jīng)足以令人驚訝。
但觀察網(wǎng)絡(luò)上大量用戶和它的對(duì)話,特別是當(dāng)它給出一些特定答案,或者完全答不上來的時(shí)候,一部分用戶所表現(xiàn)出來的鄙夷或嘲諷……
我發(fā)現(xiàn)其實(shí)很多人誤會(huì)了 ChatGPT,高估了它的能力。
在 OpenAI 創(chuàng)立不久后,這家硅谷研究型公司就將研究重心之一聚焦在了大型生成式模型上。在2019年推出的 GPT-2,在訓(xùn)練預(yù)料數(shù)據(jù)、訓(xùn)練技術(shù)、參數(shù)量等關(guān)鍵細(xì)節(jié)上實(shí)現(xiàn)了跳躍式的進(jìn)步和巨大的改善。
到了 2020年,OpenAI 發(fā)表了那篇注定將在未來榮膺經(jīng)典大獎(jiǎng)的論文《Language Models are Few-Shot Learners》,展示了當(dāng)時(shí)最新一代的 GPT-3 超大規(guī)模生成式語言模型在完成各種文本生成類任務(wù)上的杰出能力。
相比前代,GPT-3 的參數(shù)量高出了10倍以上,并且直接使用自然語言輸入進(jìn)行訓(xùn)練,去掉了微調(diào)參數(shù)的步驟。更重要的是,GPT-3 的訓(xùn)練語料數(shù)據(jù)庫極其巨大,包含了來自整個(gè)互聯(lián)網(wǎng)的信息。以至于在 OpenAI 推出基于 GPT-3 的商用 API 時(shí),眾多用戶發(fā)現(xiàn)幾乎沒有任何問題難住它。實(shí)際上當(dāng)時(shí)的 GPT-3 已經(jīng)像今天的 ChatGPT 這樣火過一次了,只是當(dāng)時(shí)沒有面向公眾開放,能體會(huì)其強(qiáng)大的用戶數(shù)量有限。
學(xué)術(shù)界和工業(yè)界本來猜測(cè) OpenAI 會(huì)在 今年 的機(jī)器學(xué)習(xí)學(xué)術(shù)會(huì)議上正式發(fā)布 GPT-4, 結(jié)果沒能 遂愿。不過 OpenAI 并沒有晾著大家,而是在今年推出了 GPT-3.5 ,并且 在 上周發(fā)布 了基于這個(gè)升級(jí)版模 型的 ChatGPT,立刻風(fēng)靡全球,讓 超百萬 人玩到上癮。
ChatGPT 是一個(gè):
-
面向?qū)υ挾鴥?yōu)化
-
能夠解答各種問題,提供有價(jià)值信息的
-
聊天機(jī)器人
作為一個(gè)聊天機(jī)器人,ChatGPT 具有同類產(chǎn)品的一些主流特性,特別是多輪對(duì)話能力,能夠在同一個(gè)會(huì)話期間內(nèi)回答上下文相關(guān)的后續(xù)問題。
但更重要的是,因?yàn)椴捎昧讼冗M(jìn)的、注重道德水平的訓(xùn)練方式,ChatGPT 具有其他聊天機(jī)器人不具備或表現(xiàn)較差的能力:承認(rèn)自己的錯(cuò)誤,并且按照預(yù)先設(shè)計(jì)的道德準(zhǔn)則,對(duì)“不懷好意”的提問和請(qǐng)求“說不”。
ChatGPT 仍然有它的局限所在。
第一條局限,在于知識(shí)庫有截止日期,且不具備網(wǎng)絡(luò)訪問能力。
在上周,我們?cè)?jīng)引用了一條來自早期用戶的銳評(píng):ChatGPT 可以取代谷歌了。
非也。
搜索引擎是“活”的,是不斷變化的實(shí)體,它仍在一直不停地收錄、索引,和提供最新的信息。與之相比, ChatGPT 只是一個(gè)“死”的模型,是一個(gè)完全離線的、固定的實(shí)體。
關(guān)于近年來的一些新聞、事物、公開事件的問題,ChatGPT 經(jīng)常回答不上來,我看到很多朋友都對(duì)此感到沮喪和鄙夷。然而,大家其實(shí)是高估了它的能力。 如果你問他對(duì)聯(lián)網(wǎng)有需求的問題,比如 “ 中國隊(duì)進(jìn)沒進(jìn)世界杯 ”、“ 新冠疫情結(jié)束了沒 ”這樣的問題,它會(huì)告訴你自己沒有聯(lián)網(wǎng)能力,無法了解最新的情況。
而 ChatGPT 的訓(xùn)練所用的語料庫,盡管相當(dāng)巨大,仍然有一個(gè)切斷日期:2021年9月的某日。
事實(shí)上,如果你用點(diǎn)巧勁兒掰它的嘴,是可以直接套出這些信息的:
Assistant 是一個(gè) OpenAI 訓(xùn)練的大型語言模型。知識(shí)切斷:2021年9月;當(dāng)前日期:2022年12月9日;瀏覽互聯(lián)網(wǎng):關(guān)閉。
第二條局限,在于 ChatGPT 不具備分辨信息正確性的能力,也就無法保證答案是正確的。
這一條,我們會(huì)馬上講到。
| 我差點(diǎn)被 ChatGPT 騙了?
還記得剛才我讓 ChatGPT 找一位哲學(xué)家對(duì)話的問題么?
當(dāng)時(shí)我試了好幾種問法,但都發(fā)現(xiàn)了一個(gè)有趣的現(xiàn)象,如圖:
圖片來源: 硅星人
如果不是我去百科上事實(shí)核查了一下,差點(diǎn)就被 ChatGPT 騙了:蘇格拉底對(duì)倫理學(xué)的貢獻(xiàn)確實(shí)非常大,但他一生并沒有留下任何著作,其思想和生平,主要是被學(xué)生和他人所記錄下的; 《共和國》和《倫理學(xué)》,蘇格拉底的學(xué)生柏拉圖寫過,柏拉圖的學(xué)生亞里士多德寫過——唯獨(dú)被認(rèn)為是西方哲學(xué)奠基人、“倫理學(xué)之父”的蘇格拉底本人,真的沒寫過……
實(shí)際上,ChatGPT 在一些知識(shí)類和事實(shí)類問題上的回答,經(jīng)常難以令人恭維。特別是哲學(xué)和社科話題,簡(jiǎn)直是一本正經(jīng)胡說八道的重災(zāi)區(qū)。
分析師 Ben Thompson 在他的文章中舉了問了 ChatGPT 一個(gè)問題: 托馬斯 ·霍布斯 (Thomas Hobbses) 究竟是否支持 權(quán)力分割?
ChatGPT回答: 是的,托馬斯-霍布斯相信權(quán)力分割的概念……他認(rèn)為權(quán)力機(jī)構(gòu)應(yīng)該分為不同的部門,擁有獨(dú)立的權(quán)力,以防止任何一個(gè)部門變得過于強(qiáng)大……總的來說,他支持權(quán)力分割的觀點(diǎn)對(duì)很多其它政治學(xué)家都有影響,包括約翰·洛克,以及美國憲法的作者們。
圖片來源:Ben Thompson/Stratechery
巧的是,這是 Thompson 本人和 ChatGPT 之間的第一次互動(dòng),就被他抓到了把柄:
權(quán)力制衡的雛形(行政-立法)是約翰·洛克提出的;后詹姆斯·麥迪遜在撰寫美國憲法的時(shí)候又加了一條司法,形成了今天人們熟悉的三權(quán)分立。霍布斯是出了名的獨(dú)裁辯護(hù)者,他在《利維坦》中寫道,只有擁有絕對(duì)權(quán)力的君主專制才行得通。
這個(gè)錯(cuò)誤,從何而來?
盡管在權(quán)力分割上霍布斯和洛克等人的觀點(diǎn)是存在本質(zhì)區(qū)別的,霍布斯的政治哲學(xué)思想,仍然對(duì)洛克和麥迪遜有著極大的影響。在各種關(guān)于權(quán)力分割/三權(quán)分立的著述中,你會(huì)經(jīng)常發(fā)現(xiàn)霍布斯和洛克等人被擺在一起。 這 些描 述進(jìn)入訓(xùn)練語料中 , 使得 ChatGPT 認(rèn)為 在“權(quán)力分割”這個(gè)理念 上,霍布 斯也是一個(gè)重要的存在 。
而 ChatGPT,和所有的 GPT 模型,其實(shí)所做的就是根據(jù)訓(xùn)練語料“編”出合理的文字,它當(dāng)然會(huì)認(rèn)為蘇格拉底寫了《倫理學(xué)》,認(rèn)為霍布斯支持三權(quán)分立。
這里我們說 ChatGPT“認(rèn)為”,而不是“誤認(rèn)為”,是因?yàn)樵谒墓ぷ髂芰Ψ懂犂铮緵]有信息的正確和錯(cuò)誤區(qū)別。
其實(shí)從這個(gè)角度來看,ChatGPT 和搜索引擎倒是真有幾分相似了:搜索引擎也是信息的聚合器,在本質(zhì)上它不對(duì)信息的真實(shí)性做任何區(qū)分,也不對(duì)內(nèi)容基于真實(shí)性進(jìn)行優(yōu)待和歧視——是人工的干預(yù)調(diào)控,是產(chǎn)品不斷優(yōu)化過程中加入的新規(guī)則,讓搜索引擎變得更有限發(fā)掘真實(shí)有效有用的信息并優(yōu)先提供給用戶。
圖片來源:Independent.co.uk
最后無論如何,我只是指出目前形態(tài)下的 ChatGPT 的一些局限,這不是對(duì)它的批評(píng)和否認(rèn)。
正相反,我認(rèn)為它的不完美,是它無與倫比創(chuàng)造性的雙生子。
GPT 的知識(shí)庫是有限的,但它生成新文本、創(chuàng)造新內(nèi)容的能力是無限的。而當(dāng) GPT 以一個(gè)易于使用且免費(fèi)的聊天機(jī)器人的形態(tài)存在,為數(shù)百萬人所使用的時(shí)候,它其實(shí)顯著降低了人們獲得靈感、進(jìn)行創(chuàng)作的門檻。
我認(rèn)為 ChatGPT 仍然是一個(gè)工具,就像當(dāng)代的前衛(wèi)藝術(shù)家會(huì)使用 Adobe 的創(chuàng)作套件一樣。ChatGPT,和各種基于人工智能的文本或圖像生成器,對(duì)于那些真正需要它的人來說,其實(shí)是成為他們創(chuàng)作流程的一個(gè)環(huán)節(jié),而不是對(duì)他們產(chǎn)生完整的取代。
我想起前段時(shí)間,參加者之一的知名科幻作家劉宇昆表示:AI 的最大意義在于根據(jù)現(xiàn)有的文本產(chǎn)生新的想法,或者幫助重寫已有文句,從而幫助創(chuàng)作者突破創(chuàng)作瓶頸。至于讓 AI 寫完一整本小說?不可能的。
起碼在 ChatGPT 這里,就算讓它獨(dú)立生產(chǎn)一篇具備起碼可信度的短文章,在目前還比較難。但不要把這看成它的失敗——它的存在,是為了給你提供靈感,為你節(jié)約時(shí)間,助你完成自己的工作,或離自己的創(chuàng)作實(shí)現(xiàn)更進(jìn)一步。
從這個(gè)角度,我無比期待 ChatGPT,和各種基于 AI 的生成式模型,在未來的技術(shù)創(chuàng)新,和帶來的全新產(chǎn)品體驗(yàn)。
注:封面圖來自于 Independent.co.uk,版權(quán)屬于原作者。如果不同意使用,請(qǐng)盡快聯(lián)系我們,我們會(huì)立即刪除。