在科技界掀起軒然大波的事件中,DeepSeek公司年初發(fā)布的R1模型無疑占據(jù)了C位。這一發(fā)布直接導致英偉達股價暴跌16.79%,市值瞬間蒸發(fā)約5900億美元,這一數(shù)字震驚了整個美國金融市場。面對這一突變,英偉達發(fā)言人迅速作出回應,稱贊DeepSeek是一項卓越的人工智能進步,并指出它是測試時間縮放的經(jīng)典案例。盡管英偉達隨后逐漸收復失地,但其首席執(zhí)行官黃仁勛卻始終未就此事公開發(fā)聲。
然而,在近日的一場訪談中,黃仁勛終于打破了沉默,首次就DeepSeek及其R1模型發(fā)表了自己的看法。他表示,投資者對DeepSeek在人工智能領域的進展存在嚴重誤解,這種誤解進而引發(fā)了市場對英偉達股價的過度反應。自R1模型以低成本高性能引起廣泛關注后,不少投資者開始質(zhì)疑科技公司投入巨資建設AI基礎設施的必要性。
黃仁勛強調(diào),市場的劇烈波動源于投資者的誤讀。他指出,盡管R1模型的開發(fā)似乎降低了對算力的依賴,但人工智能行業(yè)仍然需要強大的算力來支持模型的后訓練處理方法。這些方法對于AI模型在后訓練階段進行推理或預測至關重要。黃仁勛進一步解釋稱,從投資者的角度來看,他們往往將世界簡單地劃分為預訓練和推理兩個階段,認為推理就是向AI提問并立即得到答案。然而,這種觀念顯然是錯誤的。
在訪談中,黃仁勛詳細闡述了預訓練和后訓練的重要性。他表示,預訓練是人工智能發(fā)展的基礎,它為我們提供了對信息的基本理解水平。然而,真正體現(xiàn)智能價值的是后訓練階段,這是學習解決問題的關鍵環(huán)節(jié)。在后訓練過程中,我們需要應用基礎知識來解決實際問題,這涉及到詞匯、句法、語法以及基本數(shù)學等多個方面的綜合運用。
黃仁勛還指出,R1模型開源后在全球范圍內(nèi)引發(fā)的熱情令人難以置信。他認為這是一件極其令人興奮的事情,因為它標志著人工智能領域的一個重要里程碑。同時,他也對投資者在R1模型發(fā)布后的過度反應表示理解,但強調(diào)這種反應是基于誤解之上的。
在訪談的最后部分,黃仁勛再次強調(diào)了后訓練在人工智能中的重要性。他提到,近年來與后訓練相關的學習模式取得了巨大的進步,同時計算需求也日益增加。然而,一些投資者卻錯誤地認為預訓練的成本已經(jīng)大大降低,從而忽視了后訓練的高強度需求。他還提到了第三條縮放定律,即推理和思考越多,AI的表現(xiàn)就會越好,但這同樣需要強大的計算能力來支持。
黃仁勛表示,市場的反應似乎認為AI已經(jīng)走到了盡頭,但實際上卻恰恰相反。他認為,R1模型的發(fā)布不僅不是AI的終點,反而是其發(fā)展的新起點。未來,隨著人工智能技術的不斷發(fā)展和計算能力的不斷提升,我們有理由相信AI將在更多領域發(fā)揮更大的作用。






