ChatGPT的橫空出世,讓不了人第一次大規(guī)模的接觸到這種自然語言處理的人工智能。嚴(yán)格來說,ChatGPT算是GPT家族的最新一代,從GPT-1發(fā)布起,其中又經(jīng)歷了4年多的發(fā)展時間,這才有了我們在市面上所見識到的產(chǎn)品。接下來,就讓我們來了解一下GPT家族的發(fā)展過程。
CPT-1的開發(fā),是建立在對NLP模型的改良之上。在傳統(tǒng)的NPL模型中,存在著高質(zhì)量數(shù)據(jù)獲取難、模型學(xué)習(xí)力有限、模型兼容性較差等問題。這一系列原因,導(dǎo)致其難以被大規(guī)模的應(yīng)用在商業(yè)層面,而僅僅只是停留在研究領(lǐng)域。為了改變這一情況,GPT-1在開發(fā)之初便對大量的高質(zhì)量數(shù)據(jù)進(jìn)行了學(xué)習(xí);并且,還通過對大量未標(biāo)注信息的辨別,來提升其對自然語言的理解能力。
GPT-2是對GPT-1功能的延伸與優(yōu)化。它針對無監(jiān)督學(xué)習(xí)進(jìn)行了強(qiáng)化,并且通過更大規(guī)模的數(shù)據(jù)訓(xùn)練,來培養(yǎng)GPT-2的學(xué)習(xí)能力。并且,開發(fā)者還對GPT-2下達(dá)了更高難度的測試要求,令其在只有任務(wù)描述的情況下,主動去搜索相關(guān)聯(lián)的內(nèi)容。這方面的開發(fā),能夠大大提升GPT模型對于自然語言的理解能力以及分類能力。
GPT-3相較于GPT-2使用了更多數(shù)量以及更高質(zhì)量的數(shù)據(jù)。通過對演示數(shù)據(jù)的微調(diào),讓受監(jiān)督的AI程序根據(jù)開發(fā)者的需求進(jìn)行演示;如此一來,便能夠進(jìn)一步明確模型的輸出導(dǎo)向。另外,通過獎勵訓(xùn)練,能夠進(jìn)一步讓模型了解開發(fā)者的偏好需求,讓輸出的內(nèi)容更加個性化。
在GPT-3之后,開發(fā)者又陸續(xù)開發(fā)過多個小版本,直到ChatGPT推出。可以說,ChatGPT不論是在對自然語言的理解能力上,還是對對話語境的把握上,相較于基礎(chǔ)模型已經(jīng)展露出了十分驚人的處理能力。在將來,它還會給我們帶來哪些驚喜呢?