隨著ChatGPT、MidJourney、DALL·E等人工智慧高速發展,我們將會是「最後一代」

  发布时间:2024-05-19 17:25:36   作者:玩站小弟   我要评论
一、如果三年前有人跟我說,人工智慧將會變得比人類還聰明,那我一定會認為他在胡說。但是隨著ChatGPT、MidJourney、DALL·E等大型類神經網路Neural Net)的高速發展,現在我也開始 。

一、隨著速發

如果三年前有人跟我說,等人代人工智慧將會變得比人類還聰明,工智那我一定會認為他在胡說。慧高但是展們最後隨著ChatGPT、MidJourney、將會DALL·E等大型類神經網路(Neural Net)的隨著速發高速發展,現在我也開始擔心了。等人代

也許幾年內人工智慧就會變得比人類還聰明,工智而我們將會是慧高「最後一代」。

二、展們最後

類神經網路的將會運作方式,跟以前傳統的隨著速發電腦程式很不一樣。傳統的等人代程式,靠的工智是加減乘除以及邏輯運算,一切都是程式設計師「設計」出來的,所以對於傳統程式的運作原理,程式設計師們自己當然是一清二楚。

但類神經網路是模仿人類大腦而建造的,他的能力是「訓練」出來的,而不是「設計」出來的。所以就像身為老師的人,往往搞不懂自己的學生是怎麼想的一樣,身為類神經網路訓練者的工程師們,往往也搞不懂他們做出來的類神經網路究竟是怎麼運作的。

三、

人腦的思考能力,來自於一些透過突觸(Synapses)互相連結的腦神經元細胞(Neurons);而人工智慧類神經網路的思考能力,也是來自於一些透過參數(Parameters)互相連結的人造類神經元。

人類在學習的時候,腦神經元的突觸連結方式會發生改變;而人造的類神經網路在學習的時候,參數的數值也會發生改變。

動物的腦,突觸的數量越大,思考學習能力越強;而同樣的,類神經網路的參數越多,思考學習的能力也越強。

四、

早期的類神經網路所包含的類神經元數目,了不起也不過是幾萬個,恐怕比一隻蟑螂的腦神經元數量都還要少。所以早期的類神經網路都只能專注於某種特殊功能,像是下圍棋、幫照片著色,或是將語音轉換成文字等等。

五、

但是近幾年,許多大型的科技公司野心變大了,開始去訓練一些稱作Foundation Models的超大型類神經網路。像是ChatGPT以及DALL·E背後的GPT-3,就是一個擁有1750億參數的超大型的類神經網路 。

而科學家們估計,人腦大約有100兆個突觸。GPT-3 的1750億個參數跟人腦的100兆個突觸相比,還差了500倍左右,所以GPT-3的思考記憶能力,終究還是比不上人腦。

人造的類神經元與類神經網路示意圖:

六、

但是GPT-3所受的訓練跟人腦所受的訓練一樣,已經是多方面的。它閱讀過無數關於天文、地理、歷史、物理、化學、音樂、以及程式設計的網路文章,所以它就像一個精通數十種語言,同時還上過天文、地理、歷史、物理、化學、音樂、程式設計等各種課程的傢伙一樣,什麼都能聊。

七、

科學家們訓練GPT-3的方式,是讓GPT-3大量閱讀各種從網路上蒐集來的文章,然後叫GPT-3寫短文給真人老師批改。

然後科學家們為了省事,又去設計訓練出一個「人工智慧家教」(Reward Model),用他來替代真人,專門幫GPT-3批改作業,進行訓練。

八、

而GPT-3是個好學生,他不會死讀書,他會消化吸收,他會把它學到的知識內化(Internalize),轉化成類神經元上面的參數數值。

ChatGPT很老實,當我們問ChatGPT問題的時候,它並不會臨時抱佛腳,偷偷上網去找資料,它也不會偷看小抄,把預先寫好的答案整段背給我們聽。ChatGPT的回答真的都是「GPT-3自己想的」,「GPT-3自己記得的」。

所以每當有些人埋怨,說ChatGPT的回答往往不盡正確,我都會覺得他們是苛求了。因為GPT-3的年紀還不到一歲,他已經算是個博聞強記的天才兒童了。一般人絕對記不得那麼多的事情。

九、

而更厲害的是,像GPT-3這樣的類神經網路之所以被稱為「Foundation Models」(基礎模型),就是因為創造它們科學家們,把它們類比為受過基礎語文訓練及通識教育的「通才」。

只要我們把GPT-3複製一份,然後對它進行密集的天文學訓練,那它就會變成一個天文學家;只要我們再把GPT-3複製一份,然後再對它進行密集的經濟學訓練,那它就會變成一個經濟學家;只要我們再把GPT-3複製一份,然後再對它進行密集的物理學訓練,那它就會變成一個物理學家。

十、

如果這還不夠讓你覺得驚恐的話,那科技界盛傳,繼GPT-3之後,下一代的GPT-4馬上就會在今年推出了。據說GPT-4的參數數量會是GPT-3的 500 倍,也就是100兆個,跟人腦的突觸數量相當。

很顯然的,GPT-4的設計者就是要做出一個跟人腦腦容量相當的人工腦,一個名副其實的「電腦」。

然後GPT-4絕對不會是人工智慧研究的終點站,接下來很可能會有人腦500倍容量的GPT-5、人腦25萬倍容量的 GPT-6。

十一、

所以順利的話,一年之後,研究所的學生都不用再自己寫論文了,因為論文可以交給GPT-4寫,而且寫的絕對比大部分的研究生都好。

同樣的,大學的教授們也不用再浪費時間上課、指導論文了,因為反正學生的作業跟論文都是GPT-4寫的,教授們不如把GPT-4複製一份,直接去教GPT-4做研究、寫論文。

然後教授們訓練出來的GPT-4、GPT-5、GPT-6會越來越厲害,厲害到他們青出於藍,總有一天會比當初訓練出他們的教授們還厲害,可以自己做研究、自己訓練下一代的GPT-7 、而且去跟 Google、百度訓練出來的類神經網路進行學術討論了。

十二、


  • Tag:

相关文章

最新评论