www.久久久久|狼友网站av天堂|精品国产无码a片|一级av色欲av|91在线播放视频|亚洲无码主播在线|国产精品草久在线|明星AV网站在线|污污内射久久一区|婷婷综合视频网站

當前位置:首頁 > 芯聞號 > 極客網(wǎng)
[導讀]今年9月份OpenAI對外宣稱,AI能力達到新等級,相比之前的LLM,新AI更接近人類的思考能力。OpenAI的斷言引起爭論:到底還要等多久機器才能具備人類大腦一樣的認知能力?

今年9月份OpenAI對外宣稱,AI能力達到新等級,相比之前的LLM,新AI更接近人類的思考能力。OpenAI的斷言引起爭論:到底還要等多久機器才能具備人類大腦一樣的認知能力?

大家爭論的智能就是所謂的AGI,它可以幫助人類解決復雜問題,比如氣候變化、大流行、癌癥治療等等。AGI充滿不確定,它也會給人類帶來風險。

加拿大蒙特利爾大學深度學習研究人員Yoshua Bengio說:“AI可能會被誤用,人類可能失去對AI的控制,這些都會導致惡意事件發(fā)生。”

過去幾年LLM飛速進化,一些人相信AGI已經(jīng)很接近了,但Yoshua Bengio認為,考慮到LLM的構建和訓練方式,LLM單靠自己不能達到AGI,因為缺少一些關鍵要素。

亞利桑那州立大學計算機科學家Subbarao Kambhampati說:“在我人生的大部分時間里,我覺得談論AGI的人是瘋子?,F(xiàn)在呢?幾乎每個人都在談論,你不能說他們都是瘋子。”

有關AGI的爭論,為什么變了?

2007年AGI開始流行起來,它的定義并不精準,大意是說AI系統(tǒng)具備人一樣的推理、泛化能力?;乜碅I歷史,沒有一個AI能達到AGI水準,即使是稱霸圍棋界的AlphaGo,它的“超能力”也只是局限于狹窄領域。

現(xiàn)在呢?LLM已經(jīng)改變了行業(yè)。由于LLM具備多種多樣的能力,研究人員認為某種形式的AGI可能很快會出現(xiàn),甚至已經(jīng)出現(xiàn)。

LLM就是神經(jīng)網(wǎng)絡,它相當于受到大腦啟發(fā)的機器學習模型。網(wǎng)絡由人工神經(jīng)元組成(或者叫計算單元),它們排列成層,有著可調節(jié)的參數(shù)(代表神經(jīng)元的連接強度)。

在訓練時,研究人員用到一種名叫NTP(Next Token Prediction) 的方法,模型被反復輸入文本,文本被分成很多小塊,這些小塊叫token。在一個序列中,最后一個token被隱藏或者掩蓋,讓模型預測它是什么。模型會將預測結果與原數(shù)據(jù)對比,然后調整模型參數(shù),讓它具備更好的預測能力。

后來又出現(xiàn)了Transformer模型,它更進一步。Transformer可以讓模型知道有一些token會對其它token造成更大影響,如此一來,LLM可以像人一樣解析語言。

到了這一步,LLM可以生成計算機程序,讓程序去解決自然語言中描述的問題,它可以匯總學術論文,可以回答數(shù)學問題。

有人認為,只要LLM變得足夠大,就會孕育出AGI。CoT(chain-of-thought)提示就是一個例證,它說明LLM可以將一個問題分成更小的步驟,方便解決,也可以讓LLM分步解決問題,可惜的是CoT在小模型中表現(xiàn)不太好。

LLM模型的局限性,與大腦的“世界模型”

OpenAI開發(fā)的o1模型用到了CoT,能解決更復雜的問題,但它并不是AGI。實驗證明,讓o1處理規(guī)劃達到16步的任務時,o1表現(xiàn)不錯,但是如果步數(shù)達到20-40步,o1的表現(xiàn)會越來越差。

研究人員經(jīng)常會用抽象推理和泛化來測試AGI能力,比如讓AI處理視覺拼圖問題。在測試時,AI需要觀看實例,總結出抽象規(guī)則,然后用規(guī)則來解決新的謎題。

不論LLM是大還是小,在測試中表現(xiàn)都不太好,因為它們需要組合學到的知識,用來解決新問題。

那么LLM有可能進化出AGI嗎?研究人員認為,雖然現(xiàn)在我們離AGI還很遙遠,但是使用Transformer架構的LLM和AI系統(tǒng)已經(jīng)具備一些AGI的關鍵特征。

Transformer LLM當然也有一些問題,比如訓練模型的數(shù)據(jù)快耗盡了。當我們訓練Transformer LLM時讓它預測下一個token,這樣做可能太過片面,無法進化出AGI,構建能生成解決方案的模型可能會讓我們離AGI更近一些。

神經(jīng)科學家為AI行業(yè)帶來自己的看法,他們認為,大腦可以構建“世界模型”,所以才有了智力。所謂“世界模型”就是指周邊環(huán)境。大腦可以想象不同的行動方案并預測結果,可以規(guī)劃、推理,人腦還可以模擬不同的場景,將自己在某個領域學到的技能應用于其它新任務。要讓AI變成AGI,它需要具備構建“世界模型”的能力。

有些研究者認為,已經(jīng)有證據(jù)顯示在LLM出現(xiàn)了基本世界模型。另一些研究則說,AI系統(tǒng)構建的世界模型并不可靠。

當今LLM的大缺點,缺少內部反饋

谷歌DeepMind AGI研發(fā)團隊成員Dileep George認為,缺少內部反饋是當今LLM的一大缺點。人類大腦有很多的反饋連接,信息可以在神經(jīng)元層之間快速流動,由于信息可以從感覺系統(tǒng)向大腦更高層流動,所以我們可以創(chuàng)建出映射環(huán)境的世界模型。不只如此,信息還會向下流動,引導人進一步獲得更深刻的感官信息。

在OpenAI o1模型中,內部CoT提示看起來有效,屬于反饋連接,但它無法保證模型可以進行抽象推理。

研究人員為LLM添加外部模型,這種模塊叫“verifier”(驗證器)。驗證器會檢查LLM 在特定環(huán)境中生成的答案,比如制定可行的旅行計劃,比如搜索結果讓人不滿意,它會重新查詢。事實證明,搭配驗證器的LLM制定旅行計劃時比普通LLM好很多,但問題在于,研究人員必須為每一個任務設計定制驗證器,沒有通用驗證器。

為了適應新情況,AGI需要構建相應驗證器,人類不一樣,我們可以利用抽象規(guī)則確保推理正確,即使處理新任務也可以從容應對,現(xiàn)在的LLM還做不到。

數(shù)據(jù)問題也是阻止LLM進化的一大障礙。倫敦大學學院理論神經(jīng)科學家Karl Friston認為,未來的系統(tǒng)也許可以高效確定自己到底需要多少數(shù)據(jù)才能構建世界模型并正確推理預測,這樣就沒有必要向模型投喂所有數(shù)據(jù)。聽起來很像是代理、自主體。Karl Friston說:“在LLM或者生成式AI中你看不到類似的代理,如果能開發(fā)出一種智能,它能在某種程度上進行選擇,那就意味著朝AGI前進了一大步?!?

AI系統(tǒng)應該有能力構建高效世界模型,集成反饋循環(huán),盡力降低對外部數(shù)據(jù)的依賴,通過內部模擬、假定反設事實、推理、規(guī)劃來生成數(shù)據(jù)。

用這種方法能否創(chuàng)造出AGI?計算機專家認為在理論上是可能的,沒有障礙。新墨西哥州圣達菲研究所計算機科學家Melanie Mitchell說:“人和其它動物達到智能基本上是一個道理,我并不認為生物系統(tǒng)和其它材料構建的系統(tǒng)有什么本質區(qū)別,非生物系統(tǒng)達成智能沒有什么障礙?!?

即使真的有可能創(chuàng)造出AGI,何時達成目標大家也沒有定論,有人認為只要幾年,有人覺得十年之內不太可能。當AGI出現(xiàn)時可能不會那么明顯,AGI會慢慢展示自己的潛能,它會被人類發(fā)明出來,然后擴大規(guī)模并應用,然后才能真正開始改變世界。(小刀)

聲明:該篇文章為本站原創(chuàng),未經(jīng)授權不予轉載,侵權必究。
換一批
延伸閱讀
關閉