人工智能科學家正在研究大型語言模型的“緊急”能力
本文是我們對最新AI研究報道的一部分。
大型語言模型(LLM)已經(jīng)成為關注和炒作的中心,因為它們看似神奇的能力可以產(chǎn)生長篇連貫的文本,做他們沒有接受過訓練的事情,并(在某種程度上)參與到過去的話題中。被認為是計算機的禁區(qū)。
但是關于LLM的工作方式和不工作方式,還有很多需要學習的地方。谷歌、斯坦福大學、DeepMind和北卡羅來納大學教堂山分校的研究人員進行的一項新研究探索了LLM可以在他們成長壯大并接受更多數(shù)據(jù)培訓時完成的新任務。
該研究揭示了大型語言模型的規(guī)模與其“緊急”能力之間的關系。
什么是涌現(xiàn)?
這項新研究的重點是物理學、生物學和計算機科學等領域長期以來一直在討論的意義上的涌現(xiàn)。在一篇題為“更多是不同的”(PDF)的文章中,諾貝爾獎獲得者物理學家菲利普·安德森討論了這樣一種觀點,即量變會導致質的不同和意想不到的現(xiàn)象。
受安德森工作的啟發(fā),加州大學伯克利分校教授雅各布·斯坦哈特將涌現(xiàn)定義為“當系統(tǒng)中的量變導致行為發(fā)生質的變化時”。
“由于我們想提供更精確的定義,我們將涌現(xiàn)能力定義為‘不存在于較小模型中但存在于較大模型中’的能力,”斯坦福大學博士生、該論文的合著者Rishi Bommasani說,告訴TechTalks。
為了識別大型語言模型中的新興能力,研究人員尋找相變,在某個規(guī)模閾值以下,模型性能接近隨機,超過該閾值,性能遠高于隨機。
Bommasani說:“這將涌現(xiàn)能力與隨規(guī)模平穩(wěn)提高的能力區(qū)分開來:預測何時會出現(xiàn)涌現(xiàn)能力要困難得多。”
規(guī)??梢杂貌煌姆绞絹砗饬浚ㄓ嬎?FLOPs)、模型大?。▍?shù)數(shù)量)或數(shù)據(jù)大小。在他們的研究中,研究人員專注于計算和模型大小,但強調“沒有一個單一的代理能夠充分捕捉規(guī)模的所有方面。”
大型語言模型中的新興能力
大型語言模型是一個特別有趣的案例研究,因為它們已經(jīng)顯示出非常明顯的出現(xiàn)跡象。LLM是非常大的變壓器神經(jīng)網(wǎng)絡,通??缭綌?shù)千億個參數(shù),在數(shù)百GB的文本數(shù)據(jù)上進行訓練。它們可用于廣泛的任務,包括文本生成、問題回答、摘要等。
LLM的有趣特征之一是它們的小樣本和零樣本學習能力,即執(zhí)行訓練示例中未包含的任務的能力。隨著2020年OpenAI的GPT-3的推出,LLM中的少鏡頭學習引起了廣泛關注,此后對其范圍和局限性進行了大量研究。
在他們的研究中,研究人員測試了幾個流行的LLM家族,包括LaMDA、GPT-3、Gopher、Chinchilla和PaLM。他們從BIG-Bench中選擇了幾個任務,這是一個包含200多個任務的眾包基準,“這些任務被認為超出了當前語言模型的能力”。他們還使用了來自TruthfulQA、大規(guī)模多任務語言理解(MMLU)和語境中的詞(WiC)的挑戰(zhàn),這些都是旨在測試LLM在處理復雜語言任務方面的極限的基準。
研究人員還付出了額外的努力來測試LLM的多步推理、指令跟蹤和多步計算。
“GPT-3是標志性的,它在LMs中引入了真正獨特的第一波新興能力,現(xiàn)在眾所周知的小樣本提示/上下文學習,”Bommasani說。“在這里,可以用自然語言指定任務,并附上描述和任務輸入輸出結構的五個左右示例,最大的模型(即175B模型)可以在某些任務上做得相當好。換句話說,您需要的特定于任務的數(shù)據(jù)要少得多,并且可以指定任務而無需進行微調/基于梯度的方法。”
研究結果表明,規(guī)模與新能力的出現(xiàn)高度相關。每個LLM系列都有不同的規(guī)模,在特定規(guī)模以下的任務上表現(xiàn)出隨機或低于隨機的性能。在那之后,他們發(fā)現(xiàn)準確性突然提高,并隨著模型的變大而繼續(xù)提高。
“一個有趣的例子是Pilehvar和Camacho-Collados(2019)的上下文中的詞(WiC)基準。在該基準上,GPT-3和Chinchilla基本上獲得了隨機單次性能,但使用大約5倍FLOP的PaLM最終證明了性能遠遠高于機會,”Bommasani說。
LLM中出現(xiàn)緊急行為的原因
大型語言模型中涌現(xiàn)能力的存在表明,我們無法通過推斷較小規(guī)模模型的性能來預測LLM的能力。
“緊急的小樣本提示任務也是不可預測的,因為這些任務沒有明確包含在預訓練中,而且我們可能不知道語言模型可以執(zhí)行的小樣本提示任務的全部范圍。總體而言,進一步擴展可能會賦予更大的語言模型新的新興能力,”研究人員寫道。
然而,一個突出的問題是模型是否真的在學習這些新興技能所需的知識。一些研究表明,當神經(jīng)網(wǎng)絡提供正確的結果時,它通常將輸入映射到輸出,而無需學習因果關系、常識和其他學習技能背后的知識。
“總的來說,LMs如何獲得能力/技能在概念層面上并沒有得到很好的理解,”Bommasani說。“總的來說,我想說有(i)證據(jù)表明模型在某些方面隨著規(guī)模變得更加穩(wěn)健,(ii)即使我們最好的模型在關鍵方面也不是穩(wěn)健/穩(wěn)定的,我不希望通過以下方式解決規(guī)模,以及(iii)穩(wěn)健性/穩(wěn)定性/因果關系與規(guī)模之間的總體關系尚不為人所知。”
在他們的論文中,研究人員還討論了一些規(guī)模限制,包括硬件和數(shù)據(jù)瓶頸。此外,他們觀察到某些能力甚至可能不會隨著規(guī)模而出現(xiàn),包括遠離模型訓練數(shù)據(jù)集分布的任務。他們還警告說,一旦能力出現(xiàn),并不能保證它會隨著規(guī)模的擴大而繼續(xù)提高。
“我不希望所有期望的行為都會出現(xiàn),但我確實希望隨著我們的擴展我們會看到更多(特別是在密集的自回歸變形金剛之外的制度中,這些制度是純文本的純英文),”Bommasani說。“在更高的層面上,我預計我們將在一段時間內繼續(xù)看到基礎模型范式的重大驚喜;Minerva在MATH基準上的進展令專業(yè)預測者感到驚訝,這是最近的一個具體例子。”
探索規(guī)?;奶娲桨?/h2>
隨著機器學習社區(qū)朝著創(chuàng)建更大的語言模型邁進,人們越來越擔心LLM的研究和開發(fā)將集中在少數(shù)擁有財務和計算資源來訓練和運行模型的組織中。通過發(fā)布開源模型或降低培訓和運行它們的成本和技術開銷,已經(jīng)有一些努力使LLM民主化。
在他們的論文中,研究人員討論了一些規(guī)?;奶娲桨?,包括在特定任務數(shù)據(jù)集上微調較小的模型。“一旦發(fā)現(xiàn)了一種能力,進一步的研究可能會使這種能力適用于更小規(guī)模的模型,”作者寫道,他指的是最近關于提高小規(guī)模LLM準確性的新微調方法的研究。
研究人員寫道:“隨著我們繼續(xù)訓練越來越大的語言模型,降低新興能力的規(guī)模閾值將變得更加重要,因為這樣可以讓社區(qū)廣泛使用這些能力的研究。”
Bommasani說:“規(guī)模的好處,無論是否通過出現(xiàn),都可能會激勵人們可以投射的資源集中,這將激發(fā)/加劇權力的集中化。”“從歷史上看,很明顯,人工智能研究從具有開放科學傳統(tǒng)的學術界和工業(yè)界的合作中受益匪淺。鑒于擴展的資源密集型性質,我相信這些必須堅持幾個互補的前進道路:(i)規(guī)范研究人員對現(xiàn)有模型的訪問,(ii)開放式合作(例如BigScience、EleutherAI、Masakhane、ML Collective)構建由支持去中心化的結構變化支持的新模型,(iii)提供必要計算和數(shù)據(jù)的結構資源(例如,國家研究云在美國作為國家人工智能研究資源)。”
可以肯定的是,在可預見的未來,大型語言模型仍將是機器學習研究的支柱。隨著它們進入實際應用,我們需要繼續(xù)研究它們的能力和局限性。
“法學碩士的新興能力對NLP產(chǎn)生了重大影響,具體改變了該領域的研究,以更好地理解和發(fā)展這種能力。它們還在社會學上影響了NLP和AI的整體性質,表明規(guī)模是當前系統(tǒng)中的一個重要因素,”Bommasani說。“我們應該建立對這些能力的共同理解,并探索未實現(xiàn)的潛力和規(guī)模的最終極限。”