數(shù)字金融
網(wǎng)絡營銷推廣
電商服務
每經(jīng)記者 文巧 實習記者 岳楚鵬 每經(jīng)編輯 高涵
在人工智能發(fā)展的道路上,科技巨頭們曾經(jīng)競相開發(fā)規(guī)模龐大的語言模型,但如今出現(xiàn)了一種新趨勢:小型語言模型(SLM)正逐漸嶄露頭角,挑戰(zhàn)著過去“越大越好”的觀念。
當?shù)貢r間8月21日,微軟和英偉達相繼發(fā)布了最新的小型語言模型——Phi-3.5-mini-instruct和 Mistral- NeMo- Minitron8B。這兩款模型的主要賣點是它們在計算資源使用和功能表現(xiàn)之間實現(xiàn)了良好的平衡。在某些方面,它們的性能甚至可以媲美大模型。
人工智能初創(chuàng)公司Hugging Face的首席執(zhí)行官Clem Delangue指出,高達99%的使用場景可以通過SLM來解決,并預測2024年將成為SLM之年。據(jù)不完全統(tǒng)計,包括Meta、微軟、谷歌在內的科技巨頭們今年已經(jīng)發(fā)布了9款小模型。
大模型訓練成本攀升
SLM的崛起并非偶然,而是與大模型(LLM)在性能提升與資源消耗方面的挑戰(zhàn)密切相關。
AI 初創(chuàng)公司 Vellum 和Hugging Face今年4月份發(fā)布的性能比較表明,LLM之間的性能差距正在迅速縮小,特別是在多項選擇題、推理和數(shù)學問題等特定任務中,頂級模型之間的差異極小。例如,在多項選擇題中,Claude 3 Opus、GPT- 4 和Gemini Ultra的準確率均超過83%,而在推理任務中,Claude3 Opus、GPT-4和Gemini 1.5Pro的準確率均超過92%。
Uber AI 前負責人 Gary Marcus指出:“我想每個人都會說GPT-4比GPT-3.5領先了一步,但此后的一年多沒有任何質的飛躍?!?/p>
與有限的性能提升相比,LLM的訓練成本卻在不斷攀升。訓練這些模型需要海量數(shù)據(jù)和數(shù)以億計甚至萬億個參數(shù),導致了極高的資源消耗。訓練和運行LLM所需的計算能力和能源消耗令人咋舌,這使得小型組織或個人難以參與核心LLM開發(fā)。
國際能源署估計,數(shù)據(jù)中心、加密貨幣和人工智能相關的電力消耗到2026年,會大致相當于日本全國的用電量。
OpenAI首席執(zhí)行官阿爾特曼曾在麻省理工學院的一次活動上表示,訓練GPT-4的成本至少為1億美元,而Anthropic首席執(zhí)行官Dario Amodei預測,未來訓練模型的成本可能達到1000億美元。
此外,使用LLM所需的工具和技術的復雜性也增加了開發(fā)人員的學習曲線。從訓練到部署,整個過程耗時漫長,減緩了開發(fā)速度。劍橋大學的一項研究顯示,公司可能需要90天或更長時間才能部署一個機器學習模型。
LLM的另一個重大問題是容易產(chǎn)生“幻覺”——即模型生成的輸出看似合理,但實際上并不正確。這是由于LLM的訓練方式是根據(jù)數(shù)據(jù)中的模式預測下一個最可能的單詞,而非真正理解信息。因此,LLM可能會自信地生成虛假陳述、編造事實或以荒謬的方式組合不相關的概念。如何檢測和減少這些“幻覺”是開發(fā)可靠且可信賴語言模型的持續(xù)挑戰(zhàn)。
小模型可降低成本
對LLM巨大能源需求的擔憂,以及為企業(yè)提供更多樣化AI選項的市場機會,讓科技公司將注意力逐漸轉向了SLM。
《每日經(jīng)濟新聞》記者注意到,不管是Arcee、Sakana AI和Hugging Face等AI初創(chuàng)公司,還是科技巨頭都在通過SLM和更經(jīng)濟的方式吸引投資者和客戶。
此前,谷歌、Meta、OpenAI和Anthropic都發(fā)布了比旗艦LLM更緊湊、更靈活的小模型。這不僅降低了開發(fā)和部署的成本,也為商業(yè)客戶提供了更便宜的解決方案。鑒于投資者越來越擔心AI企業(yè)的高成本和不確定的回報,更多的科技公司可能會選擇這條道路。即便是微軟和英偉達,如今也先后推出了自己的小模型(SLM)。
SLM是LLM的精簡版本,具有更少的參數(shù)和更簡單的設計,它們需要更少的數(shù)據(jù)和訓練時間——只需幾分鐘或幾小時。這使得SLM更高效,更易于在小型設備上部署。例如,它們可以嵌入到手機中,而無需占用超算資源,從而降低成本,并顯著提升響應速度。
SLM的另一個主要優(yōu)勢是其針對特定應用的專業(yè)化。SLM專注于特定任務或領域,這使它們在實際應用中更加高效。例如,在情緒分析、命名實體識別或特定領域的問答中,SLM的表現(xiàn)往往優(yōu)于通用模型。這種定制化使得企業(yè)能夠創(chuàng)建高效滿足其特定需求的模型。
SLM在特定領域內也不易出現(xiàn)“幻覺”,因為它們通常在更窄、更有針對性的數(shù)據(jù)集上訓練,這有助于模型學習與其任務最相關的模式和信息。SLM的專注性降低了生成不相關、意外或不一致輸出的可能性。
盡管規(guī)模較小,SLM在某些方面的性能并不遜色于大模型。微軟最新推出的Phi-3.5-mini-instruct僅擁有38億個參數(shù),但其性能優(yōu)于Llama3.18B和Mistral7B等參數(shù)遠高于它的模型。美國東北大學(位于美國馬薩諸塞州波士頓,是一所頂尖的私立研究型大學)語言模型研究專家Aaron Mueller指出,擴展參數(shù)數(shù)量并非提高模型性能的唯一途徑,使用更高質量的數(shù)據(jù)訓練也可以產(chǎn)生類似效果。
OpenAI首席執(zhí)行官阿爾特曼在4月的一次活動中表示,他相信當前正處于巨型模型時代的末期,“我們將通過其他方式來提升它們的表現(xiàn)?!?/p>
不過,需要注意的是,雖然SLM的專業(yè)化是一大優(yōu)勢,但也有局限性。這些模型可能在其特定訓練領域之外表現(xiàn)不佳,缺乏廣泛的知識庫,和LLM相比無法生成廣泛主題的相關內容。這一限制要求用戶可能需要部署多個SLM來覆蓋不同的需求領域,從而使AI基礎設施復雜化。
隨著AI領域的快速發(fā)展,小模型的標準可能會不斷變化。東京小模型初創(chuàng)公司Sakana的聯(lián)合創(chuàng)始人兼首席執(zhí)行官David Ha表示,幾年前看似龐大的AI模型,現(xiàn)在看來已經(jīng)顯得“適中”?!按笮】偸窍鄬Φ??!盌avid Ha說道。