開源大模型元老,發(fā)布重磅更新。
北京時間4月6日凌晨,美國科技巨頭Meta推出了開源人工智能模型Llama 4。據(jù)介紹,該模型目前目前有Scout和Maverick兩個版本,是Meta迄今為止最先進(jìn)的模型,也是同類產(chǎn)品中多模態(tài)性最強的模型。
在DeepSeek引發(fā)模型開源浪潮以前,Meta一直是開源模型的領(lǐng)先玩家及重要的行業(yè)奠基者。在ChatGPT橫空出世7個多月后,Meta就率先宣布開源Llama 2,并且可免費商用。這也成為大模型發(fā)展的分水嶺,是開源模型社區(qū)的歷史性時刻。Llama第四代模型的發(fā)布,不僅是Meta應(yīng)對DeepSeek等新興開源勢力的一次“回?fù)簟?,同時也推動了開源模型技術(shù)的進(jìn)一步發(fā)展和生態(tài)的進(jìn)一步完善。
大規(guī)模、多模態(tài)、長文本的Llama 4發(fā)布
北京時間4月6日凌晨,Meta發(fā)布Llama 4系列首批模型,包括兩款高效模型Llama 4 Scout、Llama 4 Maverick。此外,Meta還預(yù)覽了其迄今最強大最智能的模型——Llama 4 Behemoth,是“新模型中的教師”。
Llama 4模型是Llama系列模型中首批采用混合專家(MoE)架構(gòu)的模型。這一模型也是DeepSeek系列模型采用的架構(gòu),與傳統(tǒng)的稠密模型相比,在MoE架構(gòu)中,單獨的token只會激活全部參數(shù)中的一小部分,訓(xùn)練和推理的計算效率更高。
首先,Llama 4的第一大特點是參數(shù)規(guī)模大,最先進(jìn)的Llama 4 Behemoth總參數(shù)高達(dá)2萬億(作為對照,DeepSeek-R1總參數(shù)規(guī)模為6710億)。
其中,Llama 4 Scout面向文檔摘要與大型代碼庫推理任務(wù),專為高效信息提取與復(fù)雜邏輯推理打造,共有16位“專家”、1090億參數(shù)、170億激活參數(shù)量;Llama 4 Maverick則專注于多模態(tài)能力,支持視覺和語音輸入,具備頂級的多語言支持與編程能力,共有128位“專家”、4000億參數(shù)、170億激活參數(shù)量;Llama 4 Behemoth(預(yù)覽版)則是Meta未來最強大的AI模型之一,具備令人矚目的超大規(guī)模參數(shù)架構(gòu),具有2880億激活參數(shù)量,總參數(shù)高達(dá)2萬億。
其次,Llama 4的另外一大特點是多模態(tài)能力突出。作為原生多模態(tài)模型,Llama 4采用了早期融合(Early Fusion)技術(shù),可以用海量的無標(biāo)簽文本、圖片和視頻數(shù)據(jù)一起來預(yù)訓(xùn)練模型,實現(xiàn)文本和視覺token無縫整合到統(tǒng)一的模型框架里。
據(jù)Meta介紹,Llama用各種圖像和視頻幀靜止圖像訓(xùn)練兩個模型,以賦予它們廣泛的視覺理解能力,包括時間活動和相關(guān)圖像。這支持多圖像輸入與文本提示的無縫交互,用于視覺推理和理解任務(wù)。模型在預(yù)訓(xùn)練中最多使用48張圖像,后訓(xùn)練中測試了最多8張圖像,結(jié)果良好。
最后,Llama在長文本能力上也取得了突破,具有超大的上下文窗口長度。Llama 4 Scout 模型支持高達(dá)1000萬token的上下文窗口,刷新了開源模型的紀(jì)錄,而市場上其他領(lǐng)先模型如GPT-4o也未能達(dá)到此規(guī)模。超大上下文窗口使Llama 4在處理長文檔、復(fù)雜對話和多輪推理任務(wù)時表現(xiàn)出色。
大模型競爭趨于白熱化
作為開源模型社區(qū)的“領(lǐng)頭羊”和佼佼者,Llama(Large Language Model Meta AI)系列模型由Meta在2022年推出。2023年,為應(yīng)對ChatGPT等領(lǐng)先閉源模型的挑戰(zhàn),Meta率先宣布開源Llama 2,并且可免費商用。這一開源之舉激活了開發(fā)者社區(qū)的創(chuàng)新潛力,此后基于Llama 2構(gòu)建的應(yīng)用項目數(shù)量大大增加,覆蓋各種領(lǐng)域,形成了一個充滿活力的生態(tài)系統(tǒng)。
2024年4月,Llama 3正式發(fā)布,在技術(shù)層面實現(xiàn)了諸多突破,最重要的是不僅在單語言任務(wù)上表現(xiàn)卓越,還實現(xiàn)了多模態(tài)處理能力,能夠同時理解并生成文本、圖像、音頻等多種類型的數(shù)據(jù),從而開啟了多模態(tài)的新紀(jì)元。
雖然Meta是開源模型的重要奠基者,但是開源領(lǐng)域的競爭正變得日益激烈和焦灼,尤其是DeepSeek的崛起,對Meta在開源模型社區(qū)的領(lǐng)先地位構(gòu)成了巨大的沖擊。
今年1月末,在DeepSeek剛剛在海外火爆出圈時,就有Meta員工在匿名社區(qū)TeamBlind上爆料稱,僅用550萬美元訓(xùn)練的DeepSeek-V3在基準(zhǔn)測試中已經(jīng)讓Llama模型相形見絀,Meta的工程師們正在爭分奪秒地分析DeepSeek,試圖復(fù)制其中的一切可能技術(shù)。該爆料帖還說,Meta管理層正面臨嚴(yán)峻的財務(wù)壓力,其生成式AI部門數(shù)十位高管,“每個人的年薪都超過了DeepSeek-V3的全部訓(xùn)練費用。如何向公司高層解釋這種投入產(chǎn)出比,已成為他們的噩夢”。
除了DeepSeek以外,阿里巴巴通義千問系列開源大模型也屢屢斬獲佳績。4月2日,全球最大的AI開源社區(qū)Hugging Face更新了大模型榜單,阿里通義千問近期開源的端到端全模態(tài)大模型Qwen2.5-Omni登上總榜榜首。據(jù)了解,阿里至今已向全球開源200多款模型,千問衍生模型數(shù)量已突破10萬,超越美國Llama系列,成為全球最大的開源模型族群。
在Llama 4發(fā)布之際,OpenAI首席執(zhí)行官山姆·奧特曼也對外透露了公司的模型發(fā)布計劃。他表示,OpenAI可能在幾周后發(fā)布最新的推理模型o3和最新的基座模型o4-mini,然后在幾個月后推出GPT-5。
DeepSeek-R2模型何時發(fā)布也備受市場關(guān)注。4月4日,DeepSeek與清華大學(xué)研究團(tuán)隊聯(lián)合發(fā)布題為《獎勵模型的推理時Scaling方法及其在大規(guī)模語言模型中的應(yīng)用》的重磅論文,提出自我原則點評調(diào)優(yōu)(SPCT)與元獎勵模型(Meta Reward Model)兩項核心技術(shù),為提升大語言模型的推理能力提供了全新方法論。雖然官方并未明確R2的發(fā)布時間,但這一成果被視為DeepSeek下一代推理模型R2的重要技術(shù)鋪墊。
技術(shù)的不斷突破及各家大模型的密集推出,表明大模型競爭趨于白熱化,彼此間你追我趕將是未來一段時間的常態(tài)。業(yè)內(nèi)人士分析稱,模型能力的持續(xù)提升,推動大模型競爭進(jìn)入推理強化和應(yīng)用拓展的下半場賽程。個人智能體潛力初步顯現(xiàn),行業(yè)應(yīng)用漸次走深,開源開放日益成為大模型的核心競爭力組成。大算力、多模態(tài)、強推理、廣開源、準(zhǔn)數(shù)據(jù)、智能體、深應(yīng)用等,成為大模型發(fā)展的重要趨勢。
責(zé)編:李丹
校對:劉榕枝