今天(3月17日),距離Sora發(fā)布剛好一個月。這一個月時間可能是科技史上最密集的AI動態(tài)發(fā)布月。
在AI算力層,英偉達(dá)獨孤求敗,市值突破了2.2萬億美元,一躍成為全球市值第三大科技公司,僅次于微軟與蘋果。
但仍然有源源不斷的挑戰(zhàn)者出現(xiàn),Groq、Cerebras都在近期發(fā)布了最新的AI芯片。他們會對英偉達(dá)構(gòu)成威脅嗎?
在AI生成視頻領(lǐng)域,Sora開啟了AI視頻的“Midjourney時刻”,多模態(tài)模型元年開啟,比人們預(yù)期的時刻提前了至少半年。
在大語言模型層,除了OpenAI沒有發(fā)布大的產(chǎn)品更新之外,它的一眾競爭對手,從大廠的谷歌、蘋果,到AI獨角獸Anthropic、Mistral、Inflection,都發(fā)布了最新代的大模型。
在AI應(yīng)用層,人們期待的AI原生“super app”似乎還沒有出現(xiàn)。A16z近期剛剛公布AI應(yīng)用Top 100,ChatGPT仍然牢牢占據(jù)首位。
而且,A16z發(fā)現(xiàn),與2023年9月發(fā)布的報告相比,榜單上超過40%的公司都是新公司。
具身智能是過去一個月最熱門的AI落地方向,英偉達(dá)成立了具身智能實驗室,并且投資了Figure AI。Figure AI的首款人形機(jī)器人產(chǎn)品,在演示Demo中已經(jīng)可以實現(xiàn)端到端的自然語言交互。
今天也剛好是GPT-4發(fā)布一周年。但與去年GPT-4發(fā)布所帶來的一整年的熱度相比,人們對Sora的熱情似乎消退的更快。
一方面是因為Sora沒有公測,一切討論都僅限于官方的幾十個視頻與沒有技術(shù)細(xì)節(jié)的技術(shù)報告,另一方面是因為大家對于AI沖擊的感受閾值在變高,變得更加理性。
大模型改變了很多,但目前為止沒有改變的更多。對待大模型的態(tài)度,人們也被分成了技術(shù)信仰派與市場信仰派。
沒有人能準(zhǔn)確預(yù)測行業(yè)的變化,但通過記錄與了解行業(yè)正在發(fā)生的信息,可以幫助我們更好地做出判斷。
以下是「甲子光年」匯總的Sora發(fā)布一個月以來發(fā)生的重要AI事件。
AI算力
Lambda完成3.2億美元C輪融資
2月16日,人工智能云服務(wù)提供商Lambda獲得了3.2億美元的C輪融資,用于構(gòu)建基于GPU的服務(wù),提供由數(shù)千個英偉達(dá)加速器組成的人工智能訓(xùn)練集群。
該輪融資由多家風(fēng)險投資基金領(lǐng)投,包括B Capital、SK Telecom、T. Rowe Price Associates, Inc.,以及現(xiàn)有投資者Crescent Cove、Mercato Partners、1517 Fund、Bloomberg Beta和Gradient Ventures等。
Lambda正準(zhǔn)備部署“數(shù)以萬計”的英偉達(dá)GPU,包括目前最頂級的H100 Hopper加速器以及英偉達(dá)即將推出的G200 GPU加速器,后者的性能將是H100的兩倍。Lambda還希望部署英偉達(dá)的混合GH200 CPU/GPU超級芯片。
英偉達(dá)首次公開目前最快AI超算:搭載4608個H100 GPU
2月18日,英偉達(dá)首次向外界公布了其最新的面向企業(yè)的AI超級計算機(jī)Eos,同時也是英偉達(dá)目前速度最快的AI超級計算機(jī)。
Eos共配備了4608個英偉達(dá)H100 GPU,同時還配備了1152個英特爾Xeon Platinum 8480C處理器(每個CPU有56個內(nèi)核)。Eos還采用了英偉達(dá)Mellanox Quantum-2 InfiniBand技術(shù),數(shù)據(jù)傳輸速度高達(dá)400 Gb/s,對訓(xùn)練大型AI模型和系統(tǒng)擴(kuò)展至關(guān)重要。
英偉達(dá)公布數(shù)據(jù)顯示,在最新的全球Top500超級計算機(jī)當(dāng)中,Eos位居全球第九,其峰值性能更是達(dá)到了188.65 Peta FLOPS。
三星電子在硅谷成立新團(tuán)隊,開發(fā)通用人工智能芯片
2月20日消息,知情人士透露,三星電子已在硅谷成立新團(tuán)隊,開發(fā)通用人工智能芯片。據(jù)悉,谷歌前開發(fā)人員Woo Dong-hyuk將領(lǐng)導(dǎo)該團(tuán)隊。
Groq發(fā)布LPU,推理速度較英偉達(dá)GPU提高十倍
2月23日,Groq推出了一款全新的AI芯片LPU,宣稱做到了“地表最強推理”——在Groq上運行大模型的推理速度,較英偉達(dá)GPU提高10倍,而成本只有其十分之一。
Groq的芯片采用成熟的14nm制程,搭載了230MB的SRAM來保證內(nèi)存帶寬,片上內(nèi)存帶寬達(dá)到了80TB/s。在算力層面,Gorq芯片的整型(8位)運算速度為750TOPs,浮點(16位)運算速度則為188TFLOPs。