夢晨 henry 發(fā)自 凹非寺 2026澳門天天彩免費正版資料
量子位 | 公眾號 QbitAI
英偉達GTC 2026很不尋常,黃仁勛遲到了15分鐘。
今年有450家企業(yè)贊助、1000場技術(shù)分會、2000位演講者、110臺機器人,這樣的規(guī)模已經(jīng)不像一場技術(shù)會議,更像AI行業(yè)的年度朝圣。
皮衣老黃站在舞臺中央,接受了新稱號“Token之王”。
這次他沒有直奔芯片發(fā)布,而是花了整整一個小時,從25年前的GeForce游戲顯卡講起,講到20年前的CUDA,講到10年前的RTX渲染技術(shù),講到云計算合作伙伴,再講到今天的爆火OpenClaw和token經(jīng)濟。
AI從感知到生成到推理再到執(zhí)行,每一步都需要生成更多token,消耗更多算力。
所有這一切鋪墊,只為引出一個數(shù)字:
英偉達到2027年營收預計至少達到1萬億美元。
去年GTC上,我看到了5000億美元的高確信需求。今年,站在同一個舞臺上,這個數(shù)字變成了1萬億美元,覆蓋Blackwell和Rubin到2027年的訂單。
而且我確定,實際需求會比這更高。
就在這個瞬間,與現(xiàn)場觀眾的掌聲和歡呼聲一同高漲的是英偉達股價。
Token工廠經(jīng)濟學:老黃教全球CEO看一張圖
只有英偉達的Keynote,你才會看到去年的slide再出現(xiàn)一次。
而老黃稱這是全球CEO都要仔仔細細研究的一張圖。
縱軸是Token吞吐量(每瓦產(chǎn)出多少Token),橫軸是Token速率(每秒生成多少Token)。
吞吐量代表你的工廠產(chǎn)能,速率代表AI的“聰明程度”,模型越大、上下文越長、思考越深,速率就越低,但每個Token越值錢。
老黃把這張圖變成了一套完整的商業(yè)模型。
免費層:高吞吐、低速率,用來獲客。
中間層:$3-$6/百萬Token,服務普通用戶。
高級層:$45/百萬Token,大模型深度推理。
頂級層:$150/百萬Token,超長研究任務、關(guān)鍵路徑實時響應。
去年Semi Analysis做了一次有史以來最大規(guī)模的AI推理基準測試。結(jié)果顯示,Grace Blackwell NVLink 72的每瓦token吞吐量,比上一代Hopper H200高出50倍。
而黃仁勛自己說說的35倍。對此,Semi Analysis創(chuàng)始人公開表示:“黃仁勛在sand bagging(故意保留余地)”。
老黃說沒錯,我就說故意的,實際是50倍,
每瓦性能決定了一切。
因為每座數(shù)據(jù)中心的功率都是物理約束,一座1GW的AI工廠永遠不會變成2GW。在固定功率下,誰的每瓦token產(chǎn)出更高,誰的token成本就更低。
這就是Vera Rubin存在的理由:
作為下一代計算平臺,再次將每瓦token吞吐量提高2-10倍。
Vera Rubin:十年千萬倍加速
Hopper時代老黃還會舉起一塊芯片秀給觀眾看,但那個時代已經(jīng)結(jié)束了。
去年我說Hopper的時候,會舉起一塊芯片,那很可愛。
但這是Vera Rubin,當人們想到Vera Rubin,人們想到的是整個系統(tǒng)。
Vera Rubin是英偉達有史以來最復雜的AI計算系統(tǒng)。
7種芯片,5種機架,垂直集成、端到端優(yōu)化成一臺巨型計算機:
Rubin GPU
全新架構(gòu),支持NVLink 72全互聯(lián),3.6 exaflops算力,260TB/s全對全帶寬。
Vera CPU
全新數(shù)據(jù)中心CPU,全球唯一采用LPDDR5的服務器處理器,單線程性能和能效比出色。老黃原本沒打算單獨賣CPU,但Vera賣得太好,這已經(jīng)確定是一個數(shù)十億美元的業(yè)務了。
Groq LP30
世界上從未見過的第三代芯片,500MB片上SRAM,確定性數(shù)據(jù)流處理器,靜態(tài)編譯、軟件調(diào)度,專為推理而生。
BlueField 4 DPU + CX9網(wǎng)卡
全新存儲平臺,共同構(gòu)成了面向AI原生的全新存儲基礎設施。
NVLink Switch
第六代NVLink交換芯片,提供大規(guī)模MoE模型所需的快速、無縫的GPU到GPU通信
Spectrum X CPO交換機
全球首款量產(chǎn)的共封裝光學(Co-Packaged Optics)交換機,電子直接轉(zhuǎn)光子。
在同一座1GW數(shù)據(jù)中心里,從Grace Blackwell到Vera Rubin + Groq,token生成速率從200萬跳到7億。‘
兩年時間,350倍。
摩爾定律在同樣的時間里能給多少?大約1.5倍。
350倍不是靠芯片上多塞幾個晶體管實現(xiàn)的。當算力密度卷到這個程度,瓶頸早就轉(zhuǎn)移到了芯片之外:散熱和互聯(lián)。
Vera Rubin的答案是兩大變化,一個關(guān)于水,一個關(guān)于光。
關(guān)于水,Vera Rubin采用100%液冷方案,連NVLink交換機都泡在液冷系統(tǒng)里。
互聯(lián)不再靠外部線纜,而是在液冷模塊內(nèi)部做板級/背板式集成互聯(lián)。
線纜全部消失了,過去安裝一個機架要兩天,現(xiàn)在兩小時。
關(guān)于光,黃仁勛舉起了世界首款量產(chǎn)的CPO(共封裝光學)交換機。
傳統(tǒng)交換機里,電信號從芯片出來,經(jīng)過PCB走線,到達光模塊,在光模塊里完成電-光轉(zhuǎn)換,再通過光纖傳出去。每一次轉(zhuǎn)換都有延遲,每一段銅線都有損耗。
CPO把這條鏈路壓縮到極致:光學器件直接封裝到芯片上,電子在硅片表面就轉(zhuǎn)換成光子。 沒有光模塊,沒有銅線中轉(zhuǎn)。英偉達和TSMC聯(lián)合發(fā)明了一種叫CoUP的封裝工藝,目前全球只有英偉達在量產(chǎn)。
要讓72塊GPU實現(xiàn)260TB/s的全對全帶寬,如果還用傳統(tǒng)銅纜,信號跑不了太遠,機架尺寸就是物理極限。
CPO打破了這個限制,光子跑得更遠、損耗更低、能效更高。
但銅纜和光學不是二選一。
黃仁勛被問了太多次這個問題,干脆一次說清:
我們都要,我們需要更多的銅纜產(chǎn)能,更多的光芯片產(chǎn)能,更多的CPO產(chǎn)能。
十年前的DGX-1,8塊Pascal GPU,170 TFLOPS。
十年后的Vera Rubin NVLink 72,3.6 ExaFLOPS。
十年,算力增長四千萬倍。
高吞吐的歸Rubin,低延遲的歸Groq
但還有一個問題沒解決。
NVLink 72在高吞吐區(qū)間幾乎無敵,72塊GPU全對全互聯(lián),帶寬拉滿。
可一旦要求的不是400 token/秒,而是1000 token/秒的極速推理,NVLink 72的帶寬就不夠用了。
這就是Groq的故事。
英偉達在2025年底收購了推理芯片公司Groq,后者以“LPU”(Language Processing Unit)著稱。
Groq的架構(gòu)和英偉達GPU截然相反:它是一顆確定性數(shù)據(jù)流處理器,靜態(tài)編譯、編譯器調(diào)度,沒有動態(tài)調(diào)度,片上堆了500MB的巨量SRAM,只干一件事,推理。
此前業(yè)界一直猜測英偉達會如何整合這項資產(chǎn)。
答案來了:不是替代GPU,而是與GPU協(xié)同。
一顆Groq芯片4GB SRAM,一顆Rubin芯片288GB HBM。
前者極致快,后者極致大。單獨用Groq,裝不下萬億參數(shù)模型和海量KV cache;單獨用Rubin,推不到極速token生成。
英偉達的解法是分離式推理,用Dynamo推理框架把流水線拆開。
Pre-fill和attention的計算量大,交給Vera Rubin;decode階段的token生成對帶寬敏感、對延遲敏感,卸載給Groq。
兩顆極端不同的處理器,通過以太網(wǎng)緊密耦合,延遲減半。
結(jié)果在最高價值的推理層級上,再提升35倍吞吐量。同時解鎖了此前根本不存在的新推理層級,千token/秒級別的極速生成。
黃仁勛給出了配比建議:如果你的工作負載主要是高吞吐,100%上Vera Rubin就夠了。如果你有大量編程、工程級token生成需求,拿出25%的數(shù)據(jù)中心功率給Groq。
Groq 3芯片由三星代工,已經(jīng)量產(chǎn),預計Q3出貨。
而Vera Rubin的首個機架,已經(jīng)在微軟Azure云上跑起來了。
OpenClaw:AI時代的Linux時刻
發(fā)布會的最后一部分,老黃畫風一轉(zhuǎn),開始聊人類歷史上最受歡迎的開源項目OpenClaw。
OpenClaw能做什么,老黃舉例有人幫60歲的父親自動化了整個精釀啤酒生意,藍牙連接釀造設備,自動生成銷售網(wǎng)站,顧客可以直接下單“龍蝦拉格啤酒”。
但老黃更在意的是它的本質(zhì)。他用操作系統(tǒng)的語言重新定義了OpenClaw:
資源管理:可以調(diào)用大語言模型、訪問文件系統(tǒng)、使用工具。
調(diào)度系統(tǒng):能做cron jobs、分步執(zhí)行、生成子Agent。
I/O系統(tǒng):多模態(tài)輸入輸出,你可以沖它揮手,它給你發(fā)郵件。
OpenClaw開源了Agent計算機的操作系統(tǒng)。就像Windows讓我們創(chuàng)造了個人電腦,OpenClaw讓我們創(chuàng)造了個人Agent。
Windows→PC時代,Linux→服務器時代,HTML→互聯(lián)網(wǎng)時代,Kubernetes→云時代,OpenClaw→Agent時代。
每一次平臺轉(zhuǎn)移,都催生了一批改變世界的公司。
企業(yè)IT的全部邏輯即將改寫。
老黃直接斷言:每家SaaS公司都將變成Agent-as-a-Service公司。
But!
Agent在企業(yè)網(wǎng)絡中能訪問敏感信息、執(zhí)行代碼、對外通信,“你把這三件事連起來大聲說出來,再想一想……”
所以英偉達與OpenClaw合作推出了企業(yè)版NeMo Claw,加上了策略引擎、網(wǎng)絡護欄、隱私路由器。
老黃給出了他對未來企業(yè)的終極想象:
未來每個工程師都會有一個年度Token預算。
他們年薪幾十萬美元,我會在此基礎上再給他們一半的金額作為Token額度。
這已經(jīng)是硅谷的新招聘籌碼了:你的offer里帶多少Token?
Two More Thing
在發(fā)布會上,對于外界備受關(guān)注的下一代計算架構(gòu)Feynman(費曼),老黃也做了預告,并表示計算架構(gòu),每年都會有新東西。
Feynman將帶來全新的GPU、LPU(LP?40)和CPU Rosa。
新一代的BlueField 5將連接下一代CPU與SuperNIC CX10,并配合新的Kyber技術(shù)實現(xiàn)銅線與光學雙擴展——
這意味著,F(xiàn)eynman將首次同時支持銅線與光學封裝的水平擴展。
老黃強調(diào),無論是銅線、光學還是CPO,未來都需要更高的容量與帶寬,這正是Feynman的核心突破。
此外,他還透露,NVIDIA 正與合作伙伴聯(lián)合開發(fā)英偉達Space?One,一臺將部署在太空的數(shù)據(jù)中心計算機,開啟“太空算力”的新篇章。 2026新奧歷史開獎記錄香港
太空中沒有對流,沒有傳導,只有輻射散熱。
我們得想辦法在太空里給GPU散熱。不過我們有很多優(yōu)秀的工程師在搞這件事。
把GPU送上近地軌道,這大概是“AI無處不在”最字面意義上的詮釋了。
直播回放:https://www.youtube.com/watch?v=jw_o0xr8MWU