<legend id="p2s3f"></legend>

    1. <kbd id="p2s3f"><rp id="p2s3f"></rp></kbd>

      俺来也俺也啪www色,亚洲国产中文乱,欧美中文字幕精品人妻,亚洲精品成人,午夜诱惑,亚洲原创无码,亚洲中文国产字幕,全亚洲精品成人

      黃仁勛:龍蝦就是新操作系統! 2026澳門天天六開彩免費資料 英偉達7種芯片拼出算力怪獸

      夢晨 henry 發自 凹非寺 2026澳門天天彩免費正版資料
      量子位 | 公眾號 QbitAI
      英偉達GTC 2026很不尋常,黃仁勛遲到了15分鐘。

      今年有450家企業贊助、1000場技術分會、2000位演講者、110臺機器人,這樣的規模已經不像一場技術會議,更像AI行業的年度朝圣。

      皮衣老黃站在舞臺中央,接受了新稱號“Token之王”。

      這次他沒有直奔芯片發布,而是花了整整一個小時,從25年前的GeForce游戲顯卡講起,講到20年前的CUDA,講到10年前的RTX渲染技術,講到云計算合作伙伴,再講到今天的爆火OpenClaw和token經濟。

      AI從感知到生成到推理再到執行,每一步都需要生成更多token,消耗更多算力。

      所有這一切鋪墊,只為引出一個數字:

      英偉達到2027年營收預計至少達到1萬億美元。

      去年GTC上,我看到了5000億美元的高確信需求。今年,站在同一個舞臺上,這個數字變成了1萬億美元,覆蓋Blackwell和Rubin到2027年的訂單。
      而且我確定,實際需求會比這更高。
      就在這個瞬間,與現場觀眾的掌聲和歡呼聲一同高漲的是英偉達股價。

      Token工廠經濟學:老黃教全球CEO看一張圖

      只有英偉達的Keynote,你才會看到去年的slide再出現一次。
      而老黃稱這是全球CEO都要仔仔細細研究的一張圖。

      縱軸是Token吞吐量(每瓦產出多少Token),橫軸是Token速率(每秒生成多少Token)。

      吞吐量代表你的工廠產能,速率代表AI的“聰明程度”,模型越大、上下文越長、思考越深,速率就越低,但每個Token越值錢。

      老黃把這張圖變成了一套完整的商業模型。

      免費層:高吞吐、低速率,用來獲客。
      中間層:$3-$6/百萬Token,服務普通用戶。
      高級層:$45/百萬Token,大模型深度推理。
      頂級層:$150/百萬Token,超長研究任務、關鍵路徑實時響應。

      去年Semi Analysis做了一次有史以來最大規模的AI推理基準測試。結果顯示,Grace Blackwell NVLink 72的每瓦token吞吐量,比上一代Hopper H200高出50倍。

      而黃仁勛自己說說的35倍。對此,Semi Analysis創始人公開表示:“黃仁勛在sand bagging(故意保留余地)”。

      老黃說沒錯,我就說故意的,實際是50倍,

      每瓦性能決定了一切。

      因為每座數據中心的功率都是物理約束,一座1GW的AI工廠永遠不會變成2GW。在固定功率下,誰的每瓦token產出更高,誰的token成本就更低。

      這就是Vera Rubin存在的理由:

      作為下一代計算平臺,再次將每瓦token吞吐量提高2-10倍。

      Vera Rubin:十年千萬倍加速

      Hopper時代老黃還會舉起一塊芯片秀給觀眾看,但那個時代已經結束了。

      去年我說Hopper的時候,會舉起一塊芯片,那很可愛。
      但這是Vera Rubin,當人們想到Vera Rubin,人們想到的是整個系統。

      Vera Rubin是英偉達有史以來最復雜的AI計算系統。

      7種芯片,5種機架,垂直集成、端到端優化成一臺巨型計算機:

      Rubin GPU
      全新架構,支持NVLink 72全互聯,3.6 exaflops算力,260TB/s全對全帶寬。
      Vera CPU
      全新數據中心CPU,全球唯一采用LPDDR5的服務器處理器,單線程性能和能效比出色。老黃原本沒打算單獨賣CPU,但Vera賣得太好,這已經確定是一個數十億美元的業務了。
      Groq LP30
      世界上從未見過的第三代芯片,500MB片上SRAM,確定性數據流處理器,靜態編譯、軟件調度,專為推理而生。
      BlueField 4 DPU + CX9網卡
      全新存儲平臺,共同構成了面向AI原生的全新存儲基礎設施。
      NVLink Switch
      第六代NVLink交換芯片,提供大規模MoE模型所需的快速、無縫的GPU到GPU通信
      Spectrum X CPO交換機
      全球首款量產的共封裝光學(Co-Packaged Optics)交換機,電子直接轉光子。

      在同一座1GW數據中心里,從Grace Blackwell到Vera Rubin + Groq,token生成速率從200萬跳到7億。‘

      兩年時間,350倍。

      摩爾定律在同樣的時間里能給多少?大約1.5倍。

      350倍不是靠芯片上多塞幾個晶體管實現的。當算力密度卷到這個程度,瓶頸早就轉移到了芯片之外:散熱和互聯。

      Vera Rubin的答案是兩大變化,一個關于水,一個關于光。

      關于水,Vera Rubin采用100%液冷方案,連NVLink交換機都泡在液冷系統里。

      互聯不再靠外部線纜,而是在液冷模塊內部做板級/背板式集成互聯。

      線纜全部消失了,過去安裝一個機架要兩天,現在兩小時。

      關于光,黃仁勛舉起了世界首款量產的CPO(共封裝光學)交換機。

      傳統交換機里,電信號從芯片出來,經過PCB走線,到達光模塊,在光模塊里完成電-光轉換,再通過光纖傳出去。每一次轉換都有延遲,每一段銅線都有損耗。

      CPO把這條鏈路壓縮到極致:光學器件直接封裝到芯片上,電子在硅片表面就轉換成光子。 沒有光模塊,沒有銅線中轉。英偉達和TSMC聯合發明了一種叫CoUP的封裝工藝,目前全球只有英偉達在量產。

      要讓72塊GPU實現260TB/s的全對全帶寬,如果還用傳統銅纜,信號跑不了太遠,機架尺寸就是物理極限。

      CPO打破了這個限制,光子跑得更遠、損耗更低、能效更高。

      但銅纜和光學不是二選一。

      黃仁勛被問了太多次這個問題,干脆一次說清:

      我們都要,我們需要更多的銅纜產能,更多的光芯片產能,更多的CPO產能。
      十年前的DGX-1,8塊Pascal GPU,170 TFLOPS。

      十年后的Vera Rubin NVLink 72,3.6 ExaFLOPS。

      十年,算力增長四千萬倍。

      高吞吐的歸Rubin,低延遲的歸Groq

      但還有一個問題沒解決。

      NVLink 72在高吞吐區間幾乎無敵,72塊GPU全對全互聯,帶寬拉滿。

      可一旦要求的不是400 token/秒,而是1000 token/秒的極速推理,NVLink 72的帶寬就不夠用了。

      這就是Groq的故事。

      英偉達在2025年底收購了推理芯片公司Groq,后者以“LPU”(Language Processing Unit)著稱。

      Groq的架構和英偉達GPU截然相反:它是一顆確定性數據流處理器,靜態編譯、編譯器調度,沒有動態調度,片上堆了500MB的巨量SRAM,只干一件事,推理。

      此前業界一直猜測英偉達會如何整合這項資產。

      答案來了:不是替代GPU,而是與GPU協同。

      一顆Groq芯片4GB SRAM,一顆Rubin芯片288GB HBM。

      前者極致快,后者極致大。單獨用Groq,裝不下萬億參數模型和海量KV cache;單獨用Rubin,推不到極速token生成。

      英偉達的解法是分離式推理,用Dynamo推理框架把流水線拆開。

      Pre-fill和attention的計算量大,交給Vera Rubin;decode階段的token生成對帶寬敏感、對延遲敏感,卸載給Groq。

      兩顆極端不同的處理器,通過以太網緊密耦合,延遲減半。

      結果在最高價值的推理層級上,再提升35倍吞吐量。同時解鎖了此前根本不存在的新推理層級,千token/秒級別的極速生成。

      黃仁勛給出了配比建議:如果你的工作負載主要是高吞吐,100%上Vera Rubin就夠了。如果你有大量編程、工程級token生成需求,拿出25%的數據中心功率給Groq。

      Groq 3芯片由三星代工,已經量產,預計Q3出貨。

      而Vera Rubin的首個機架,已經在微軟Azure云上跑起來了。

      OpenClaw:AI時代的Linux時刻

      發布會的最后一部分,老黃畫風一轉,開始聊人類歷史上最受歡迎的開源項目OpenClaw。

      OpenClaw能做什么,老黃舉例有人幫60歲的父親自動化了整個精釀啤酒生意,藍牙連接釀造設備,自動生成銷售網站,顧客可以直接下單“龍蝦拉格啤酒”。

      但老黃更在意的是它的本質。他用操作系統的語言重新定義了OpenClaw:

      資源管理:可以調用大語言模型、訪問文件系統、使用工具。

      調度系統:能做cron jobs、分步執行、生成子Agent。

      I/O系統:多模態輸入輸出,你可以沖它揮手,它給你發郵件。

      OpenClaw開源了Agent計算機的操作系統。就像Windows讓我們創造了個人電腦,OpenClaw讓我們創造了個人Agent。
      Windows→PC時代,Linux→服務器時代,HTML→互聯網時代,Kubernetes→云時代,OpenClaw→Agent時代。

      每一次平臺轉移,都催生了一批改變世界的公司。

      企業IT的全部邏輯即將改寫。

      老黃直接斷言:每家SaaS公司都將變成Agent-as-a-Service公司。

      But!

      Agent在企業網絡中能訪問敏感信息、執行代碼、對外通信,“你把這三件事連起來大聲說出來,再想一想……”

      所以英偉達與OpenClaw合作推出了企業版NeMo Claw,加上了策略引擎、網絡護欄、隱私路由器。

      老黃給出了他對未來企業的終極想象:

      未來每個工程師都會有一個年度Token預算。
      他們年薪幾十萬美元,我會在此基礎上再給他們一半的金額作為Token額度。
      這已經是硅谷的新招聘籌碼了:你的offer里帶多少Token?

      Two More Thing

      在發布會上,對于外界備受關注的下一代計算架構Feynman(費曼),老黃也做了預告,并表示計算架構,每年都會有新東西。

      Feynman將帶來全新的GPU、LPU(LP?40)和CPU Rosa。

      新一代的BlueField 5將連接下一代CPU與SuperNIC CX10,并配合新的Kyber技術實現銅線與光學雙擴展——

      這意味著,Feynman將首次同時支持銅線與光學封裝的水平擴展。

      老黃強調,無論是銅線、光學還是CPO,未來都需要更高的容量與帶寬,這正是Feynman的核心突破。

      此外,他還透露,NVIDIA 正與合作伙伴聯合開發英偉達Space?One,一臺將部署在太空的數據中心計算機,開啟“太空算力”的新篇章。 2026新奧歷史開獎記錄香港

      太空中沒有對流,沒有傳導,只有輻射散熱。

      我們得想辦法在太空里給GPU散熱。不過我們有很多優秀的工程師在搞這件事。
      把GPU送上近地軌道,這大概是“AI無處不在”最字面意義上的詮釋了。

      直播回放:https://www.youtube.com/watch?v=jw_o0xr8MWU

      出處:江蘇江大工程管理有限公司

      歡迎向您的朋友推薦本站或本資料,一起交流!