老黃 CES 2026 不是發佈晶片,而是在重寫規則:英偉達「通吃」的三步走
從 Rubin 全家桶到推理架構重寫,再到 Physical AI 進軍現實世界:拆解黃仁勳 CES 2026 的三步走,以及它將如何改變未來十年的工業邏輯。
如果你以為黃仁勳在 CES 2026 上只是發布一顆「更快的 GPU」,那你可能把重點看反了。
這場演講像一個訊號:英偉達不滿足於當「AI 軍火商」——賣你一張卡,讓你自己去拼 CPU、網卡、交換機、儲存、冷卻、軟體。它想要的更像是「國家電網」:不賣零件,賣整座發電廠;不賣單一性能,賣總體成本和產能;不搶一個產品段位,搶一整個產業的價值鏈。
我把它拆成一句話:通吃。不是情緒化的陰謀論,而是能在產品、架構、供應鏈、軟體生態上對得上的一盤棋。
下面用「三步走」把這盤棋講清楚:它到底要鎖誰、殺誰、吃哪個未來。
先把背景说清:为什么这一代要「全家桶」?
科技行者对这场 CES 演讲的整理提到一个细节:英伟达内部原本有条规则——新一代产品通常只改一两个核心零件,其余沿用或小改就好;但 Rubin 这一代把规则打破了,Vera CPU、Rubin GPU、NVLink 6 交换、ConnectX-9 SuperNIC、BlueField-4 DPU、Spectrum-X 光子交换等多颗晶片「一起重新设计」,投入的工程量以「工程师年」计(同文亦提到摩尔定律放缓、模型规模与 token 压力持续增加等背景):见科技行者整理。
你可以把它理解为:靠单点迭代跟不上算力需求的增长,所以干脆把整台机器的每一块都换掉。而换的同时,顺手把「你能不能选别家零件」这件事也一并做成了结构性限制。
这就是第一步的真正出发点:从「卖卡」变成「卖系统」。
第一步:锁死基建——「我不卖零件了,我卖发电厂」
以前你做 AI 算力采购,很像装机:
- GPU 可以买英伟达
- CPU 你可以选英特尔或 AMD
- 网卡、交换机、储存、冷却,你可以去不同供应商做拼装
这种模式的好处是:客户有选择、议价有空间、架构可以混搭。坏处是:交付慢、整体效能上限受最短板限制、运维成本难控,尤其在大规模部署时更明显。
而 Rubin NVL72 这类产品(无论你把它叫「机柜」还是「超级系统」),其实是在把选择题改成填空题:
- 你买的不是 GPU,而是「一整个可直接上线的算力工厂」
- CPU、互联、网络、DPU、交换,都被包进同一个系统设计与同一套优化假设里
这一步的杀伤力不在于某一个指标,而在于系统级垄断:客户在做采购决策时,评估不再是「哪张卡更快」,而是「哪个系统更便宜、更快交付、更省电、更好管」。
你要反驳它也很难,因为它把战场搬到了「总账」:
- 不只看单卡性能,还看互联瓶颈、数据搬运成本、冷却电费、机房密度、运维人力
- 一旦算的是「每 100 万 token 的总成本」或「每瓦产出」,很多单点性价比的讨论就失效了
你可以把这理解成「云厂式打法」:它把自己做成半个云供应商的形态,让采购越来越像买基础设施,而不是买硬件零件。
第二步:绞杀对手——「推理市场的降维打击」
训练很贵,但推理才是长期现金流。问题是,推理市场一直有个矛盾:
- 推理需求可能是海量、长期、稳定的(客服、搜索、推荐、办公自动化)
- 但用顶级 GPU 去跑推理,像用法拉利送外卖:爽,但贵得不合理
这也正是「便宜推理晶片」一直有人想做、也一直有资本愿意下注的原因。
黄仁勋的策略在于:他没有跟你一起卷「单卡便宜」,而是把问题重新定义成:
推理贵,很多时候不是算力贵,而是记忆体/显存和数据搬运贵。
你只要接受这个前提,对策就会变成「重写架构」:
- 把「算」和「记」拆开
- 让 GPU 更专注算,让数据搬运、网络、IO 由其他专用晶片承担
- 用更便宜的记忆体路线去换掉昂贵的配置
这种做法之所以有效,是因为它不是在同一条跑道上比速度,而是在旁边盖了一条新高速:
当对手还在把「便宜」当成唯一武器时,英伟达用系统架构把「便宜的边界」重新画了一遍。对手就算做出更便宜的单卡,也可能在整体吞吐、网络、运维上输得更快。
更重要的是,这一步跟第一步是互相咬合的:你越接受英伟达的一体化系统,就越难把推理的某一段替换成别家的晶片;而你越依赖那套软件/互联生态,迁移成本就越像云服务的”出云费用”,越拖越重。
第三步:入侵现实——Physical AI,机器人的 ChatGPT 时刻
前两步是「算力产能」的战争;第三步是「把 AI 变成产业本身」。
如果说过去十年的 AI 主要存在于屏幕里(搜索、广告、内容、助手),那接下来十年最大的一块蛋糕,很可能在屏幕外:工厂、仓储、物流、车、机器人、城市基础设施。
Physical AI(物理 AI)最大的阻力不是模型不够聪明,而是现实世界试错太贵:
- 软件错了,最多崩溃重启
- 机器人错了,是摔坏硬件、砸坏货物、甚至伤人
所以最值钱的不是”会不会做机器人”,而是”能不能把训练与测试的成本压到可规模化的程度”。这也是为什么模拟、数字孪生、虚拟世界一直是大厂必争之地:你在虚拟世界里摔一百万次,成本接近零;在现实世界里摔一次,成本可能是事故。
这一点上,英伟达的套路很清晰:用平台把”灵魂”(模型/数据/模拟环境/开发工具)免费或半免费地给你,让你养成依赖;再用”肉体”(硬件与算力)把价值收回来。
这不是道德判断,而是一种商业结构:平台一旦成为行业标准,硬件就不再只是硬件,而是标准的入口费。
「通吃」真正的含義:把競爭從產品層推到平台層
回頭看這三步,你會發現它其實是在做同一件事:把競爭從「某一個零件」推到「整個平台」。
- 產品層:你可以比單卡性能、比價格、比供貨
- 平台層:你要比軟體生態、比開發者、比交付效率、比運維體系、比總體成本、比客戶遷移成本
平台層的競爭,最可怕的是「輸了就不是少賣幾張卡」,而是「輸了就被排除在採購清單之外」。當客戶說“我買的是一整個系統”,你就很難再靠某個零件挖進去。
我自己的提醒:這盤棋也不是沒有風險
把話說滿很容易,把風險說清楚更有價值。英偉達這種「通吃」打法,至少面臨三種結構性風險:
- 供應鏈與交付壓力:越一體化,越需要每一段都不掉鏈子。一顆晶片延遲,就可能拖累整個系統交付。
- 監管與客戶反彈:當“全家桶”讓替換變得困難,客戶和監管的反壟斷敏感度會上升,尤其在關鍵基礎設施領域。
- 技術范式突變:如果未來的推理/訓練路線出現顛覆性變化(例如極端高效的新架構、分散式路線重構),平台優勢可能被削弱。但這需要足夠大級別的跳躍,不是小修小補。
我更願意把它理解成:這是一種“高杠桿策略”。它帶來超強的掌控力,也帶來超高的結構性風險,但英偉達顯然願意押這個注。
結語:英偉達不再只賣顯卡,而是賣整套基礎設施
整場 CES 2026,如果你只盯着”哪張卡更強”,你其實是在用舊問題解讀新世界。
真正的變化是:英偉達正把自己從一家公司變成一套基礎設施——像電網、像雲、像工業時代的標準件供應商。你可以不喜歡它的姿勢,但如果你要在 AI 時代做訓練、做推理、做機器人、做自動駕駛,很可能都要與它的平台發生關係。
這就是我在這場變局里最想提醒你的真相:未來十年,最值錢的不是“某個零件的性能”,而是“誰掌握了平台的入口”。
參考資料 / References:
分享文章
留言評論
0 則評論暫無評論,搶先發表你的看法吧!
相關文章
2026 年 AI 戰場轉移:為何周鴻禕預言「百億智能體」時代,訓練已不再是重點?
當大模型訓練成為少數巨頭的遊戲,2026 年的競爭焦點已全面轉向「推理」與「智能體」。本文深度解析周鴻禕的百億智能體預言,探討從 Model 到 Agent 的技術典範轉移,並為開發者提供構建垂直領域智能體的實戰思路。
蘋果 20 億美元豪賭「無聲語音」:當 Siri 學會讀唇語,AI 互動的終局之戰已開打
蘋果以 20 億美元收購以色列新創 Q.ai,押注「無聲語音識別」技術。這不僅是為了拯救 Siri,更是為了在 2026 年的 AI 硬體大戰中,透過 AirPods 和智慧眼鏡建立一道名為「隱私與感知」的護城河。本文深度解析這項技術的原理、開發者影響及潛在的隱私風暴。
萬億美元賽道開啟:IFR 報告揭示 AI 機器人從實驗室走向產業化的關鍵轉折
IFR 最新報告揭示 AI 機器人正經歷從支持技術到核心賦能者的範式轉變,物流、製造率先突破,但技能差距與規模化部署仍是最大挑戰。