美東時間9月9日周二,英偉達發(fā)布新一代Rubin CPX芯片系統(tǒng),專門針對AI視頻生成和軟件開發(fā)等大規(guī)模上下文處理任務,強化AI編碼和視頻處理能力。
Rubin CPX定于2026年底上市,采用卡片形式,可集成到現(xiàn)有服務器設計中或作為獨立計算設備在數(shù)據(jù)中心運行。
這款芯片系統(tǒng)在技術規(guī)格上實現(xiàn)重大突破。Rubin CPX GPU提供30千萬億次浮點(petaflops)運算能力(NVFP4精度),配備128GB GDDR7內存,支持視頻解碼和編碼的硬件,相比英偉達GB300 NVL72系統(tǒng),注意力加速3倍。
完整的Vera Rubin NVL144 CPX平臺在單個機架中集成144個Rubin CPX GPU、144個Rubin GPU和36個Vera CPU,提供8 exaflops AI性能,性能為英偉達GB300 NVL72系統(tǒng)的7.5倍。
英偉達CEO黃仁勛表示,Rubin CPX是首款專為百萬級token處理而構建的CUDA GPU。他說:
"正如RTX革命性地改變了圖形和物理AI,Rubin CPX是首款專為大規(guī)模上下文AI而構建的CUDA GPU,模型可以同時進行數(shù)百萬個知識token的推理。"
英偉達宣稱,新芯片的投資回報率達到30至50倍,部署價值1億美元的新芯片硬件將為客戶帶來高達50億美元收入,即從1億美元的資本支出中獲得高達50億美元的收入。該預測強調了英偉達對AI基礎設施商業(yè)價值的量化努力。
技術創(chuàng)新:分離式推理架構提升效率
Rubin CPX采用分離式推理架構,將AI計算過程分為上下文階段和生成階段。上下文階段需要高吞吐量計算來處理大量輸入數(shù)據(jù),而生成階段則依賴快速內存?zhèn)鬏敽透咚倩ミB。
這種設計允許兩個階段獨立處理,實現(xiàn)計算和內存資源的精準優(yōu)化。Rubin CPX專門針對計算密集型的上下文階段進行優(yōu)化,與現(xiàn)有基礎設施協(xié)同工作,提供3倍的注意力加速性能。
該平臺配備100TB高速內存和每秒1.7千萬億字節(jié)的內存帶寬,通過英偉達Quantum-X800 InfiniBand或Spectrum-X以太網(wǎng)連接,由Dynamo平臺統(tǒng)一協(xié)調。
應用場景:重塑軟件開發(fā)和視頻生成
在軟件開發(fā)領域,Rubin CPX使AI系統(tǒng)能夠處理整個代碼庫,維護跨文件依賴關系,理解倉庫級結構。這將編程助手從自動完成工具轉變?yōu)橹悄軈f(xié)作伙伴,能夠理解"大規(guī)模軟件項目"。
視頻生成方面,該系統(tǒng)可在單個芯片上完成解碼、編碼和處理,AI模型能夠處理多達100萬個token的一小時內容。這為長視頻內容生成提供了前所未有的連貫性和記憶能力。
多家公司已表達合作意向。代碼生成公司Cursor計劃使用該技術進行代碼生成,視頻創(chuàng)作平臺Runway將其應用于視頻生成工作流程,AI研究公司Magic則計劃利用該技術構建具有1億token上下文窗口的基礎模型。
市場影響:鞏固英偉達AI基礎設施優(yōu)勢
Rubin CPX的發(fā)布進一步鞏固了英偉達在AI基礎設施領域的領先地位。據(jù)分析師估計,英偉達的數(shù)據(jù)中心業(yè)務本財年收入有望達到1840億美元,超過業(yè)內其他公司的總收入。
該產品體現(xiàn)了英偉達在硬件和軟件創(chuàng)新方面的持續(xù)投入,這種速度是競爭對手尚未匹及的。通過專門針對特定AI工作負載優(yōu)化硬件,英偉達繼續(xù)保持行業(yè)對其產品的依賴。
新平臺預計將為企業(yè)構建下一代生成式AI應用創(chuàng)造新的可能性,特別是在需要處理大規(guī)模上下文的高價值推理用例中。這標志著AI基礎設施從通用計算向專用優(yōu)化的重要轉變。