甲骨文正在經(jīng)歷其歷史上規(guī)模*的重組。
這家軟件巨頭,計(jì)劃投入高達(dá)16億美元的重組成本,包括向離職員工支付遣散費(fèi)。這次重組的規(guī)模遠(yuǎn)超甲骨文此前披露的任何類似計(jì)劃。加利福尼亞州和華盛頓州最近的WARN文件顯示,已有超過500名員工收到裁員通知,而實(shí)際影響的員工數(shù)量可能超過3000人。
重組的背后是甲骨文業(yè)務(wù)重心的根本性轉(zhuǎn)變,公司正從傳統(tǒng)軟件制造商轉(zhuǎn)型為AI基礎(chǔ)設(shè)施提供商。為了履行與OpenAI和meta等公司簽署的大規(guī)模云基礎(chǔ)設(shè)施協(xié)議,甲骨文需要租賃數(shù)據(jù)中心,配置先進(jìn)的英偉達(dá)芯片,并為這些設(shè)施供電。
根據(jù)彭博一致預(yù)期估算,甲骨文未來幾年將投入數(shù)千億美元用于基礎(chǔ)設(shè)施建設(shè)。僅在德克薩斯州西部的一個(gè)數(shù)據(jù)中心,甲骨文就計(jì)劃每年投入超過10億美元用于現(xiàn)場燃?xì)獍l(fā)電。
這些巨額投資使得甲骨文的現(xiàn)金流在2025年首次轉(zhuǎn)為負(fù)值,這也是該公司自1992年以來的首次為負(fù)。分析師預(yù)計(jì)這一指標(biāo)在未來一年將繼續(xù)惡化,直到2029年才能重新轉(zhuǎn)正。
01
甲骨文的經(jīng)歷并非個(gè)例。微軟在投入數(shù)百億美元建設(shè)數(shù)據(jù)中心并承諾控制成本后,今年裁員約15000人。通過裁員來抵消AI投資成本,已經(jīng)成為主要科技公司普遍采用的策略。根據(jù)行業(yè)追蹤平臺(tái)Layoffs.fyi的數(shù)據(jù),2025年前三個(gè)季度已有超過83000名科技工作者失業(yè),涉及194家公司。
甲骨文多年來在競爭激烈的云基礎(chǔ)設(shè)施市場中遠(yuǎn)遠(yuǎn)落后于前三大供應(yīng)商亞馬遜、微軟和谷歌。如今簽署了重要的云協(xié)議,作為前期成本的“負(fù)現(xiàn)金流”就成為了入場門票。
甲骨文的股價(jià)在2025年上漲近90%,既有可能超過自1999年以來的*年度表現(xiàn)。根據(jù)Forrester的預(yù)測,甲骨文將花費(fèi)16億美元進(jìn)行重組,截至8月31日僅花費(fèi)了4.15億美元,以用于給予那些被辭退的員工,而12月底還將有大約10000個(gè)職位面臨裁減。
AI基礎(chǔ)設(shè)施建設(shè)的邏輯與傳統(tǒng)軟件開發(fā)截然不同。軟件可以快速迭代,應(yīng)用可以靈活部署,但數(shù)據(jù)中心建設(shè)需要長期規(guī)劃,芯片采購需要提前預(yù)訂,電力供應(yīng)需要穩(wěn)定保障。當(dāng)軟件的發(fā)展速度遠(yuǎn)超硬件的供給能力時(shí),整個(gè)產(chǎn)業(yè)就會(huì)遭遇基礎(chǔ)設(shè)施瓶頸的根本性制約。
甲骨文2025年9月10日發(fā)布的財(cái)報(bào)數(shù)據(jù)為這個(gè)問題提供了最直觀的證明。4550億美元的訂單積壓,股價(jià)單日盤中暴漲41%,市值增加近千億美元。甲骨文的AI基礎(chǔ)設(shè)施收入實(shí)現(xiàn)了55%的顯著增長。公司預(yù)計(jì)這一增長勢(shì)頭將持續(xù),并預(yù)測本財(cái)年該業(yè)務(wù)收入將達(dá)到180億美元,五年內(nèi)將達(dá)到1440億美元。
事實(shí)上,雖然訂單業(yè)的數(shù)額很大,但理解起來并不復(fù)雜。就拿甲骨文和OpenAI的大訂單為例,甲骨文主要提供OpenAI提供數(shù)據(jù)中心,讓OpenAI可以把數(shù)以PB級(jí)別的原始數(shù)據(jù)放在這個(gè)數(shù)據(jù)中心的數(shù)據(jù)庫里。
這些數(shù)據(jù)結(jié)構(gòu)包括文本、代碼、JSON文件,還有圖片。OpenAI要對(duì)這些原始數(shù)據(jù)進(jìn)行清洗、去重、標(biāo)注和格式化,進(jìn)而訓(xùn)練自己的大模型。于是甲骨文就要提供一個(gè)足夠大的數(shù)據(jù)庫,以存儲(chǔ)這些數(shù)據(jù)。
然而還有一個(gè)問題,大模型并不能直接理解數(shù)據(jù),它只能理解Tokens。所以甲骨文還要通過這個(gè)數(shù)據(jù)庫,將所有的原始數(shù)據(jù)轉(zhuǎn)換為Tokens,將其“向量化”,因此這個(gè)數(shù)據(jù)庫也被稱作是向量數(shù)據(jù)庫。
甲骨文的數(shù)據(jù)中心另一大作用就是幫助OpenAI實(shí)現(xiàn)調(diào)用。因?yàn)橐粋€(gè)萬億參數(shù)的模型本身可能就占用數(shù)TB的顯存。沒有任何單一的GPU能裝下它。因此,模型被“切片”后,分布加載到這4096個(gè)GPU的顯存中。
那么,當(dāng)OpenAI請(qǐng)求一個(gè)例如包含4096個(gè)NVIDIA H100 GPU的計(jì)算集群,那么甲骨文的數(shù)據(jù)中心就要能*時(shí)間響應(yīng)這個(gè)請(qǐng)求,點(diǎn)亮并調(diào)用這些GPU。
財(cái)報(bào)顯示,甲骨文與亞馬遜、谷歌和微軟合作的多云數(shù)據(jù)庫服務(wù)收入增長率高達(dá)1529%。更夸張地是,甲骨文最近還和OpenAI簽署的協(xié)議價(jià)值高達(dá)3000億美元。
甲骨文現(xiàn)在要做的,是新一代的AI基礎(chǔ)設(shè)施。以O(shè)racle AI Database為例。這個(gè)產(chǎn)品可以讓客戶在甲骨文數(shù)據(jù)庫上直接使用各種大型語言模型,因此,客戶不需要單獨(dú)采購計(jì)算資源、存儲(chǔ)資源和AI模型,跳過了原先復(fù)雜的部署階段。
這種數(shù)據(jù)庫與AI模型的深度集成代表了基礎(chǔ)設(shè)施服務(wù)的新方向,不再是簡單的計(jì)算資源租賃,而是提供完整的AI解決方案平臺(tái)。通過將企業(yè)數(shù)據(jù)進(jìn)行向量化處理,使ChatGPT、Gemini等主流大模型能夠輕松理解和運(yùn)用企業(yè)數(shù)據(jù)。
甲骨文的成功揭示了AI基礎(chǔ)設(shè)施競爭的新邏輯。甲骨文首席財(cái)務(wù)官Safra Catz透露,公司能夠在一周內(nèi)完成客戶原本預(yù)期需要數(shù)月時(shí)間的大型數(shù)據(jù)中心交付。能與OpenAI、xAI和meta等AI巨頭簽署數(shù)十億美元合同,快速交付和成本優(yōu)化才是關(guān)鍵因素。
什么叫成本優(yōu)化呢?
數(shù)據(jù)中心的地理分布和網(wǎng)絡(luò)架構(gòu)設(shè)計(jì)對(duì)AI應(yīng)用的性能影響巨大。AI訓(xùn)練需要大量數(shù)據(jù)在不同節(jié)點(diǎn)間傳輸,推理服務(wù)需要低延遲的響應(yīng)能力。甲骨文通過優(yōu)化數(shù)據(jù)中心的網(wǎng)絡(luò)拓?fù)浜突ヂ?lián)架構(gòu),實(shí)現(xiàn)了更高的數(shù)據(jù)傳輸效率和更低的延遲表現(xiàn)。
甲骨文的網(wǎng)絡(luò)數(shù)據(jù)傳輸速度優(yōu)勢(shì),使得按小時(shí)計(jì)費(fèi)的客戶成本減半。
這無疑不再釋放著一個(gè)信號(hào):行業(yè)不再僅僅圍繞模型發(fā)布或消費(fèi)者應(yīng)用,AI基礎(chǔ)設(shè)施成為了最重要的參考系。
當(dāng)海外云巨頭還在為產(chǎn)能不足發(fā)愁時(shí),甲骨文通過更高效的資源調(diào)度和更靈活的部署模式,成功搶占了市場份額。在這個(gè)需求爆發(fā)式增長、供給嚴(yán)重不足的時(shí)代,甲骨文的成功本質(zhì)上是基礎(chǔ)設(shè)施稀缺的直接體現(xiàn)。
表面上看,海外云巨頭都在創(chuàng)造訂單奇跡。根據(jù)Canalys的最新數(shù)據(jù),全球云基礎(chǔ)設(shè)施支出在2025年第二季度同比增長22%,達(dá)到953億美元,這是連續(xù)第四個(gè)季度增長超過20%。谷歌云1060億美元訂單積壓,微軟Azure 3680億美元履約義務(wù),AWS 1950億美元訂單積壓。
表面上看,巨額訂單積壓,表明市場對(duì)產(chǎn)品或服務(wù)的旺盛需求。然而事實(shí)卻恰恰相反。
AWS公司管理層明確表示,需要幾個(gè)季度的時(shí)間才能重新平衡供需關(guān)系。就相當(dāng)于現(xiàn)在下單,要到2025年底或2026年初才能完工。微軟則至少要到2026年上半年才能完工。
AI基礎(chǔ)設(shè)施的核心在于計(jì)算資源的高效調(diào)度和數(shù)據(jù)處理能力的優(yōu)化。傳統(tǒng)的云服務(wù)更多關(guān)注存儲(chǔ)和網(wǎng)絡(luò),而AI基礎(chǔ)設(shè)施需要專門針對(duì)機(jī)器學(xué)習(xí)工作負(fù)載進(jìn)行優(yōu)化。這包括GPU集群的管理、模型訓(xùn)練的資源分配、推理服務(wù)的負(fù)載均衡等專業(yè)能力。
也正是因此,海外云巨頭正在經(jīng)歷一場史無前例的產(chǎn)能危機(jī),手握大量訂單卻無法及時(shí)交付。
02
2025年9月,螞蟻數(shù)科在外灘大會(huì)上宣布推出按“效果付費(fèi)”的新型商業(yè)模式,支持企業(yè)客戶根據(jù)大模型應(yīng)用的實(shí)際效果來付費(fèi),而非傳統(tǒng)的項(xiàng)目制或訂閱制模式。
傳統(tǒng)云服務(wù)的商業(yè)邏輯正在被AI應(yīng)用徹底顛覆。客戶關(guān)注的不再是租用了多少臺(tái)服務(wù)器,而是完成了多少次模型訓(xùn)練或處理了多少推理請(qǐng)求。
在傳統(tǒng)云服務(wù)模式下,企業(yè)按照CPU核數(shù)、內(nèi)存容量、存儲(chǔ)空間等硬件資源付費(fèi)。但AI應(yīng)用的特殊性在于,相同的硬件配置在不同場景下的實(shí)際效果可能相差數(shù)倍。一次GPT-4級(jí)別的大模型訓(xùn)練可能需要數(shù)千張GPU卡運(yùn)行數(shù)周,而同樣的硬件用于推理服務(wù)可能每秒處理數(shù)百次請(qǐng)求。
AI模型訓(xùn)練過程可能持續(xù)數(shù)天甚至數(shù)周,任何中斷都會(huì)造成巨大損失。推理服務(wù)需要7x24小時(shí)穩(wěn)定運(yùn)行,任何故障都會(huì)直接影響業(yè)務(wù)連續(xù)性。這要求AI基礎(chǔ)設(shè)施具備更強(qiáng)的容錯(cuò)能力、更快的故障恢復(fù)能力和更完善的監(jiān)控預(yù)警機(jī)制。AI基礎(chǔ)設(shè)施的安全性和可靠性要求遠(yuǎn)超傳統(tǒng)云服務(wù)。
這種差異催生了全新的計(jì)費(fèi)模式??蛻糸_始按照“訓(xùn)練完成的模型數(shù)量”、“推理請(qǐng)求的處理次數(shù)”、“模型精度的提升幅度”等實(shí)際業(yè)務(wù)指標(biāo)付費(fèi)。
“按效付費(fèi)”模式正在成為行業(yè)新標(biāo)準(zhǔn)。
亞馬遜計(jì)劃在2025年的資本支出超過1000億美元,重點(diǎn)不再是簡單的服務(wù)器擴(kuò)容,而是針對(duì)AI工作負(fù)載的專門優(yōu)化。這包括定制AI訓(xùn)練芯片Amazon Trainium和Inferentia的大規(guī)模部署,以及在美國超過300億美元的新一代數(shù)據(jù)中心投資。
微軟宣布的800億美元基礎(chǔ)設(shè)施擴(kuò)張計(jì)劃,核心是構(gòu)建“AI-first”的云服務(wù)架構(gòu)。不同于傳統(tǒng)數(shù)據(jù)中心的通用計(jì)算能力,新架構(gòu)專門針對(duì)大模型訓(xùn)練和推理場景進(jìn)行優(yōu)化,能夠顯著提升AI任務(wù)的執(zhí)行效率。
谷歌將2025年資本支出目標(biāo)從750億美元提高到850億美元,增量部分主要用于TPU集群擴(kuò)建和AI專用網(wǎng)絡(luò)架構(gòu)升級(jí)。
不過我們得認(rèn)清一個(gè)事實(shí),產(chǎn)能危機(jī)的根源在于AI基礎(chǔ)設(shè)施的特殊性需求。與傳統(tǒng)云服務(wù)不同,AI基礎(chǔ)設(shè)施需要專門的GPU集群管理、模型訓(xùn)練的資源分配、推理服務(wù)的負(fù)載均衡等專業(yè)能力。這些需求無法通過簡單的橫向擴(kuò)展來滿足,而需要針對(duì)性的架構(gòu)設(shè)計(jì)和硬件配置。
更嚴(yán)重的是,AI基礎(chǔ)設(shè)施面臨多重供應(yīng)鏈瓶頸。英偉達(dá)GPU短缺、臺(tái)積電CoWoS封裝產(chǎn)能不足、數(shù)據(jù)中心電力供應(yīng)緊張等問題相互疊加,形成了系統(tǒng)性的供應(yīng)制約。即使云巨頭擁有充足的資金,也難以在短期內(nèi)大幅擴(kuò)充有效產(chǎn)能。
03
根據(jù)伯恩斯坦報(bào)告,2025年中國AI芯片市場規(guī)模達(dá)到380億美元,國產(chǎn)芯片銷售額從60億美元躍升至160億美元,市場占比從29%提升到42%。
國產(chǎn)AI芯片雖然數(shù)量增長迅速,但配套體系還不夠完善。大多數(shù)企業(yè)在選擇AI基礎(chǔ)設(shè)施時(shí),需要對(duì)性能和成本進(jìn)行權(quán)衡,一些關(guān)鍵的訓(xùn)練,仍然離不開英偉達(dá)產(chǎn)品。
國產(chǎn)AI芯片的替代方案被統(tǒng)稱為“類CUDA”。這是因?yàn)橛ミ_(dá)為AI提供算力,需要通過物理設(shè)備GPU,以及軟件系統(tǒng)CUDA共同完成。沒有CUDA,GPU強(qiáng)大的并行計(jì)算能力就無法被釋放,對(duì)于AI開發(fā)者來說,沒有CUDA的GPU就是一塊廢鐵。
全球數(shù)百萬的AI開發(fā)者、科研人員都是在CUDA環(huán)境下學(xué)習(xí)和工作的。他們的代碼、項(xiàng)目、經(jīng)驗(yàn)和習(xí)慣都和CUDA深度綁定,遷移到另一個(gè)平臺(tái)的學(xué)習(xí)成本和時(shí)間成本極高。
國內(nèi)的AI芯片廠商,比如華為的昇騰,百度的昆侖芯,他們?cè)斐龅男酒?,在理論峰值算力上可能已?jīng)可以追趕甚至在某些指標(biāo)上超越英偉達(dá)的同代產(chǎn)品,可在軟件生態(tài)上,必須向CUDA看齊。
但是CUDA不僅僅是一個(gè)編程框架,而是一個(gè)包含編譯器、調(diào)試器、性能分析工具、數(shù)學(xué)庫在內(nèi)的完整開發(fā)生態(tài)系統(tǒng)。英偉達(dá)用了17年時(shí)間構(gòu)建這個(gè)生態(tài),中國企業(yè)想要做出一個(gè)包含編譯器、驅(qū)動(dòng),還有庫的軟件棧,去做CUDA平替,這是一個(gè)非常困難的事情。
英偉達(dá)下一代Vera Rubin系統(tǒng)將于2026年下半年上線,屆時(shí)性能優(yōu)勢(shì)將進(jìn)一步擴(kuò)大。如果國產(chǎn)AI芯片無法在CUDA生態(tài)替代上取得突破性進(jìn)展,技術(shù)差距只會(huì)越來越大。


302910/01








