0
作者 | 趙之齊 劉伊倫
編輯 | 包永剛
自DeepSeek在去年春節出圈以來,春節已然成了AI行業的“狂歡季”。
各大晚會連番登臺的機器人、科技從業者們在代碼堆里守歲,本身就是一種隱喻:AI正逐漸長成社會運轉中不能停下的“基礎設施”。
站在馬年的新起點,雷峰網對話了算力產業鏈上八家標桿企業的CEO,探討AI給算力產業帶來的種種邏輯重塑。
有趣的是,如今,行業看待AI的方式正在經歷一場集體“降維”:當技術紅利階段性觸達天花板,真正決定行業生死的命題變得更加具體且真實——
電力缺口、存儲產能瓶頸、算力利用率與成本、硬件連接與算法協同,乃至AI給組織架構帶來的深層顛覆等等……(算力鏈面臨挑戰的更多細節,歡迎添加作者微信 Ericazhao23 交流)
作為這場變革的親歷者,CEO們親述的八個片段互為印證,共同拼湊出算力產業當下最核心、真實的命題。
當算力需求越來越大,IDC基建作為根基,會面臨什么新的挑戰?
秦淮數據 CEO 吳華鵬:GW級智算不是蓋「完美大樓」,而是搭「可拆裝積木」

我是一個有著強烈技術信仰的人。
親歷互聯網和移動互聯網風起云涌的30年,在當前,我強烈感受到數據中心行業正站在由AI重構產業格局的新起點上。
過去一年,GW(吉瓦,10億瓦特)級智算園區這一“新物種”,已成為行業發展的重要方向,但超大規模算力如何與電力體系適配、協同,依然挑戰重重。
這一瓶頸的核心在于:算力需求和建設規模在爆發式增長,但新能源體系的支撐能力,尚未完全匹配發展需求。
具體來看,矛盾主要集中在三個層面:
一方面,GW級園區一年的耗電量堪比一座中等城市,傳統分步拓建的電力基建模式,面對“整體規劃預留、分階段規模化交付”的建設需求,已經很難滿足。
其二,GW級園區要求高比例綠電,但高比例新能源接入后,在負荷波動、熱源管理、智能控制等方面,都還沒有足夠成熟的方案應對。
而在如此龐大的用電基數下,效率每提升一個百分點,都意味著巨大的商業價值——這也讓效率優化擁有了前所未有的緊迫性。
而外部的技術供應和市場競爭,仍在給行業帶來不確定性。
GPU 產能、進口相關因素,會直接影響算力部署節奏。同時,頭部企業扎堆涌入烏蘭察布、中衛這類核心節點,讓優質電力、土地資源的爭奪越來越激烈,企業拿資源的難度明顯加大。
整體看下來,行業競爭的核心,已經從“拼規模”,轉向“規模”與“質量”并重。相對完善的能源解決方案,是當下數據中心企業突破瓶頸的關鍵一環。
在這方面,我們通過與東陽光集團的戰略整合,已經取得實質性進展。去年9月,東陽光牽頭的銀團以280億元現金收購秦淮數據中國區全部業務,今年1月完成股權交割。
過去幾個月,我們已在韶關、烏蘭察布、宜昌簽約重點項目,“東數西算”十大集群,秦淮已落子過半。目前,我們投運及在建IT容量近1GW,儲備與規劃容量達到4GW。接下來還將在烏蘭察布,和東陽光聯手打造國內首個GW級超大規模綠電直供垂直一體化產業示范區。
此外,我們還聯合東陽光以及產業鏈伙伴,推出全球首個基于SST(固態變壓器)的算力中心智能直流供電商業化方案,將于今年4月在張家口懷來正式投運。
這個方案能讓電力轉換效率達到98.5%,是業內最高水平;單功率柜輸出功率達1MW,占地面積僅1㎡,相較傳統方案減少50%以上。與此同時,面對AI GPU負載的劇烈波動,這個系統還能主動調節供電策略,實時智能應對。
這些業務進展,為我們建設GW級園區奠定了堅實基礎。但我也深知,打造GW級AI算力中心,不是蓋一棟一步到位、極致完美的樓,而是搭一套“可拆裝的積木”——
面對算力、電力、技術的多重不確定性,解決方法是采用模塊化、分期建設和能力解耦,達成彈性交付。
AI革命將掀起一場持續20年的技術浪潮,在這之中,焦慮和壓力都在所難免,堅守初心就更為關鍵。結合我的體悟,我也想與管理者們共勉:
堅持做行業中的“良幣”,錨定底層邏輯、持續創新、走長期主義,才能在這場AI革命里立得住、走得遠。
作為基建中同樣重要的參與者,云廠商在AI時代的護城河會是什么?
UCloud CEO 季昕華:AI迭代進入「月更」時代,云廠商面臨跨學科的認知重塑

當下,AI技術迭代速度極快,幾乎每隔一個月就會出現一次行業級突破,行業模型與應用的市場熱度呈指數級增長,這些都要求我們云廠商具備高頻、高強度持續學習的能力,深入理解跨學科、跨行業的產業鏈條,在理解AI技術本質的基礎上,推動業務聯動與生態合作,才能實現商業價值的最大化。
我和團隊觀察下來,目前限制行業突破的核心瓶頸,在于對AI的認知水平:
對AI技術發展的認知,決定我們跟進的速度;對AI使用效果的認知,決定我們使用的廣度;對AI商業發展的認知,決定我們投入的力度;對AI影響能力的認知,決定我們成長的高度。
去年,我們負責了一項海外千卡智算中心項目,這本身就是一個復雜度極高的綜合性工程。
我們不僅需要把控產品本身的能力,還必須統籌各類場外因素——從前期的工地勘察、架構建設,到中期的物流運輸、測試模擬,再到后期的集群構建和優化保障,每個環節都要統籌到位,挑戰很大。
而在海外落地,難度還要再上一個量級。
我們面對的是多樣化的國家政策與市場環境,前期要投入大量精力調研和實地考察;到交付階段,還會遇到許多不可控因素——國際政治形勢、當地法律法規、極端天氣、海關流程等,都可能成為棘手的挑戰,導致項目延期。
好在,團隊頂住了壓力,穩步推進著項目。當客戶最終完成壓力測試,系統平穩上線運行的那一刻,我們連續數月緊繃的神經終于得以放松。
在海外拓展布局的過程中,客戶一直很理解、支持我們。許多新節點資源一上線,就迅速被客戶采購一空。我們對此深懷感激,并對未來的合作與市場前景保持樂觀。
但與此同時,業界也普遍感受到:由于內存、存儲、CPU等核心硬件產能不足,供應鏈正出現顯著波動。這可能引發各行業在傳統IT支出上出現結構性調整,后續走勢仍需持續觀察。
并且,每次具有突破性的新模型發布,都可能重塑競爭格局,使得資源有限的中小企業面臨更大壓力。正如當年GPT系列的出現,導致大量傳統NLP公司被洗牌出局,持續的迭代浪潮可能令類似的歷史再次上演。
做難而正確的事,有如推石上山。我們清醒地知曉其重量與反復,而真正的選擇在于:手不松,步不止。價值,就在這持續的攀登之中。
在2026年,我們將堅定AI和全球化兩大戰略。
AI層面,我們將圍繞六大方向繼續深入:基礎模型、行業模型、AI應用、AI+硬件、機器人和無人駕駛,以及Agent拓展。例如,AI創新應用層面,我們將繼續以UModelVerse模型服務平臺為載體,通過token計費方式,讓初創企業在AI成本支出更為可控;同時,我們推出的Agent Sandbox可以降低AI Agent的生產應用門檻,為AI真正自主處理高復雜度、高風險任務提供基礎設施級保障。
全球化層面,我們將加速完善全球云計算服務網絡,計劃在2026年新增更多海外服務節點,重點助力中國企業、尤其是一帶一路沿線市場的出海業務發展。
算力資源完成初步沉淀后,如何將裸金屬高效轉化為開發者可用的“數字燃料”,成了算力運營商必須回答的命題。
并行科技董事長、CEO 陳健:AI Coding主導Token需求,「高效、穩定、低成本」將成為算力服務競爭焦點

2025年,人工智能領域經歷了一場由規模化應用驅動的深刻變革,大模型Token調用量爆炸式增長,這一變化直接引發了算力供需關系、技術優化焦點和產業競爭格局的連鎖反應。
作為衡量大模型應用規模的核心指標,日均Token調用量在2025年實現驚人突破,全市場Token使用量同比增長300倍,且全球Token技術標準統一,采用開源模型的企業呈現一致發展態勢。
一方面,Token需求暴漲的重要場景是AI Coding,業界預測到2030年,絕大多數代碼將由AI自動生成,這既是IT行業的自我革新,也是AI成為通用技術的基礎。2025年全年,Token使用量的一半集中在AI Coding領域,也標志著大模型正式進入規模化生產階段。
不過,在我看來,Token使用量激增的核心誘因是成本優化。2025年初,DeepSeek憑借極高的性能與成本優勢,實現了Token成本10倍的性價比提升,將大模型使用門檻降低一個數量級。
在這波浪潮中,并行科技也成功將在線服務的Token成本大幅降低,從一百多元降至幾元,離線模式更是可能降至1元以下,主力Token成本整體下降近30倍,TPS(每秒Token輸出量)也提升10倍,達到行業前沿水平。
回望2025年,市場呈現“一卡難求——供大于求——年底優質卡一卡難求”的快速輪回。需求端看,我和團隊認為,當前主要分為三類:頭部大模型企業的超大規模訓練需求(企業數量縮減至不足20家,但單家需求量翻倍)、推理服務需求(含Token生成,達萬卡級別且快速增長)、科研研發需求(穩步增長)。但供給端一側,則因2023-2024年小規模智算中心無序建設、供應鏈不穩定等影響,供給形勢多次反轉。
對此,并行科技采取“彈性供給”和高效資源調度策略,使自有GPU算力利用率在2025年上半年達到85%-90%的飽和狀態,且在12月市場轉向供不應求前,通過多次大規模采購提前鎖定優質算力資源,從容應對2026年初優質算力“一卡難求”的格局。
但2025年算力市場帶來的挑戰仍在繼續:受AI需求暴漲與產能不足的雙重影響,全球顯存、GPU顯存、內存及閃存等存儲產品大幅漲價,直接導致服務器成本翻倍,嚴重制約了算力資源的擴建進程。
不過,在這之中,也蘊含著國產算力的重要發展機遇。從政策層面和資本市場資金流向來看,國產算力正在呈現出百花齊放的態勢,從小規模適配邁向大規模單集群生態建設的新階段,既強調“大規模”布局,也注重“生態”適配,加速與國際市場接軌。
2026年,行業對未來已經達成這些共識:一是推理需求持續主導,隨著模型大規模部署,推理所需的算力規模和復雜度將遠超訓練,成為算力消耗的絕對主體;二是Agent成為主流形態,大模型應用正從單一問答向能規劃、執行、使用工具的智能體演進,要求底層服務架構重構;三是價值重心上移,未來競爭焦點不在于單純擁有算力,而在于能否提供高效、穩定、低成本的模型服務和AI應用。
總結而言,2026年將是AI大規模商業化應用的元年。
成本之外,門檻仍在。如何讓非技術背景的企業能在多樣化的算力架構上,自由地生長出屬于自己的Agent生態?
九章云極 CEO 方磊:摒棄「規模噱頭」,場景適配才是智算產業的關鍵「勝負手」

站在2026年的新起點回望,2025年算力市場最大的變化,就是徹底告別了“盲目堆硬件”的狂熱,從“CPU云主導”邁入“GPU云崛起”的關鍵轉型期。
我和團隊最直觀的體會是,2025年行業核心瓶頸集中于“供需錯配”與“效率不足”。
一方面,傳統CPU云適配通用計算,與AI高并行、密集型需求存在本質矛盾,而“CPU+GPU混合數據中心” 既抬高了成本,又制約了GPU性能的釋放;
另一方面,算法從“深度學習”向“強化學習”躍遷,算力呈十倍、百倍級增長,但行業GPU平均利用率僅70%左右,且“裸金屬租賃”模式門檻高,導致中小企業與開發者難以高效使用算力,抑制產業創新活力。
同時,算力需求已進入集中爆發期:端到端模型訓練、仿真測試、車路協同等場景,都需要10倍以上的算力支撐,對算力的穩定性、泛在性提出了更高要求。從全球格局看,國外頭部企業聚焦超大規模算力集群與專用芯片研發,核心服務于高端訓練場景,但高昂的成本與封閉的生態體系,讓廣大中小企業難以觸及算力資源。
因此,算力的“普惠化”行動勢在必行。
2025年,九章云極推出智算云平臺,依托Serverless與強化學習相關技術,實現了萬卡至十萬卡級異構算力的統一調度,將AI智能體訓推流程簡化至一行代碼即可啟動,讓更多主體能夠參與到AI創新中來。
與此同時,行業正經歷關鍵躍遷:競爭核心從預訓練時期的“拼規模”到后訓練時期的“拼效率”,強化學習作為驅動模型進化的核心引擎,已成為下一代智算基礎設施的剛性需求;智能體已從“純對話交互”,轉向“復雜任務執行”,工業控制、流程自動化、城市治理等實景場景,催生出海量碎片化、動態化的算力訴求。
基于此,我們團隊也在兩個方向上發力:
一方面,繼續推進強化學習云的工業級落地,以全異步訓練架構、離線回放算法等核心技術,讓中小企業無需承擔高昂投入即可完成專家模型訓練;
另一方面,針對智能體“執行化”轉型需求,打通強化學習云與工具調用、復雜工作流的適配,延續按度計費的模式,支持一行代碼啟動訓練、推理、執行,從而匹配從機器人調度到城市規劃的多元動態算力需求。
雖然當下行業里仍有“算力過剩”“企業無真實算力需求”的聲音,市場也在糾結“是否要加速推進大規模、大體量算力布局”。
但我們始終堅持自己的判斷是,AI基礎設施仍處于發展上升期,長期潛力巨大。未來有能力開展模型訓練的主體會持續增多,算力需求的增長空間遠未觸頂,所謂“算力過剩”只是短期供需波動的階段性現象,而非行業終局。
市場的反饋與實際體感也在印證我們的判斷:Forrester調研顯示,45%的中小企業選擇智算云服務,12%的獨立開發者將其作為核心支撐,企業對AI算力的使用邏輯已轉向“經濟、彈性”,依托我們的智算云,部分客戶成本直接降低了40%。
最后,我想說說我對這個行業的理解:行業的勝負手不是誰的GPU更多,而是誰能放下“規模噱頭”,深耕場景適配,把算力變成企業“算著清、用得好”的基礎設施。
三、軟硬件新戰場
Context Window帶來巨大內存消耗、高帶寬DRAM走向供需失衡,需求端的反向施壓,為創新性技術方案的實現提供機遇。
昉擎科技 CEO 梁軍:Agent爆發與供應趨緊,AI基礎設施迎來「創新發展」窗口期

2025年年初,DeepSeek R1的發布引起巨大反響,Sparse MoE(稀疏混合專家模型)迅速成為主流。過去一年里,模型能力持續躍升、迭代速度顯著加快,各類應用也隨之快速普及。
然而,上層應用的繁榮與底層算力的就緒之間存在明顯的時間差。
針對Sparse MoE模型的計算特性,AI Infra在過去一年里實現了多層面的深度優化,但由于芯片有固定的開發節奏,除了華為超節點方案外,國內其他芯片廠商的對應產品仍處于開發階段,這也制約了相關業務的增長。
瓶頸的出現,讓行業在設計、部署Scale-Up集群上迅速達成共識。UALink、SUE及ESUN等Scale-Up通信協議標準進展非常迅速,產業鏈配套的通信協議IP、Switch、支持Scale-Up接口的算力芯片,以及Scale-Up集群硬件等各種產品的開發進展也全面提速。
另一方面,行業供應形勢持續趨緊:除了眾所周知的高帶寬DRAM供需失衡,還有不少部件、材料都面臨供應緊張的境況。
這一緊張態勢并非單純的周期性波動,而是應用范式變革對資源需求的結構性重塑。
Agent應用的爆發式增長,既要滿足超長Context Window(上下文窗口)帶來的巨大內存消耗,又需將Token成本壓縮至極致。
與此同時,Agent普及帶來的low latency(低時延推理)需求,正從需求端反向施壓,對系統軟硬件設計產生深遠影響。
這些變化讓行業面臨很大挑戰,但也帶來發展機遇。
從模型、應用、AI Infra到底層軟硬件,各層面均在高速迭代演進,客觀上催生了巨大的市場機會,也為創新性技術方案的落地提供了寶貴的窗口期。
這一窗口屬于敢于冒險、擅長系統性思維的團隊。在諸多難題與挑戰之下,我們始終堅持以高標準方案和更基礎性的方式求解,這也讓我們團隊收獲超出預期的成果。
過去一年我們的多次實踐,都在不斷驗證這一方法論的有效性,也讓我們面對未來的信心更加堅定。
Token需求進入爆發期后,底層硬件碎片化的“互聯墻”不容小覷,行業要如何避免讓算力集群淪為性能孤島?
奇異摩爾 CEO 田陌晨:「互聯碎片化」成超節點瓶頸,AI下一戰拼的是交付

這波AI的發展,對硬件提出了雙重挑戰:
一方面,市場上AI大模型數量快速增長,要求芯片廠商能廣泛且高效地適配;
另一方面,大模型領域技術迭代極快,多模態、世界模型等創新層出不窮,如今,市場重心也已經明顯轉向:一是從追求規模擴張,轉向深耕性能;二是從“生成式AI”,轉向“AI Agent”這一形態。
尤其在推理場景中,不同應用場景對Prefill(預填充)與Decode(解碼)階段的需求不同,對時延、精度、功耗、可靠性等方面的側重點也不同,這些都會直接影響計算、互聯與存儲等各個模塊的設計。
這也直接拉高了對硬件團隊的要求:
軟件技術演進常以“季度”甚至“月”為單位,芯片等硬件的迭代周期卻通常長達數年,因此,硬件研發團隊不僅要精通軟硬件深度技術、具備跨領域視野,還需具備前瞻性,能夠預判未來兩至三年的技術需求,以提前規劃硬件設計。
我們從2021年起,就預見到AI快速發展將面臨的網絡互聯瓶頸,在布局片內互聯芯粒產品后,也逐步構建起面向AI網絡互聯的全棧解決方案。
然而,這一路并非坦途:
2024年,我們已前瞻性地在超節點領域進行了技術和資源布局,但那時候“超節點”概念還沒有火起來,我們的工作顯得有些“超前”,這使得公司當時的資本化進程一度有些阻力。好在,有中科創星等早期投資人始終如一的信任,以及客戶和合作伙伴的并肩同行,到2025年,超節點成為AI訓推集群的關鍵技術焦點。
不過,制約超節點部署效率與可擴展性的核心瓶頸,也隨之顯現:
超節點內部的各個計算單元,要依賴統一、高效的互聯協議,才能實現協同。然而,目前還沒有出現像以太網或移動通信那樣成熟且被廣泛接納的標準體系,這就導致不同廠家的設備很難兼容、互通,交換機和計算節點之間的對接方式,都是各家自己定制,這讓系統集成和后期維護都變得更復雜且麻煩。
盡管最近兩年間,國內外已涌現出多項致力于推進標準化的倡議與規范,如SUE、OISA、ETH-X、UALink等。然而,“生態碎片化”的解決并非單純的技術競賽,而是要依賴于產業鏈上下游的緊密協作。在我看來,短期內,多元技術標準并存的格局還會持續。
針對這一情況,奇異摩爾推出超節點互聯芯粒Kiwi G2G IOD——基于我們獨創的HPDE可編程架構,能支持不同的協議類型及其升級。
并且,早在2023年,奇異摩爾便作為首批核心生態成員,深度參與由中國移動牽頭的OISA 1.0協議制定工作。2025年,公司進一步參與到OISA 2.0協議的制定中,負責制定了協議中互聯芯粒部分的標準設計,還開發了業界首個OISA Scale up協議的驗證平臺。
2026年,我相信超節點的熱度仍會繼續,且會進一步產業化。這背后也指向一個關鍵共識:AI時代的競技場,勝負在于交付——無論是觸達用戶的最終應用,還是支撐一切的底層硬件,真正拉開差距的,都是交付。
如今,硬件問題也不能僅靠硬件解決,如果無法在指令集與精度層面實現芯片與大模型的深度協同,算力天花板依然近在咫尺。
清程極智 CEO 湯雄超:「單向適配」不是終局,未來模型與芯片架構設計要互相指導

去年,我們比較關注大模型的推理部署場景。
印象里最焦慮的時候,可能是春節后在各種平臺上適配優化DeepSeek模型:當時我們發現,DeepSeek在一些平臺上很容易能運行起來,但在另一些平臺上卻會面臨很多挑戰,算力平臺之間的差距非常大。
經過團隊的努力,我們在幾個月后終于實現了計劃中的近10種算力平臺的推理部署方案。對比當時,其實可以明顯感受到,國產算力對新發布模型的支持速度已經大幅提升——
從最初模型發布數月后才能完成適配,到后來往往新模型發布后幾天即可適配。去年WAIC大會期間,清程極智的“赤兔”推理引擎更是實現了國產算力對新模型的0 Day支持,讓GLM4.5模型發布當天就能在華為昇騰算力上推理部署。
適配速度的加快,體現了國產算力上的軟件生態不斷成熟。今年初,我們和T-One孵化器聯合發布了一份大模型API服務行業報告,在和幾十家做大模型API服務的伙伴溝通后發現,國產算力是真實可用的,但與此同時,硬件架構差異帶來的問題,無法通過軟件手段完全解決。
以往大家認為,軟硬件分別面臨生態成熟度與絕對性能上的差異,但到了2025年,新興大模型算法架構與國際先進算力的硬件架構綁定得更加緊密,其影響已經超出通常意義上的“軟件生態”范疇。
例如,去年初開源的DeepSeek-V3/R1模型,是基于FP8數據精度原生訓練與推理的,但當時國產算力硬件架構并不支持FP8。我們預感到后續會有更多模型采用FP8、FP4這類新興低精度數據類型,于是,清程極智就通過軟件的方式,在國產算力上實現了FP8精度的計算,后來又進一步完成了FP4精度的軟件支持。
但這僅僅解決了易用性問題,讓用戶能在國產算力平臺上快速跟進最新大模型與數據精度,卻無法從硬件底層真正提升模型的實際運算速度。
而現在,低精度算力已逐漸成為智能算力的主流配置。在海外高端算力芯片中,FP4算力普遍能達到BF16算力的6-8倍。如果國產算力只是在BF16算力上追平海外產品,卻沒有在硬件層面補齊對FP4精度的支持,那么其真實有效算力依然只有海外芯片的零頭,很難形成性價比優勢。
好在去年很多國產算力廠商在下一代芯片規劃中,都提出將支持低精度的算力類型,比如昇騰950就支持FP4。預計2026年,硬件架構的差異有望進一步縮小。
但在我看來,國產算力在硬件架構上逐步對齊海外特性,還只是早期階段。根本的解決方案,應該是國產算力和大模型研發機構更緊密地合作:讓大模型算法的發展需求指導芯片架構的設計,芯片架構也反過來指導大模型的算法設計。
放眼2026,大模型推理對算力的需求仍將保持高速增長,并且,無論是大模型算法架構還是底層硬件設計,都會更加多樣化——
模型方面,去年主流還是基于自回歸解碼的文本類模型,今年則會出現更多擴散模型與多模態模型;算力方面,除了類GPU架構和NPU架構,一些架構更激進的算力也將開始量產。在這樣百花齊放的格局下,可能會碰撞出新的“硬件-算法”協同的行業最優解。
國產算力在功能上已經能滿足大量實際場景的需求,但在絕對性能和性價比上,仍需進一步提升,才能真正建立商業優勢。這需要全行業共同努力,實現市場化的正向循環。
四、顛覆全棧
最后,當底層技術棧逐步打通、Agent 真正成長為新一代操作系統,一個更重磅、更根本的命題也隨之到來:
人類,是否已準備好向 AI 移交決策權?
PPIO CEO 姚欣:敢不敢放權給AI,是屬于人類的「奇點時刻」

過去業界將2045年視為“奇點臨近”,認為跨過奇點后,智能將指數級迭代、機器進化速度會遠超人類。但在我看來,2025年已經過了奇點的拐點。
回看去年,DeepSeek的爆發讓我們團隊很興奮。一季度我們快速加碼算力、對接需求,全力沖刺MaaS業務增長。但到了五六月,市場風向突然轉變——開發者更傾向選擇海外價格更高的閉源模型。
這一度讓我們陷入焦慮:PPIO核心業務MaaS,跟開源模型生態息息相關,只有開源模型足夠強,才能帶動MaaS和算力需求增長。但我始終對開源非常堅定——從PC互聯網到移動互聯網,歷次浪潮幾乎都遵循“閉源開辟、開源統治”的規律,這一輪AI浪潮也不會例外。
所以我們堅持到九月十月,終于,國內大模型迎來爆發。臨近春節這段時間,我們也幾乎每天都在對接新模型,春節大家可能也休息不了。這個過程對我們來說,痛并快樂著。
不過,模型能力只是單點突破,我們始終相信Agent層才是開發者真正的“操作系統”。去年Agent技術棧還不成熟,大多停留在概念與雛形階段;但春節前OpenClaw的誕生,已經讓行業看到全新的機會和希望。
最近還讓我震撼的是,Cursor的CEO拿GPT 5.2寫了三百多萬行代碼,基本復現了chromium 瀏覽器,要知道寫瀏覽器的難度挑戰和操作系統是一個級別的,由此可以看出,AI已經幾乎沒有寫不了的代碼。
在這背后,我也看到了技術方向上的“會師”:OpenClaw這類Agent的“權力”太大了,有很大的安全隱患。可見,今天的AI基礎設施,已經不再僅僅是為人設計,同時也要為AI服務——高彈性、高并發、高任務響應、甚至長時記憶能力,都是AI原生的核心需求。
作為經歷過互聯網,移動互聯網多個時代的連續創業者,我認為當下又是一個重大的技術范式變遷,我們過去的各類軟硬件都是針對人的使用體驗設計的,但是行業正從“以人使用為中心設計Infra”,轉向“以AI或機器為中心設計的Infra”。我們去年推出的Agent沙箱系統,恰好就可以成為Agent Infra的核心組件——在保障高效運行的同時,實現安全隔離與風險可控。
與此同時,在需求爆發的背景下,算力的梯次利用與精細化調度也變得至關重要。未來算力需求的增長速度會大幅領先于今天算力供應速度,行業會進入一段長期供不應求的時段。
而一個愈發清晰的趨勢是:越是傳統的組件,越容易成為新的瓶頸。
我在本屆CES觀察到,GPU行業已在為產能實現十倍、百倍增長做準備,但其他組件完全沒跟上,比如硬盤,過去20年每年的產能只上漲平均3%-5%。這就意味著,我們已經進入到基礎設施的綜合博弈,木桶短板效應會集中爆發。
因此,我們今年的目標也很明確:全棧化和全球化。前者是打通從IaaS、MaaS到Agent Infra的端到端技術能力;后者則是依托不同區域的資源優勢,在日本、歐洲、東南亞等地進一步布局,挖掘更多元的算力供給與市場機會。
我還有個觀察:未來制約AI普及與應用深度的關鍵,不在于技術或算力,而在于企業組織能力能否跟上AI的迭代速度。
今年我會在公司內部推進全面向AI Native組織轉型。這背后是一個根本性命題:當機器在效率與智能水平上全面超越人類時,組織與管理者是否敢于放權?
如果我們的決策依然依賴冗長流程、追求100%絕對安全、所有事項最終都需要CEO簽字確認,決策效率必然被嚴重制約。這就是人類史上又一把 “達摩克利斯之劍”:在安全與效率、穩定與進化之間,如何做出抉擇?
這將是人類自身的奇點時刻。
作者長期關注AI算力鏈條,歡迎添加作者微信 Ericazhao23 交流。雷峰網(公眾號:雷峰網)雷峰網
雷峰網原創文章,未經授權禁止轉載。詳情見轉載須知。