以下為AI基礎設施的趨勢觀察:

首先是模型層創(chuàng)新:模型層的創(chuàng)新正成為AI基礎設施堆棧中最動態(tài)、競爭最激烈的層次?;A模型已成為新的“石油”,并且由于其戰(zhàn)略重要性,堆棧中的勝者可能會定義未來幾年的下游應用。

因此,我們看到在模型層的活動爆炸性增長,從開源到小型語言模型,大量資本和活動集中在通過數(shù)據(jù)、模型并行、混合模態(tài)等方式擴展基于transformer的模型,或是嘗試推動這些模型在性能屬性上的提升(例如成本、延遲、部署、內(nèi)存占用、上下文窗口等)。例如,許多團隊正在改進生成模型的基本構件(如注意力機制和卷積機制),以創(chuàng)造出更強大、高效的AI技術。

由于模型訓練的資本密集性,這些工作大多數(shù)由風險資本支持。此外,除去訓練成本外,創(chuàng)新這一層次還需要具備合適的研究和工程人才的高水平人力資本和專業(yè)資源。目前,很多努力也在推動非transformer架構的研究,探索新的可能性。

例如,DeepSeek的NSA(原生稀疏注意力)注意力機制新方法,還有狀態(tài)空間模型(SSM)和各種遞歸架構等在拓展基礎模型的邊界,這些模型計算強度較低、延遲較小,可能為訓練和推理提供更便宜、更快的替代品。

與此同時,除了通用模型外,目前也有大量團隊訓練針對特定領域的模型,如代碼生成、生物學、視頻、圖像、語音、機器人、音樂、物理學、大腦波等,為模型層注入了更多的多樣性和靈活性。

然后是推理與部署優(yōu)化在模型部署和推理領域,AI基礎設施堆棧的計算層也是最復雜的層次之一。這個層不僅直接為其他部分提供動力,而且硬件、軟件以及商業(yè)模式的創(chuàng)新與交互也極大地影響著其發(fā)展。在硬件層面,隨著供應鏈短缺的緩解,GPU成本有所下降,下一代GPU結合先進的互聯(lián)技術,正在推動數(shù)據(jù)和GPU的并行擴展。

還有多模態(tài)數(shù)據(jù)管理與AI工作流的融合AI驅動的數(shù)據(jù)類型日益復雜,尤其是非結構化數(shù)據(jù)(如圖像、視頻和文本)。傳統(tǒng)的數(shù)據(jù)庫系統(tǒng)往往難以有效管理這類數(shù)據(jù),向量數(shù)據(jù)庫(如Milvus、Pinecone)和對象存儲(如AWS S3)因此成為AI原生應用的標配。此外,統(tǒng)一數(shù)據(jù)湖倉(Lakehouse)架構的擴展,使得結構化與非結構化數(shù)據(jù)得以混合分析,更加高效地支持RAG、微調(diào)等AI工作流。

存儲與計算協(xié)同優(yōu)化:隨著大規(guī)模AI模型的訓練和推理需求增加,GPU與存儲之間的協(xié)調(diào)成為瓶頸。為此,分布式存儲系統(tǒng)(如Ceph、Alluxio)增強了與GPU算力的彈性配合,支持PB級數(shù)據(jù)并行加載,同時,AI負載特征的動態(tài)數(shù)據(jù)分層技術,通過自動調(diào)度冷熱數(shù)據(jù),優(yōu)化了存儲系統(tǒng)的效率,降低了成本。

最后

人工智能基礎設施的發(fā)展正處于一個前所未有的關鍵時期。在全球范圍內(nèi),AI技術不斷突破瓶頸,而中國作為全球AI產(chǎn)業(yè)的重鎮(zhèn),正在大力推動自主創(chuàng)新和技術迭代。

以此為背景,2025年3月27日,以“智能基石 創(chuàng)新賦能”為主題的人工智能基礎設施峰會即將在上海召開,峰會匯聚眾多業(yè)內(nèi)專家學者、技術領袖、行業(yè)用戶等,共同探討AI基礎設施的最新發(fā)展趨勢,分享技術突破與應用案例,敬請期待!

分享到

崔歡歡

相關推薦