亞馬遜云科技生成式AI全球副總裁Vasi Philomin博士表示,亞馬遜云科技不會拿用戶的數(shù)據(jù)來訓(xùn)練模型,所有用戶數(shù)據(jù)都會不會離開VPC,并且是加密的,用戶數(shù)據(jù)隱私是有保障的。
眾所周知,通用大模型的通用性很強,什么都懂一點,但是在特定領(lǐng)域的表現(xiàn)比較一般。當在大模型基礎(chǔ)上針對特定領(lǐng)域進行訓(xùn)練之后,就能大幅提高在某些特定領(lǐng)域中的表現(xiàn),這被很多人視為非常有前景的實踐方向。
事實正是如此,比如,原始的Stable Diffusion表現(xiàn)很一般,而用了LoRA之后,生成的圖則有以假亂真的實力。Meta泄露出來的LLaMA大模型表現(xiàn)也很一般,但基于它做的調(diào)優(yōu)模型,表現(xiàn)有明顯提高,一些場景中的表現(xiàn)甚至與業(yè)內(nèi)標桿GPT-3.5不相上下。
亞馬遜云科技提供Amazon Titan家族以及第三方(包括AI21 Labs、Anthropic 、Stability AI)的模型幫助用戶訓(xùn)練模型,并且用新推出的Serverless服務(wù)Amazon Bedrock幫用戶快速構(gòu)建和擴展各種生成式AI應(yīng)用。
對于打算用自己的數(shù)據(jù)定制化開發(fā)模型的用戶,可以直接在亞馬遜云科技上使用EC2實例。
4月13日,亞馬遜云科技還發(fā)布了Amazon EC2 Trn1n實例,該實例是專門為生成式大模型準備的,為生成式AI做了專門的優(yōu)化。
Trn1n在原來Trn1的基礎(chǔ)上強化了網(wǎng)絡(luò),網(wǎng)絡(luò)帶寬翻倍為1600 Gbps。與Trn1相比,在構(gòu)建大規(guī)模網(wǎng)絡(luò)密集型模型時的性能可以提高20%以上,能用30000個Trainium構(gòu)成的UltraCluster來訓(xùn)練大模型。在提高訓(xùn)練速度同時,至少能帶來50%的成本節(jié)?。ㄅc其它EC2相比)。
大模型訓(xùn)練的費用驚人,其實,實際生產(chǎn)環(huán)境中,更費錢的是推理。
4月13日正式發(fā)布的還有Amazon EC2 Inf2(此前為預(yù)覽版),它采用的是Inferentia2芯片,在性能和能效方面達到了新的高度,在成本方面又低了一大截。其中,Inf2的吞吐提高了最多四倍,而延遲相較于上代降低了最多10倍以上,性價比相比其他EC2實例提高了最多40%。
新推出的Amazon EC2 Trn1n和Amazon EC2 Inf2將云上大模型的訓(xùn)練和推理的成本驟降,成本問題對于用戶將大模型放在云上非常重要。
隨著大模型技術(shù)浪潮的來襲,以顯卡為主的計算資源又變得更緊俏了。大模型集群動輒需要成千上萬塊顯卡,每塊顯卡的成本都很高,訓(xùn)練需要大量裝有顯卡的服務(wù)器組成集群,還需要交高昂的電費成本,各種因素都不斷拉高大模型的訓(xùn)練成本。
高昂的成本阻礙了AI的民主化進程,使得先進的AI技術(shù)只能掌握在少數(shù)資金充裕的大公司手里,而亞馬遜云科技一直在推行機器學(xué)習上云。大模型爆火的背景下,又一次努力將云打造成適合訓(xùn)練和部署大模型的地方。