Facebook母公司Meta加入Google、亞馬遜、微軟的半導體大戰(zhàn),首度公開自行研發(fā)AI芯片進展。
Meta正在打造特別為AI設計的基礎設施架構,涵蓋硬件與軟件堆棧的各個層面,以及串聯(lián)這些技術的定制化網(wǎng)絡,包括Meta第一款用于執(zhí)行AI模型的定制芯片、針對AI最佳化的數(shù)據(jù)中心設計,以及目前進展至第二階段的AI超級計算機。
名為Meta Trainingand Inference Accelerator(MTIA)的全新ASIC芯片,是Meta第一款自行研發(fā)的定制芯片,宣稱運算效能和處理效率勝過CPU,專門用于處理與AI推薦系統(tǒng)相關的工作,幫助用戶找出最佳貼文內(nèi)容并更快呈現(xiàn)在你眼前。Meta在2020年開發(fā)出第一代MTIA(MTIA v1),采用臺積電7納米制程。而據(jù)國外媒體TechCrunch報道,MTIA至少要到2025年才會正式問世、投入服務當中。
除了MTIA,Meta自行研發(fā)另一款芯片,是稱為Meta Scalable Video Processor(MSVP)的ASIC芯片,以支持持續(xù)成長的影音內(nèi)容處理需求,最終希望將大部分成熟且穩(wěn)定的影音內(nèi)容處理工作交由MSVP執(zhí)行。
至于Meta新一代數(shù)據(jù)中心設計除了將支持現(xiàn)有產(chǎn)品以外,更將協(xié)助未來新的AI硬件展開訓練和推理。新的數(shù)據(jù)中心針對AI優(yōu)化,支持液體冷卻式AI硬件設備和高效AI網(wǎng)絡,將數(shù)千個AI芯片串聯(lián)在一起形成數(shù)據(jù)中心規(guī)模的AI訓練集,能與MSVP等新硬件設備相輔相成。
Meta的Research Super Cluster(RSC)AI超級計算機,可訓練新一代大型AI模型以支持新的AR工具、內(nèi)容理解系統(tǒng)、實時翻譯技術等等,它配備16000個Nvidia A100 Tensor Core GPU(2000個Nvidia DGX A100系統(tǒng))。從去年開始RSC參與各項研究計劃,例如Meta推動的大型語言模型LLaMA(Large Language Model Meta AI)。
除了日前宣布將生成式AI運用在廣告工具上,Meta也計劃調整編程編寫方式,通過內(nèi)部開發(fā)的生成式AI程序編寫輔助工具Code Compose,提升開發(fā)者的工作效率。
自2016年以來,Google一直在設計和部署稱為Tensor Processing Units(TPU)的AI芯片,用于訓練生成式AI系統(tǒng)如PaLM-2、Imagen等,亞馬遜則向AWS客戶提供AWS Trainium、AWS Inferentia兩款自研芯片進行應用,微軟也傳出正與AMD合作開發(fā)一種名為Athena的AI芯片。
Meta過去主要使用CPU以及用于加速AI算法而設計的定制芯片來處理AI運算工作,為了扭轉局面,Meta開始自行研發(fā)客制化芯片,并與同樣向AI領域投入大量資源的Google、亞馬遜、微軟等競爭。