IC設計大廠超微(AMD)於美國時間10月10日在舊金山舉辦「Advancing AI 2024」大會,執行長蘇姿丰發表資料中心AI加速器Instinct MI325X、第5代 EPYC處理器「Turin」、商務AI PC晶片「Ryzen AI PRO 300」系列等產品。
《數位時代》前進現場,帶給讀者第一手觀察。
「今年對AMD是特別忙碌的一年,但今天格外是特別的一天,全部都是關於資料中心和AI!」蘇姿丰在演說開場興奮說道。
蘇姿丰在今天的發表會火力全開,除了發表資料中心加速器及處理器產品,並攜客戶與合作夥伴一同登台,宣示超微目標成為端到端AI產品的領導者(End-to-End AI,意指從AI訓練、推論到產出結果等一連串過程)。
AI加速器市場規模2028年上看5千億美元!超微4大策略拓展AI版圖
在AI浪潮下,資料中心AI加速器市場急劇成長,蘇姿丰指出,預估從2023年的450億美元市場規模,到2028年將顯著增長至5000億美元,年複合成長率(CAGR)達60%。
本次大會發表的2大重點產品,都用於AI資料中心,分別是效能據稱更勝輝達H200的AI加速器MI325X,其AI推論效能最高為H200的1.4倍;以及第5代EPYC處理器「Turin」,據稱效能最高可達英特爾(Intel)第5代Xeon處理器的2.7倍。
蘇姿丰並提到,從分析式AI發展至生成式AI,再進展到可自主推理及決策的AI代理(Agentic AI),將需要更多的通用運算及AI運算。為此,CPU處理資料流的通用運算,GPU則用於訓練、推論和微調,「而針對端到端的AI,超微擁有業界最好的產品組合。」
為了持續拓展AI市場份額,蘇姿丰揭示超微的4大策略方向:
為AI訓練和推論,提供最佳的高效能節能運算引擎 ,其中包括CPU、GPU、NPU,彼此之間需要很好的結合搭配。
打造開發者友好的軟體開發環境。 超微持續優化開發者軟體ROCm,最新的ROCm 6.2相較前一代6.0,推論及訓練表現進步了2倍,現在並有超過100萬個Hugging Face的AI模型,可在超微的硬體上運作,是MI300X推出時可用數量的3倍。
與AI生態系及客戶一同創新,這些合作夥伴包括雲端業者、OEM業者、AI軟體新創等。 超微的目標是推動一個開放的AI生態系標準,以便於整個產業的創新。
為客戶提供不只晶片層級的解決方案,而是機櫃級、伺服器級的全方位解決方案(total solution) 。
AMD新晶片發布,雲端大客戶Google、Meta、Oracle都來助陣
在專題演講中,蘇姿丰也邀請雲端客戶分享經驗,包括Google Cloud、Meta、Oracle等,彰顯超微受到客戶的信任及肯定。
例如,Meta透過MI300X加速器,為開源模型Llama 405B上的所有即時流量提供服務;另外,Oracle CIoud Infrastructure(OCI)則透過超微的EPYC處理器、Instinct加速器、Pensando DPU等產品,為Uber、Red Bull Powertrains、PayPal、Fireworks AI等客戶提供網路基礎設施。
在演講尾聲,蘇姿丰提到,這週她正好慶祝了在超微擔任執行長滿10週年,「沒有比發布超微產品更好的方式,來度過這一週的時間了!」她並自信說道,超微將繼續挑戰高效能運算和人工智慧的極限,「而我們才剛開始。」
責任編輯:林美欣