Nvidia(NVDA-US)憑藉其GPU的領先優勢,過去幾年炙手可熱,更乘著ChatGPT熱潮,公司的市值從今年年初至今更是大漲93.6%,不過,近日博通(AVGO-US)、微軟(MSFT-US)、Google(GOOGL-US) 都大動作出手,希望挑戰其獨霸地位。
博通發布新晶片Jericho3-AI,解決訓練AI「網路限制」
博通周二(18日)發布Jericho系列最新的產品Jericho3-AI。在他們看來,這是比輝達(Nvidia)Infiniband更適合AI的一個新選擇。
據博通所說,大公司(甚至 NVIDIA)都認為AI工作負載會受到網路延遲和頻寬的限制,而Jericho3-AI的存在則旨在減少AI訓練期間花在網路上的時間。其結構的主要特性是負載平衡以保持鏈路不擁塞、結構調度、零影響容錯移轉以及具有高乙太網基數(radix)。
博通強調,AI工作負載具有獨特的特徵,例如少量的大型、長期流,所有這些都在AI計算週期完成後同時開始。Jericho3-AI結構為這些工作負載提供最高性能,具有專為AI工作負載設計的獨特功能。
博通指出,「Jericho3-AI結構的一個獨特之處在於它提供了最高的性能,同時還實現了最低的擁有權總成本。這是通過長距離SerDes、分散式緩衝和高級遙測等屬性實現的,所有這些都使用行業標準乙太網提供。這些因素為最大的硬體和軟體提供商生態系統提供了網路架構和部署選項的高度靈活性。」
微軟自研晶片Athena找台積電助攻,最新進展到哪了?
據The Information報導,微軟正在開發自己的代號為「Athena」的人工智慧晶片,該晶片將為ChatGPT等人工智慧聊天機器人背後的技術提供支援。
根據這一報導,這些晶片將用於訓練大型語言模型和支援推理—這兩者都是生成AI所需要的,例如ChatGPT中使用的AI來處理大量資料、識別模式並創建新的輸出來模仿人類對話。
報導稱,微軟希望該晶片的性能優於目前從其他供應商處購買的晶片,從而為其昂貴的AI工作節省時間和金錢。
目前尚不清楚微軟是否會向其Azure雲客戶提供這些晶片,但據報導,這家軟體製造商計畫最早於明年在微軟和OpenAI內部更廣泛地提供其AI晶片。報導也稱指出,該晶片的初始版本計畫使用台積電的5奈納米工藝,不過作為該項目的一部分,可能會有多代晶片,因為微軟已經制定了包括多個後代晶片的路線圖。
近年來,微軟加大處理器工程師的招聘力度,今年年初,微軟更是宣布收購一家名為Fungible 的DPU晶片公司。
微軟Azure核心部門的CVP Girish Bablani在一篇博文中寫道:「Fungible的技術有助於實現具有可靠性和安全性的高性能、可擴展、分解、橫向擴展的資料中心基礎設施」。
Google推TPU第四代、超級電腦,比Nvidia A100更快
近日,Google對其TPU v4,及其基於這個晶片的打造的超級計算系統,公布更進一步資訊。
據他們在一篇文章中指出,得益於互連技術和領域特定加速器(DSA) 方面的關鍵創新,Google雲TPU v4 在擴展ML系統性能方面比TPU v3有了近10倍的飛躍;與當代ML DSA相比,提高能源效率約2-3倍。
在與Nvidia A100相比時,Google表示,TPU v4比前者快1.2-1.7倍,功耗低1.3-1.9倍。在與Graphcore的IPU BOW相比,Google表示,其晶片也擁有領先的優勢。
基於這個晶片,Google打造一個擁有4,096個張量處理單元(TPU)的TPU v4超級電腦。
Google表示,這些晶片由內部開發的行業領先的光電路開關(OCS)互連,OCS互連硬體允許Google的4K TPU節點超級電腦與1,000個CPU主機一起運行,這些主機偶爾(0.1-1.0%的時間) 不可用而不會引起問題。
據Google稱,OCS動態重新配置其互連拓撲,以提高規模、可用性、利用率、模組化、部署、安全性、功率和性能。與Infiniband相比,OCS和底層光學元件更便宜、功耗更低且速度更快,不到TPU v4系統成本的5%和系統功耗的5%以下。
本文授權轉載自:鉅亨網
責任編輯:傅珮晴、蘇祐萱