?
AI芯片歷經(jīng)了一年多的熱潮,現(xiàn)在市場對于AI模型和芯片算力之間的關(guān)聯(lián)有更多的理解,,有兩個新市場被視為是云端生成式AI的關(guān)鍵瓶頸,近期正吸引更多廠商加速開發(fā)新產(chǎn)品并推進到市場,其一是HBM,其二則是高速傳輸技術(shù)。 這兩項技術(shù)被視為是讓AI芯片及云端運算系統(tǒng)達到更高運作效率的關(guān)鍵,值得注意的是即將開展的2024年國際半導(dǎo)體展(SEMICON 2024)各類論壇的講者當(dāng)中,不像往年都是NVIDIA、AMD等運算芯片大廠掛帥,2024年探討的話題更多圍繞在存儲器和高速傳輸技術(shù)上,可以看出業(yè)界關(guān)注的焦點愈來愈多元化。 HBM的重要性對于云端AI的討論來說不算陌生,多數(shù)人都知道大型語言模型的AI運算,最缺的其實不是算力,而是存儲器的容量。 存儲器不足,GPU或AI加速芯片的算力再強,也沒辦法在模型訓(xùn)練的過程中發(fā)揮出最強效能。 三星電子、SK海力士和美光都急忙調(diào)配產(chǎn)能,加速量產(chǎn)HBM來滿足市場需求,可是存儲器并不是唯一提升算力效率的關(guān)鍵技術(shù),各種高速傳輸介面的升級,最近也掀起討論與重視。 云端AI的高速傳輸技術(shù)有非常多不同層次,小芯片(chiplet)之間的連接、GPU之間的連接或者是機柜之間的連接,如果傳輸速度不夠快,就無法讓眾多算力單位有效地集結(jié)在一起,達到規(guī)模效應(yīng)和更高的運算效率 |