AMD MI200 以及大多數雲服務提供商的自主開發的加速器芯片所采用。當前市場上所謂的 HBM3 應分為兩個速度類別。另一個類別是 8 Gbps 的 HBM3e,雖然雲服務提供商將繼續從英偉達或 AMD 采購服務器 GPU,
科技巨頭穀歌和亞馬遜 AWS 已在這一領域取得了重大進展,
隨著對 AI 加速器芯片需求的不斷發展,在 AI 服務器加速器芯片領域,直接開發 HBM3e。
HBM3e 將采用 24Gb 單芯片堆疊,
預計這兩家製造商還將在 2024 年第一季度開始提供 HBM3e 樣品。將采用 HBM3 或 HBM3e 技術。其中穀歌成立了 Tensor 處理單元(TPU),北美和中國的其他雲服務提供商也正在進行相關驗證,HBM3+和 HBM3 Gen2 等多種名稱。英偉達的 H100/H800 GPU 價格在每台 2 萬至 2.5 萬美元之間,三星和美光在 HBM 的發展狀態上存在差異。美光選擇跳過 HBM3,大大增加了總擁有成本。HBM3A、該技術被用於英偉達的 H100/H800 和 AMD 的 MI300 係列產品中。因此,並在 8 層(8Hi)基礎上,預示著未來幾年 AI 加速器芯片市場可能出現激烈競爭。但同時計劃開發自己的 AI 加速器芯片。與此同時,此外,
三大主要製造商 SK 海力士、因此,英偉達繼續占據最高市場份額。再加上 AI 服務器的推薦配置需要 8 張卡,行業中出現了許多令人困惑的命名。並計劃在 2024 年下半年開始大規模生產。
雲服務提供商正在開發自己的 AI 芯片,TrendForce 明確指出,製造商計劃在 2024 年推出新的 HBM3e 產品,
HBM 各代之間的區別主要在於速度。單個 HBM3e 的容量將達到 24GB。一個類別是運行速度在 5.6 至 6.4 Gbps 之間的 HBM3,2023 年 HBM(高帶寬存儲器)市場的主導產品是 HBM2e,預計 HBM3 和 HBM3e 將成為明年市場的主流。然而,在過渡到 HBM3 一代時,
此外,該產品由英偉達 A100/A800、這兩個行業領導者已經在努力開發下一代 AI 加速器,以減少對英偉達和 AMD 的依賴。AWS 推出了 Trainium 和 Inferentia 芯片。 8月2日消息 據市場研究公司 最新報告">TrendForce 最新報告指出,SK 海力士和三星從 HBM3 開始著手,主要製造商預計將在 2024 年第一季度發布 HBM3e 樣品,也被稱為 HBM3P、預計這將應用於英偉達的 GB100,該產品將於 2025 年推出。



