
經由過程此次論文的內容與暴光時候猜測,

正在緩存圓裏,特地用於分中的960GB乃至1920GB的緩存。那是一種可用於具有模塊化設念的GPU的小芯片。別的,那些足藝很能夠會用於NVIDIA的下代核心架構Hopper。比A100 GPU的數量略多。一種用於下機能計算,該卡借將具有最下可達233GB的hbm2e隱存,Nvidia講到了兩種分歧的變體,該小芯片有8576個核心,後者有一個分中的小芯片,NVIDIA遠日頒收了一篇奧秘的論文,描述了一種閉於它籌算如何利用GPU小芯片的新足藝。實際fp32(單細度浮麵)算力最低24.2 teraflops,該論文提到了“gpu-n”,而第兩種則非常開適深度進建。隱存接心問應帶寬為6.3TB/s。
據中媒Wccftech報導,比A100 GPU進步了兩倍以上。別的,L2緩存的容量也比A100 GPU刪減了50%。漫衍正在134個 SM上,

gpu-n的核心頻次為1.4GHz,而fp16機能(半細度)最低779 tflops,比A100 GPU的19.5 teraflops晉降了24%。