Magnum IO
原理
Magnum IO可以幫助數據繞過CPU,直接從存儲器到GPU、存儲和網絡設備來連結處理數據,在運算時候降低延遲,提升計算效率[2],將支持多伺服器、多 gpu 計算節點配置[3]。
應用
Magnum IO主要服務在數據分析、高性能計算、深度學習方面領域[4][5],英偉達的HGX A100加入了NVIDIA Magnum IO GPUDirect Storage 軟件。[6]
Magnum IO將應用在Tursa超級計算機上,優化加速其粒子物理計算。[7]
發展
2021年6月,Nvidia發佈Magnum IO 1.0版本[4]。
參考文獻
- ^ Nvidia发布Azure云超级计算机、Magnum IO和Arm服务器架构参考平台. 至頂網. 2019-11-19 [2021-07-23]. (原始內容存檔於2021-07-23).
- ^ NVIDIA发布Magnum IO,强化AI超级计算机性能表现. 騰訊網. 2019-11-19 [2021-07-23]. (原始內容存檔於2021-07-23).
- ^ Nvidia GPU uncorks storage bottleneck with Magnum IO, claims 20x speed up. Blocks & Files. 2019-11-19 [2021-07-23]. (原始內容存檔於2021-07-23).
- ^ 4.0 4.1 Nvidia finalizes GPUDirect Storage 1.0 to accelerate AI, HPC. Nvidia finalizes GPUDirect Storage 1.0 to accelerate AI, HPC. 2021-06-30 [2021-07-23]. (原始內容存檔於2021-07-24).
- ^ KIOXIA’s PCIe 4.0 NVMe SSDs Now Qualified with NVIDIA Magnum IO GPUDirect Storage. HPCwire. 2021-04-21 [2021-07-23]. (原始內容存檔於2021-07-23).
- ^ 超算TOP500榜单公布,英伟达AI优势前所未有?. 雷鋒網. 2021-06-29 [2021-07-23]. (原始內容存檔於2021-11-03).
- ^ NVIDIA 赋能英国爱丁堡大学的新一代超级计算机. 新浪網. 2021-06-28 [2021-07-23]. (原始內容存檔於2021-07-23).