Magnum IO
原理
Magnum IO可以帮助数据绕过CPU,直接从存储器到GPU、存储和网络设备来链接处理数据,在运算时候降低延迟,提升计算效率[2],将支持多服务器、多 gpu 计算节点配置[3]。
应用
Magnum IO主要服务在数据分析、高性能计算、深度学习方面领域[4][5],英伟达的HGX A100加入了NVIDIA Magnum IO GPUDirect Storage 软件。[6]
Magnum IO将应用在Tursa超级计算机上,优化加速其粒子物理计算。[7]
发展
2021年6月,Nvidia发布Magnum IO 1.0版本[4]。
參考文獻
- ^ Nvidia发布Azure云超级计算机、Magnum IO和Arm服务器架构参考平台. 至顶网. 2019-11-19 [2021-07-23]. (原始内容存档于2021-07-23).
- ^ NVIDIA发布Magnum IO,强化AI超级计算机性能表现. 腾讯网. 2019-11-19 [2021-07-23]. (原始内容存档于2021-07-23).
- ^ Nvidia GPU uncorks storage bottleneck with Magnum IO, claims 20x speed up. Blocks & Files. 2019-11-19 [2021-07-23]. (原始内容存档于2021-07-23).
- ^ 4.0 4.1 Nvidia finalizes GPUDirect Storage 1.0 to accelerate AI, HPC. Nvidia finalizes GPUDirect Storage 1.0 to accelerate AI, HPC. 2021-06-30 [2021-07-23]. (原始内容存档于2021-07-24).
- ^ KIOXIA’s PCIe 4.0 NVMe SSDs Now Qualified with NVIDIA Magnum IO GPUDirect Storage. HPCwire. 2021-04-21 [2021-07-23]. (原始内容存档于2021-07-23).
- ^ 超算TOP500榜单公布,英伟达AI优势前所未有?. 雷锋网. 2021-06-29 [2021-07-23]. (原始内容存档于2021-11-03).
- ^ NVIDIA 赋能英国爱丁堡大学的新一代超级计算机. 新浪网. 2021-06-28 [2021-07-23]. (原始内容存档于2021-07-23).