中关村在线消息,近期有消息称,英伟达和IBM打造了一套新架构,致力于为GPU加速应用程序,提供对大量数据存储的快速“细粒度访问”。大加速器内存旨在扩展GPU显存容量、有效提升存储访问带宽,同时为GPU线程提供高级抽象层,以便轻松按需、细粒度地访问扩展内存层次中的海量数据结构。这项技术将使人工智能、分析和机器学习训练等领域更加受益。

据悉,这项技术允许NVIDIA GPU直接获取数据,而无需依赖CPU来执行虚拟地址转换、基于页面的按需数据加载、以及其它针对内存和外存的大量数据管理工作。

具体而言,这项技术有两大优势,其一是基于软件管理的GPU缓存,数据存储和显卡之间的信息传输分配工作,都将交给GPU核心上的线程来管理。通过使用RDMA、PCI Express接口、以及自定义的Linux内核驱动程序,可允许GPU直接打通SSD数据读写。

其次,通过打通NVMe SSD的数据通信请求,只会在特定数据不在软件管理的缓存区域时,才让GPU线程做好参考执行驱动程序命令的准备。基于此,在图形处理器上运行繁重工作负载的算法,将能够通过针对特定数据的访问例程优化,从而实现针对重要信息的高效访问。

研究人员还表示,作为当前基于CPU统管一切事务的传统解决方案的一个可行替代,研究表明存储访问可同时工作、消除了同步限制,并且I/O带宽效率的显著提升,也让应用程序的性能不可同日而语。

(7887987)

关键词: 英伟达正与IBM推动GPU直连SSD的技术 数据存储