NVIDIA以PCIe卡的形式发布了Tesla P100加速芯片,该芯片可以连接到标准服务器节点,以支持本地的人工智能和工作负载处理。
级计算机。P100在今年4月于加利福尼亚州举行的NVIDIA GPU技术大会上宣布:16nm FinFET图形处理器在600mm的方形晶片上容纳150亿个晶体管。旨在实现每秒数十亿次计算,并且该软件包括神经网络训练以及天气和粒子模拟。
GPU使用NVIDIA Pascal架构来实现处理器和GPU之间的页面迁移。个P100都包含4个每秒40 GB的NVIDIA NVLink端口,并将分区连接到GPU群集。NVLink是NVIDIA设计的一种高速互连机制。IBM Power8 和Power9处理器支持NVLink,从而允许主机Power CPU的核心直接与每个GPU交互。些Blue Giant芯片主要用于美国政府的超级计算机和其他高负载设备。是,在民用领域,我们通常使用x86处理器来支持后端工作负载。
今,大多数数据中心计算处理器都是由英特尔提供的,但是英特尔不支持NVIDIA的NVLink,并且似乎没有计划在这方面做出任何努力。此,NVIDIA开发了自己的解决方案,即Tesla P100的PCIe版本,该解决方案可帮助服务器制造商加速其处理器与x86设备的集成。
意味着GPU可以通过NVLink建立高速通信,同时可以通过PCIe总线访问主机CPU。前,PCIe P100分为两种型号:16GB HBM2堆栈内存,720GB内存传输带宽,第二种成本较低,HBM2内存为12GB和内存传输带宽为每秒540 GB。者都使用PCIe gen-3 x 16通道,每秒32 GB。
64位和32位单精度双精度运算的持续性能分别为4.7万亿和9.3万亿,而16位半精度为18.7万亿。水平略低于原始P100的重复,单精度和半精度操作的53亿,106亿和210亿。
是因为由于发热,必须牺牲PCIe卡的性能。竟,我们不希望由于图形处理器的完整运行而融化了由图形处理器加速的节点的机架。外,NVLink P100的额定功率为300瓦,而其16GB PCIe的功率为250瓦,而12GB版本的功耗更低。果要在NVLink以外的服务器上全速和全功率使用Tesla P100,冷凝器价格则可以:系统制造商可以向主机添加PCIe gen-3接口,以提高性能。
是,如果只想使用PCIe,则当前的PCIe低功耗和高性能选项已经非常理想。NVIDIA产品经理Roy Kim在接受采访时说:“ PCIe P100将成为主要系统,即大型IT设备。他还建议每个服务器节点可以访问4到8个PCIe卡。些PCIe设备预计将于2016年第四季度正式发布,并将分发给Cray,Dell,冷凝器价格HP,IBM和其他NVIDIA合作伙伴。
最终价格将取决于经销商。
是根据我们收到的信息,价格将与当前的NVIDIA K80大致相同-后者的售价约为4,000美元。价值而言,英伟达透露,PCIe P100卡将在今年晚些时候集成到欧洲最大的超级计算机中,其中包括位于瑞士卢加诺国家超级计算机中心的Piz Daint。
本文转载自
冷凝器价格 http://www.china-iceage.com