Computex 2018 – Resumen conferencia NVIDIA

La conferencia GTC Taiwan 2018 de NVIDIA, previa a Computex 2018, acaba de terminar, y una de las novedades más importantes que ha traído consigo ha sido le presentación del nuevo modelo de su superordenador orientado a inteligencia artificial y deep learning. Lo que han mostrado ha sido tanto una versión autosuficiente del sistema, como una versión en rack habilitada para servidores, estamos hablando de los DGX-2 y HGX-2.

Especificaciones y fechas

Ambos sistemas contarán con 16 NVIDIA Tesla V100 con 32GB de memoria HBM2 cada una. Para, en combinación tener hasta un total de 512GB de memoria HBM2, una potencia de cálculo de 2 PTFLOPS, 81.920 CUDA Cores y un ancho de banda de 14,4 TB/sec. Todo esto gracias a que las 16 NVIDIA Tesla están conectadas mediante NVSwitch.

La versión DGX-2 además vendrá con su propia carcasa patentada y se espera que tenga un consumo de 10 kW. Con los podrá dar energía a las 16 GPUs de NVIDIA Tesla V100 con 32GB de memoria HBM2 cada una, dos Intel Xeon Platinum, de los que aún se desconoce el modelo, 1,5 TB de memoria de sistema y 30 TB de almacenamiento SSD NVMe.

El modelo dedicado a servidores, el HGX-2, que contará con la misma configuración que el DXG-2, estará disponible más tarde este mismo año no solo por parte de NVIDIA, además Lenovo, QCT, Supermicro y Wiwynn también anunciaron que lanzarán su versión del sistema HGX-2 más adelante este año.

Además, Quanta, Foxconn, Inventec y Flextronics, los cuatro mayores ODM del mundo, también están diseñando sistemas basados ​​en HGX-2, y se espera que los utilicen en algunos centros de datos en la nube a finales de este año. Con el objetivo de llevar aún más lejos la inteligencia artificial y el deeo learning, que es con la finalidad que estos sistemas han sido tanto ideados como fabricados.

Por ahora todo lo que sabemos de estos dos productos tanto en fechas como en precio es que el DXG-2 saldrá en algún punto de Q3 a un precio de 400.000 $.

Computex 2018 – Resumen conferencia NVIDIA