NVIDIA atklāj Tesla V100s Compute Accelerator



NVIDIA updated its compute accelerator product stack with the new Tesla V100s. Available only in the PCIe add-in card (AIC) form-factor for now, the V100s is positioned above the V100 PCIe, and is equipped with faster memory, besides a few silicon-level changes (possibly higher clock-speeds), to facilitate significant increases in throughput. To begin with, the V100s is equipped with 32 GB of HBM2 memory across a 4096-bit memory interface, with higher 553 MHz (1106 MHz effective) memory clock, compared to the 876 MHz memory clock of the V100. This yields a memory bandwidth of roughly 1,134 GB/s compared to 900 GB/s of the V100 PCIe.

NVIDIA nedetalizēja izmaiņas GPU galvenajā pulksteņa ātrumā, bet pieminēja piedāvāto veiktspējas skaitļu skaitu: 8.2 TFLOP / s divkāršas precizitātes peldošā komata veiktspēja salīdzinājumā ar 7 TFLOP / s sākotnējā V100 PCIe; 16.4. TFLOP / s viena precizitāte, salīdzinot ar 14 TFLOP / s uz V100 PCIe; un 130 TFLOP / s padziļinātas mācības salīdzinājumā ar 112 TFLOP / s uz V100 PCIe. Uzņēmuma nominālās jaudas rādītāji paliek nemainīgi ar tipisko 250 W jaudu. Uzņēmums neatklāja cenu noteikšanu.