entrar registro
1

El chip de aprendizaje automático de Google es 30x más rápido y 80x más efiicnete que CPUs y GPUs [ENG]

35 visitas
|
votos: 1 · 0
|
karma: 20
|

Google reveló más detalles de su Tensor Processing Unit. De acuerdo a algunos benchmarks ejecutados en su TPU, servidores con CPUs Haswell y GPUs Nvidia Tesla K80, la TPU fue entre 15 y 30 veces más rápida y hasta 80 veces más eficiente que los otros chips. En el 2006, Google consideró usar GPUs, FPGAs o ASICs propios en sus centros de datos de aprendizaje automático. Concluyeron que no necesitaban un ASIC. Esto cambió en el 2013 cuando se dieron cuenta que el uso de DNNs explotó y necesitarían doblar sus centros de datos si dicho uso aumentaba

comentarios cerrados
suscripciones por RSS
ayuda
+mediatize
estadísticas
mediatize
mediatize