Google pone sus procesadores TensorFlow en línea

En su estrategia de atraer talento e interés hacia sus propuestas de inteligencia artificial, Google ha anunciado la disponibilidad de sus procesadores verticales para redes neuronales al público. Las TPU, o “Tensor Processor Units”, están optimizadas para ejecutar directamente el código generado por la librería TensorFlow y cada una de ellas cuenta con cuatro procesadores ASIC con 64 GB de memoria de alta velocidad y un pico de rendimiento de 180 TeraFLOPs.

Eso es MUCHA potencia de cálculo, sobre todo si tenemos en cuenta que ya está afinada para ejecutar un tipo de código muy concreto. Y es que lo que vemos no es más que un paso más en el camino iniciado hace un par de años cuando se presentó la librería TensorFlow. Por primera vez, cualquiera tenía los recursos para desarrollar aplicaciones de redes neuronales e investigar sus aplicaciones. El siguiente paso era la aceleración por hardware, que se concretó con el lanzamiento de las primeras TPUs en 2016 y una segunda generación mejorada el año siguiente.

Pero la potencia a secas no vale de nada sin aplicaciones, por lo que Google abrió las puertas de sus centros de proceso de datos y los clústers de TPUs a la comunidad de desarrolladores con el TensorFlow Research Program. Ahora ese programa se amplía a todo el que quiera usarlo, aunque el acceso no será indiscriminado. Primero habrá que rellenar una solicitud explicando el proyecto en marcha y, si te aceptan, el coste será de unos $6 por hora.

Más información: Google.