Aún se mantiene la idea de que la unidad central de procesamiento (CPU) es la parte nuclear de un equipo de cómputo, sin embargo en los últimos años la unidad de procesamiento de gráficos (GPU) ha revolucionado la industria, principalmente en tecnologías de nueva generación como la inteligencia artificial (AI), supercómputo o videojuegos. De hecho están entrando a ambientes más complejos como centros de datos de hiperescala.
De esta manera, las GPU están superando el ámbito del cómputo personal, por su parte las CPU también han evolucionado para ser más rápidas y versátiles, aún así solamente pueden realizar algunas tareas que no requieren mucha interactividad, por ejemplo buscar datos en las unidades de almacenamiento de las computadoras, por el contrario las GPU tienen una mayor capacidad de procesamiento simultaneo.
Ejemplo de esto es su capacidad de dividir los problemas complejos en miles o millones de tareas para procesarlas al mismo tiempo, esto las hace ideales para cargas de trabajo relacionadas con elementos gráficos, ya que pueden destacar texturas, iluminación y renderización, así es posible brindar una mejor experiencia al usuario. Desde el enfoque de la arquitectura, una CPU está compuesta por algunos núcleos y memoria caché.
Así pueden soportar sólo algunos procesos al mismo tiempo, por su parte la GPU está compuesta por cientos de núcleos que pueden manejar miles de tareas de manera simultánea, parte de este logro se debe a personas como Seymor Cray. A nivel estratégico, las GPU optaron por posicionarse en el área del cómputo personal y consolas de videojuegos pero esto sólo es el principio de todo el potencial que pueden ofrecer.
Por ello se han creado programas de investigación y desarrollo (I+D), en este sentido destaca CUDA una plataforma de computación en paralelo lanzada en 2007, que permite a los codificadores aprovechar las GPU en procesamiento general, esto mediante algunos comandos simples en el código. De esta manera, las unidades de procesamiento de gráficos extienden sus áreas de trabajo, otras tendencias relevantes son Kubernetes y Dockers.
En general, las aplicaciones se pueden probar en GPUs de computadoras básicas de escritorio y escalarse a unidades más complejas en servidores o incluso en plataformas en la nube. La Ley de Moore plantea que la cantidad de transistores que puede contener un circuito integrado, en promedio, se duplicará cada dos años pero este paradigma va desapareciendo con la evolución de los GPU que serán el futuro de los semiconductores.
La optimización en el consumo de energía es otro factor que impulsa la adopción de GPUs en los centros de datos y supercómputo de nueva generación, incluso también sirve de respaldo para tendencias como el deep learning o las redes neuronales. De hecho, dichas unidades también se pueden emplear en el desarrollo de vehículos autónomos y robótica, finalmente el sector salud también se puede beneficiar con su rendimiento.