A través de una arquitectura de referencia, IBM integra cómputo cuántico y tradicional para dar forma a una nueva etapa de procesamiento. Esta iniciativa consiste en la conjugación de diversas unidades de procesamiento, tanto lógicas (CPU) como gráficas (GPU) y cuánticas.
En sistemas locales, centros de investigación y servicios cloud, el objetivo es enfrentar todos los desafíos científicos, que ningún enfoque aislado puede resolver. Dicha arquitectura está diseñada para cargas de trabajo actuales, además se preparó para evolucionar en el tiempo.
“Hace más de cuatro décadas, fue cuando Richard Feynman imaginó que las computadoras podrían simular la física cuántica. Por eso, en la empresa invertimos años haciendo realidad dicha visión y así llegamos a un punto clave”, dijo Jay Gambetta, director de IBM Research e IBM Fellow.
De este modo, el proveedor integra ambos modelos de cómputo para impulsar el desarrollo de la industria, con una orquestación altamente eficiente. Otro elemento clave, es la adopción de software de código abierto, que facilita el acceso a los científicos a capacidades cuánticas.
Todo esto sin abandonar las herramientas que ya dominan, de hecho los primeros resultados muestran que esta arquitectura puede aportar alto valor. En áreas como química, ciencia de materiales y optimización, así se abren nuevas posibilidades para la investigación avanzada.
“Los procesadores cuánticos actuales, ya comienzan a abordar las áreas más complejas de los problemas científicos. Es decir, aquellos regidos por la mecánica cuántica en la química y así el futuro es la supercomputación centrada en lo cuántico, donde estos procesadores van a trabajar con el cómputo lógico”, acotó el directivo.
Para impulsar a la industria IBM integra cómputo cuántico y tradicional
Dichos resultados marcan un precedente a nivel de investigación científica, es por esto que IBM integra cómputo cuántico y tradicional. Así, especialistas de la firma y de universidades europeas lograron crear una molécula de medio Möbius, aprovechando estas herramientas.
Otro avance clave lo consiguió Cleveland Clinic, que simuló una mini proteína de 303 átomos llamada tryptophan‑cage. Uno de los modelos moleculares más grandes ejecutados con esta tendencia y la Universidad de Chicago reveló el estado de menor energía, en estos sistemas.
“En conjunto ambos modelos de procesamiento, van a resolver los problemas que antes se encontraban fuera de nuestro alcance. Por esto, desde IBM desarrollamos la tecnología y los sistemas, que hacen realidad hoy este futuro de la computación. En un ambiente unificado e integrado de alto valor”, señaló Gambetta.
Estos logros superan todo lo realizado anteriormente, en este tipo de cosas radica el valor de la iniciativa donde IBM integra cómputo cuántico y tradicional. De hecho, la implementación de nuevos algoritmos sobre dicha base promete impulsar aplicaciones en química o ciencia.
Finalmente, con este anuncio el proveedor reafirma su liderazgo en la frontera del cómputo y marca un nuevo camino para la industria. Donde la integración de alto valor, permite dar seguimiento y resolver problemas que antes parecían inalcanzables, para los investigadores.
“Al conjugar el hardware cuántico con la infraestructura clásica, incluyendo clústeres de CPU y GPU, redes de alta velocidad y almacenamiento compartido. Se puede conformar la nueva arquitectura de referencia, que brinda flujos de trabajo coordinados entre ambos modelos de cómputo”, finalizó el directivo.