Tanium señala que la Inteligencia Artificial (IA) ha golpeado como una bomba la vida cotidiana. Cuando ChatGPT de OpenAI se lanzó al público en general a fines de noviembre del año pasado, una sacudida atravesó la sociedad global, ya que ninguna aplicación en la historia observó un crecimiento de un millón de usuarios registrados cinco días después de su lanzamiento y, después de un mes, el chatbot rompió la marca de 100 millones.
Para la firma, el entusiasmo desenfrenado por los productos de las aplicaciones de IA pronto se vio empañado por la preocupación sobre su impacto en la sociedad: el manejo acrítico de los resultados, algunos de los cuales son alucinaciones, es tan preocupante como las preguntas sobre sus cualidades disruptivas para el sistema educativo, el peligro de las campañas de desinformación escalables y gratuitas, el acceso de bajo espectro al código malicioso y, finalmente, sobre el cumplimiento y los derechos de autor que están aún sin resolver.
Regular e involucrar a expertos
Países como Italia y China han tratado de restringir el uso de ChatGPT, siendo ejemplos iniciales de enfoques regulatorios aún complicados porque ni siquiera los principales desarrolladores de IA de OpenAI y Google pueden comprender (o no quieren revelar) los detalles de cómo se crean los resultados de sus modelos generativos de IA, situación que se debería tomar como una señal de advertencia.
Para Tanium, a los ojos de inversores y desarrolladores, está en juego nada menos que el modelo de desarrollo más grande en la historia humana, con la promesa de una creación de valor automatizada casi ilimitada, saltos cuánticos en la ciencia y el consiguiente aumento de prosperidad para toda la humanidad.
No obstante, al mismo tiempo, solo un puñado de investigadores en todo el mundo se ocupa de las disciplinas de seguridad de la IA que serían, como primera disciplina, la interpretabilidad; que se ocupa de desarrollar una comprensión profunda de cómo se producen los resultados respectivos de los diversos modelos de IA. Solo con la ayuda de esta comprensión se puede predecir el comportamiento futuro de la IA y evitar resultados dañinos.
La segunda disciplina de la seguridad de la IA, es la investigación de alineación; que tiene como objetivo equipar los modelos y agentes de IA actuales (débiles) y futuros (fuertes) con los valores centrales y fundamentales de la humanidad e integrarlos en su esencia. Algo así como las leyes básicas de la robótica de Asimov:
1. Nunca dañar a un ser humano y salvaguardarlo de cualquier daño a toda costa.
2. Obedecer siempre las órdenes de los humanos, a menos que esto viole la regla número uno
3. Proteger siempre la propia existencia, a menos que esto viole la regla número uno o dos.
Si bien estas reglas son útiles como base para formular reglas de alineamiento para los agentes de IA como un buen punto de partida para pensar, no serán suficientes por sí solas para hacer que los futuros agentes de IA poderosos y que actúen de forma autónoma sean sostenibles y sólidamente seguras contra todos los cambios futuros posibles.
Todavía tenemos tiempo
De acuerdo con la compañía de administración de sistemas y ciberseguridad, dado el estado actual de la investigación, aún no se ha llegado al punto en el que se debe temer una pérdida de control. Pero los efectos negativos del uso no regulado de la IA ya se están sintiendo.