Rumbo a las elecciones presidenciales de 2024, ChatGPT y DALL·E 3 se perfilan para combatir la desinformación que pueda ser utilizada con fines electorales.
De acuerdo con OpenAI, compañía responsable de inteligencia artificial (IA), trabaja para mitigar la creación de deepfakes y contenido engañoso, relacionado con los candidatos.
Desinformación en tiempo de elecciones
El 2024 será un año electoral de relevancia global, con 76 países en elecciones y al menos 51 % de la población involucrada en el ejercicio electoral.
Bajo esta línea, existen dos frentes de cuidado para la ciberseguridad: el voto electrónico y las medidas para prevenir la desinformación.
Por ello, la secretaria electoral del Instituto Nacional Electoral (INE), Carla Humphrey, consideró que los sistemas democráticos pueden ser afectados por el flujo de la información y su veracidad.
En un artículo del 17 de marzo de 2023, compartido por el INE, se informó que las noticias falsas tienen un impacto negativo sobre la sociedad.
Y en el contexto electoral, la desinformación es capaz de modificar las preferencias de los votantes.
El papel de OpenAI para combatir la desinformación
Para OpenAI, las herramientas tecnológicas deben pasar por una serie de retos antes de alcanzar su mejor potencial.
En el caso de sus implementaciones de IA, la fidelidad y transparencia de la información son aspectos a seguir en las elecciones del 2024.
Al ser herramientas que aprenden de los hábitos de sus usuarios, ChatGPT y DALL·E se pueden observar en tiempo real para medir el impacto del texto e imágenes producidas con inteligencia artificial.
Según métricas de Exploding Topics, la herramienta conversacional GPT cuenta con más de 180 millones de usuarios
Y 70 % del contenido de redes sociales proviene de la plataforma Youtube.
Además, cualquier usuario que use las herramientas para pasar por un candidato político será vetado de la plataforma.
Asimismo, OpenAI anunció una alianza con la National Association of Secretaries of State para supervisar el proceso de creación de texto a imágenes.
Mediante preguntas de logísticas en materia electoral, las autoridades podrán dar seguimiento a la fuente de la desinformación que afecten la percepción sobre las votaciones.
Cabe señalar que, además de crear noticias falsas, ChatGPT puede hacerse pasar por uno de los candidatos a la presidencia.
Eso puede aumentar las probabilidades de engañar a los usuarios.
De igual manera, DALL·E puede generar imágenes complementarias al contenido creado en GPT, lo que significa una amenaza doble.