Actualmente, la seguridad en IA generativa debe ser un factor clave dentro de una estrategia de desarrollo empresarial, para cualquier organización. Es decir, se tienen que llevar a cabo una serie de iniciativas de capacitación y así generar una mejor cultura de la ciberseguridad.
Para que los proveedores de soluciones de tecnologías de la información (TI), se debe contar con una sólida plataforma de protección de datos. Que debe ubicarse en la arquitectura de servicios cloud, que albergan dichos modelos de inteligencia artificial generativa (IA Gen).
“Dichos recursos de IA requieren estar en ambientes controlados y en especial, se deben de tener en cuenta al factor humano. Ya que es una de las principales brechas, en términos de protección de la información”, acotó Peter Kroll, director general en México para Novacomp.
Un ejemplo, es garantizar que la información utilizada en los modelos de IA no se deben usar para reentrenar esquemas públicos de este tipo. Es así que la seguridad en IA generativa, es un aspecto estratégico clave para cualquier organización, sin importar su giro o tamaño.
Al respecto, el reporte 2024 de IBM Security: “Costo de una filtración de datos”, mostró que el 22 % de las brechas de seguridad se deben al descuido humano. Y se dio a conocer que el costo promedio de la filtración de datos, es de 4.88 millones de dólares para las empresas.
Segmento empresarial debe enfocarse en seguridad en IA generativa
Sin embargo, dentro del ahorro de costos debido a la adopción de inteligencia artificial en la prevención de ciberataques. El sector empresarial promedia 2.2 millones de dólares menos por las filtraciones de datos, es por ello que la seguridad en IA generativa es determinante.
Otra necesidad clave, es que los datos proporcionados por los usuarios deben quedar en un entorno controlado. Ya que los archivos ingresados a las herramientas de IA, son enviados a repositorios seguros mediante mecanismos cuidadosamente diseñados, para mitigar riesgos.
“En este aspecto, los datos sensibles deben mantenerse protegidos al interactuar con cada una de las soluciones de inteligencia artificial. Otro punto clave, es la importancia de contar con certificaciones de seguridad sólidas, por parte de los proveedores”, aseveró el directivo.
En relación a la capacitación, la seguridad en IA generativa debe apostar por generar mayor responsabilidad por parte del factor humano. Por lo que se deben evitar prácticas riesgosas, como compartir información sensible en canales no autorizados u otros riesgos potenciales.
Finalmente, se debe considerar que ya se están desarrollando soluciones de IA con las que se podrán automatizar procesos de detección proactiva. Así como intentos de fuga de datos y esto permite adaptarse, para responder mejor a los desafíos en materia de ciberseguridad.