Con una estrategia donde la inteligencia artificial emula a celebridades, los cibercriminales buscan realizar estafas más lucrativas. Esto representa un alto riesgo, para la población en general y al respecto es necesario adoptar una serie de medidas, así como mejores prácticas.
Al respecto resulta necesario reconocer un video falso para evitar ser víctimas de estafas, las cuales cada día son más sofisticadas. Ahora no es necesario usurpar la identidad, ya que se pueden generar a través de inteligencia artificial (IA), debido a la adopción de los deepfakes.
“Dichas estafas consiguen su objetivo, no solo por la sofisticadas tecnologías que se emplean sino porque muchas personas aún desconocen su existencia. Y peor aún no saben cómo se pueden identificar”, dijo Isabel Manjarrez, Investigadora de seguridad del Equipo Global de Investigación y Análisis de Kaspersky.
Ya que la inteligencia artificial emula a celebridades, los criminales suplantan a los famosos para generar empatía y ganar la confianza de las potenciales víctimas. Con esto buscan robar información confidencial, para obtener ganancias financieras o acceso a cuentas personales.
Es momento de reflexionar sobre todo el contenido que se consume en línea, para aprender a distinguir entre lo falso y lo real. De acuerdo con datos de Kaspersky, el 72 % de la gente no sabe qué es un deepfake y 62 % asegura que tampoco sabe cómo reconocer contenido falso.
Necesario protegerse ya que la inteligencia artificial emula a celebridades
Debido a que la inteligencia artificial emula a celebridades, se debe poner mayor atención a los videos y audios, ya que pueden ser una estafa. Una de las recomendaciones del proveedor de soluciones de seguridad, es buscar defectos como píxeles borrosos alrededor del rostro.
Entre las recomendaciones de Kaspersky destaca poner atención a los ojos y la boca, ya que para la IA es complicado emular los movimientos naturales. Además, se debe prestar mayor atención tanto a la iluminación como a las sombras, ya que esto puede delatar un montaje.
“Dentro de un entorno digital que avanza a gran velocidad, mantenerse informado sobre las nuevas tendencias. Se debe tener en cuenta que con la evolución de la tecnología, también se abren nuevas brechas de riesgos, por ello es importante tener una mejor cultura de la protección”, agregó Manjarrez.
Para lidiar con esta situación donde la inteligencia artificial emula a celebridades, se requiere poner atención a los audios, ya que si están robotizados son falsos. Finalmente, es necesario verificar el origen del contenido, ya que de esto depende su veracidad y nivel de seguridad.
La falta de conocimiento la aprovechan los delincuentes, así las estafas a través de mensajes falsos aumentaron un 220 % en México en 2024. Al respecto, una tendencia es la creación de audios y videos falsos mediante soluciones de inteligencia artificial generativa.