viernes 1 diciembre, 2023
InicioTodas las noticiasFlash News7 usos de ChatGPT con los que ciberdelincuentes hacen el mal   

7 usos de ChatGPT con los que ciberdelincuentes hacen el mal   

Usado diariamente por millones de usuarios de todo el mundo, ChatGPT es un potente modelo de lenguaje que puede ser utilizado para facilitar algunas tareas diarias permitiendo generar y crear todo tipo de documentos e incluso traducir textos otros idiomas en cuestión de segundos. Sin embargo, la neutralidad y falta de una verdadera consciencia de esta IA provoca que este gran potencial también puede ser utilizado para hacer el mal.

Desde su apertura al público el pasado año, Check Point Software Technologies ha detectado ya numerosos ejemplos de cómo los ciberdelincuentes han estado usando ChatGPT para acelerar y mejorar sus campañas y herramientas de ciberataques, suponiendo ya una problemática para los principales desarrolladores de IA.

Ante esta situación, Check Point Software ha logrado sintetizar los siete principales peligros y malos usos de la inteligencia artificial generativa en el ámbito de la ciberseguridad:

•          Distribución de malware: al aprovecharse del objetivo principal de estas herramientas, que buscan ayudar a los usuarios, los ciberdelincuentes generan elementos como virus o troyanos. Unos códigos maliciosos depurados que incrustan en documentos, correos electrónicos e incluso páginas web para maximizar el alcance de sus ataques e infectar los ordenadores de sus víctimas.

•          Phishing: con una gran cantidad de ejemplos disponibles, la IA permite crear unas comunicaciones falsas mucho más realistas y convincentes que hacen que la tarea de distinguir los verdaderos correos legítimos se convierta en un verdadero reto. Y es que el objetivo de estos no es otro que engañar a los usuarios para hacer que se sientan seguros y proporcionen información sensible como contraseñas o datos de pago como tarjetas de crédito.

•          Ingeniería social: diseñadas para ser lo más humano posible, ChatGPT puede ser utilizado para hacerse pasar por personas reales con el fin de manipular a los usuarios para que realicen acciones perjudiciales para ellos mismos o sus empresas, engañar a un usuario para que proporcione información de su cuenta.

•          Filtración y robo de datos: la IA generativa puede ser utilizada para crear documentos o correos electrónicos falsos que parezcan legítimos, lo que puede ser utilizado para engañar a los usuarios y hacer que revelen sus credenciales o datos sensibles.

•          Desinformación y propaganda: ChatGPT puede ser utilizado para generar noticias falsas y propaganda que pueden ser utilizadas para engañar y manipular a las personas. Esto puede ser usado para dañar reputaciones, sembrar discordia, e incluso incitar a la violencia.

          Difamación y suplantación: con herramientas como estas, cada vez más accesibles y asequibles, hay una creciente preocupación de que distinguir entre archivos auténticos y deep fakes sea casi imposible, capaces de crear fotografías, vídeos e incluso audios falsos.

•          Amenazas internas: la inteligencia artificial puede ser utilizada maliciosamente para crear documentos o correos electrónicos falsos que parezcan provenir de usuarios autorizados, lo que puede ser utilizado para obtener acceso a datos o sistemas sensibles.

¿Cómo protegerse de estas amenazas?

Para contrarrestar los peligros que la inteligencia artificial plantea en el ámbito de la ciberseguridad, se requiere un enfoque holístico que combine la tecnología avanzada, la educación de los usuarios, la regulación efectiva y la colaboración continua entre expertos.

Si bien la IA todavía cuenta con un gran potencial de desarrollo, es importante que la colaboración entre expertos en ciberseguridad y desarrolladores de estas herramientas se convierta en uno de los cimientos esenciales para anticipar y abordar los posibles riesgos emergentes.

“Para mitigar los riesgos de la inteligencia artificial en ciberseguridad, es esencial implementar medidas de detección avanzadas que identifiquen la actividad maliciosa antes de que ocurran los ataques. Es necesario que se establezcan unas regulaciones y estándares para garantizar un uso ético de la IA, promoviendo la transparencia y responsabilidad en su desarrollo y aplicación”, concluyó Emmanuel Ruiz, Country Manager de Check Point México.

Tendencias

Notas relacionadas

Genetec Elevate’23 incitó a socios y clientes a “Think long term”

Genetec llevó a cabo el evento Elevate'23 para socios de negocios y usuarios finales de toda Latinoamérica. Del 8 al 11 de noviembre, reunió...

CVA revela el destino de su Convención de Distribuidores 2024 

Grupo CVA reveló el destino de su próxima Convención de Distribuidores 2024, un evento que promete superar todas las expectativas y establecer un nuevo...

Check Point y Licencias OnLine muestran potencial de negocio en ciberseguridad

En el marco del evento para canales, resellers e integradores LOL Partner Exchange 2023, organizado por el mayorista de valor agregado Licencias OnLine. El...

Provision-ISR e Ingram Micro consolidan alianza para crecer en seguridad

Actualmente, la oferta de componentes de seguridad física de Provision-ISR ya está disponible en la plataforma digital de negocio Xvantage de Ingram Micro. La...

MAPS Cloud: el principal anuncio durante IT Solutions Day 2023

MAPS Disruptivo realizó la edición 2023 de su tradicional evento anual “IT Solutions Day” rompiendo récord en número de asistentes y de marcas participantes....

Con un enfoque en servicios HP realiza la edición XVII de Premios Monarca 

Durante la XVII edición de Premios Monarca, HP mostró su enfoque en la entrega de servicios administrados, entre los mayoristas galardonados destacaron Ingram Micro,...

Dell Technologies optimiza consumo de energía y resiliencia cibernética

Para mejorar su oferta de valor en resiliencia cibernética, Dell Technologies presentó una serie de mejoras a su plataforma de almacenamiento de alta densidad...

En PC DIY, Asus te enseñará a armar tu propia computadora

Por cuarto año consecutivo Asus celebrará su legado de PC DIY (Do it Yourself) con su comunidad de gamers, creadores, ensambladores y modders de...

Schneider Electric presenta marco de métricas de sostenibilidad para centros de datos

Debido al aumento en demanda de procesamiento de inteligencia artificial (IA) y aprendizaje automático, el sector de los centros de datos se ha visto...

Inteligencia Artificial y su innovación para impulsar a México en Lenovo Tech World

Lenovo llevó a cabo la segunda edición del Lenovo Tech World 2023 en México, donde destacaron las innovaciones en Inteligencia Artificial (IA) junto a...
CodePen - Cookies Popup UI Design
cookies-img

En este sitio utilizamos cookies

Esto para garantizar una buena experiencia en tu navegación. Si estás de acuerdo da click en «Aceptar todo».