Con la posible desinformación de la inteligencia artificial, los creadores de contenido que la emplean se pueden ver expuestos a problemas legales. Que se generan, por temas como la difamación e incluso fraude, por esto es importante hacer un uso responsable de los datos.
Si bien la IA aporta un alto valor en términos de automatización para generar información, también se abren nuevas brechas de riesgo legal. Al menos, esto lo señala el despacho de abogados Pérez Correa González, el cual se especializa en derecho tecnológico y financiero.
“Ahora todos somos creadores activos de contenido, por esto debemos ser la primera línea de defensa para no difundir información financiera sin respaldo. Otras áreas de alto riesgo, son la salud e incluso datos que inciten a la violencia”, dijo Emilio Carrillo Peñafiel, socio de Pérez Correa González.
De hecho, un estudio de la Oficina de Propiedad Intelectual de la Unión Europea (EUIPO) se dio a la tarea de analizar los desafíos legales que plantea la IA. Es decir, la desinformación de la inteligencia artificial demanda comprender la tensión entre automatización y protección.
En la investigación, se reveló que los desarrolladores de modelos de IA de propósito general están obligados a cumplir con el marco legal. El cual señala sobre los derechos de autor en el mercado único digital (CDSM), así se excluye su contenido del uso de la automatización.
Problemas legales ocasionados por la desinformación de la inteligencia artificial
Lo anterior se puede hacer con técnicas de minería de texto y datos (TDM), sin embargo esta exclusión debe realizarse bajo una figura legal. Así se establece un marco claro que impide el uso del contenido, para evitar problemas por desinformación de la inteligencia artificial.
Así, el aumento de publicaciones generadas por IA ocasiona una saturación de historias del tipo motivacional recicladas. A esto, se agregan frases prefabricadas con narrativas virales en las redes sociales, de hecho en el último año crecieron exponencialmente las páginas con IA.
“Seguir las tendencias de redes sociales puede crear problemas legales para los generadores de contenido. Ya que la creciente automatización en creación de datos en diversos formatos, también puede derivar en consecuencias legales y ante esto es necesario tomar medidas al respecto”, acotó Peñafiel.
Un estudio de Ahrefs que se realizó en mayo de 2025, más del 70 % de 900 mil páginas web creadas en abril tenían contenido parcial o totalmente automatizado. Este es un ejemplo de cómo la desinformación de la inteligencia artificial, puede generar problemas del tipo legal.
Adicionalmente, un estudio de Europol advierte que el 90 % del contenido en línea se generará por IA para el año 2026. Algo que dificultará distinguir entre un discurso humano y aquellos que sean creados mediante la IA, finalmente esto requiere nuevos marcos legales.
Por Carlos Ortiz/Notipress