Según datos en línea, el riesgo en Google Gemini para niños y adolescentes es crítico por diversas razones. Esto lo dio a conocer la organización sin fines de lucro Common Sense Media, que se dedica a la seguridad infantil en entornos tecnológicos.
De hecho, se evaluó a las soluciones del asistente inteligente como de “alto riesgo” para este sector de la población, dicha publicación se hizo el pasado 4 de septiembre. En este sentido, se advierte que este asistente puede mostrar contenido inapropiado, para menores de edad.
“Debemos reconocer que Google Gemini acierta en algunos aspectos básicos, sin embargo se reportan brechas de seguridad en algunos detalles. Ya que una plataforma de inteligencia artificial para niños debe adaptarse a su situación actual”, declaró Robbie Torney, director sénior de Programas de IA de Common Sense Media.
Es así como, el riesgo en Google Gemini para menores tiene que ver con el contenido que se relaciona con temas como sexo, drogas y alcohol. A esto, se agregan recomendaciones poco confiables en materia de salud mental, algo que resulta preocupante para esta organización.
Como parte del contexto, se debe tener en consideración que ya se han documentado casos en los que interacciones con asistentes de IA influyeron en suicidios de adolescentes. Es así que, se detectó que las versiones para menores son similares a los modelos para los adultos.
Menores de edad corren un alto riesgo en Google Gemini
Es decir, los módulos “Menores de 13 años” y “Experiencia adolescente” comparten un gran número de características con el asistente digital en general. Es por esto, que tanto los niños como los jóvenes corren un alto riesgo en Google Gemini debido al contenido no apropiado.
Adicionalmente, carece de adaptación a las diferentes etapas de desarrollo. En el informe se hizo énfasis, en que si bien Gemini reconoce que es una computadora y no una persona. Aún existe la posibilidad de compartir con los menores información, considerada poco apropiada.
“Otra de las principales áreas de riesgo en dicho asistente inteligente, consiste en no adoptar un enfoque único para niños en diferentes etapas de desarrollo. Dicho informe, forma parte de una serie de evaluaciones a otros sistemas de IA, que también obtuvieron evaluaciones poco favorecedoras”, mencionó Torney.
Como parte del estudio donde se identificó el riesgo de Google Gemini, el asistente ChatGPT resultó con un riesgo moderado. Por su parte, Claude obtuvo la calificación de riesgo mínimo al estar dirigido solo a adultos, en resumen se mostró un panorama sobre la seguridad en IA.
Una brecha de vulnerabilidad del asistente digital, es que ambas versiones apenas cuentan con ciertas funciones de seguridad adicionales. Finalmente, los otros asistentes evaluados, Meta AI y Character AI fueron catalogados de riesgo grave y Perplexity, como de alto riesgo.