
Un informe de Common Sense Media concluyó que Google Gemini representa un alto riesgo para los menores de edad. Según la organización, el asistente de inteligencia artificial no aplica protecciones suficientes para diferenciar entre usuarios adolescentes y adultos, a pesar de contar con una versión para menores.
La entidad sin fines de lucro, que evalúa herramientas tecnológicas enfocadas en la seguridad infantil, analizó Google Gemini Teen, versión desarrollada para personas entre los 13 y los 17 años. Tras la evaluación, indicó que el sistema trató a los adolescentes de la misma manera que a los adultos, incluso cuando se le hicieron consultas sensibles.
LEA MÁS: ¿Cómo activar los mensajes efímeros de WhatsApp?
El análisis reveló que Gemini expuso a menores a contenido sexual, relacionado con drogas, alcohol y otros temas potencialmente peligrosos. También encontró fallos en el manejo de solicitudes sobre salud mental, al brindar apoyo emocional inseguro y no reconocer síntomas graves de deterioro psicológico.
La organización recomendó evitar por completo el uso de esta inteligencia artificial por parte de menores de 18 años. Sugirió además que los menores de entre 6 y 12 años solo interactúen con estos sistemas bajo supervisión adulta. Para los adolescentes de entre 13 y 17 años, consideró que solo deben usarlos para tareas escolares o proyectos creativos. Rechazó categóricamente su uso como acompañamiento emocional o en temas de salud mental.
Aunque Common Sense Media reconoció que Gemini respondió de forma adecuada ante solicitudes básicas, señaló que falló con rapidez durante conversaciones extensas o con temas complejos, que son frecuentes entre adolescentes.
Respuesta de Google
Ante los hallazgos, Google respondió que cuenta con políticas y medidas de seguridad enfocadas en proteger a los menores. También aseguró que consulta a expertos externos para mejorar la experiencia infantil y adolescente con su tecnología.
La compañía reconoció que algunas respuestas del chatbot no funcionaron como se esperaba, razón por la cual se implementaron nuevas medidas de seguridad. Sin embargo, criticó que el informe citó funciones que supuestamente no están habilitadas para menores de 18 años y alegó no haber tenido acceso a las preguntas usadas durante las pruebas.
Otro caso reciente con OpenAI
El informe se publicó días después de que OpenAI modificara medidas de seguridad en ChatGPT, tras el suicidio de un adolescente en Estados Unidos. Según los padres, el menor habría tenido interacciones con el chatbot antes de quitarse la vida. Este hecho derivó en una demanda contra la compañía.
OpenAI informó que reforzó sus sistemas para detectar crisis emocionales y bloquear contenido sensible, además de implementar herramientas que facilitan el contacto con redes de apoyo familiar o profesionales de salud mental.
LEA MÁS: Círculo azul de WhatsApp: paso a paso para desactivar Meta AI
*La creación de este contenido contó con la asistencia de inteligencia artificial. La fuente de esta información es de una agencia de noticias y revisada por un editor para asegurar su precisión. El contenido no se generó automáticamente.