Un informe reciente de Common Sense Media alerta que los menores de 18 años deberían evitar usar los modelos de inteligencia artificial de Google Gemini. La organización destaca que la versión destinada a adolescentes los trata igual que a adultos. Por lo tanto, califican al asistente de IA como una herramienta de alto riesgo. Este informe pone en evidencia importantes riesgos para la seguridad infantil frente al uso de esta tecnología.
Common Sense Media, una entidad sin ánimo de lucro dedicada a la seguridad infantil, analiza productos tecnológicos para informar a los padres sobre los contenidos y riesgos que enfrentan sus hijos. Tras evaluar Google Gemini, recomiendan precaución con la versión Gemini Teen porque no ofrece suficientes protecciones. Tampoco brinda orientaciones diferenciales para menores, protegiendo así poco a los más jóvenes.
Riesgos de Google Gemini para menores
El análisis de Common Sense Media revela que Google Gemini puede compartir contenido inapropiado, incluyendo material sexual o relaciones con drogas y alcohol. Asimismo, indica que la versión para adolescentes ofrece apoyo emocional y en salud mental que resulta “poco seguro”. No detecta adecuadamente síntomas graves en estos temas. Estas fallas convierten a Gemini en un asistente tecnológico con consecuencias potencialmente dañinas.
Aunque Gemini responde correctamente a consultas cotidianas, el informe señala que “falla rápidamente en conversaciones más largas y con solicitudes más sutiles y matizadas”. Este es justamente el tipo de interacción con el que los adolescentes se relacionan con los chatbots. Por ello, Common Sense Media recomienda no permitir que menores de cinco años usen chatbots. A los niños de 6 a 12 años se les recomienda usarlos solo bajo supervisión.
Recomendaciones y postura oficial
El informe aclara que los adolescentes entre 13 y 17 años pueden usar los chatbots para tareas escolares o creatividad. No obstante, rechaza el uso para acompañamiento emocional o salud mental. Frente a estas críticas, Google respondió asegurando que tienen políticas específicas para proteger a los menores y que están consultando con expertos externos para mejorar estas medidas de seguridad.
Google admitió que algunas respuestas de Gemini no funcionan perfectamente y recientemente implementó medidas adicionales para mitigarlo. Además, señaló que el informe hace referencia a funciones no disponibles para menores. También destacó que desconocen las preguntas exactas utilizadas en las pruebas por Common Sense Media.
Contexto del caso OpenAI
Este informe sobre Google Gemini emerge días después de que OpenAI ajustara las medidas de seguridad de ChatGPT tras el suicidio de un adolescente. Un caso cuya familia demandó a la empresa. OpenAI anunció mejorar sus modelos para detectar crisis emocionales y mentales. Además, bloquearán contenido peligroso y agilizarán el contacto con servicios de apoyo y familiares.