El crecimiento de ChatGPT entre jóvenes y estudiantes encendió alertas sobre los riesgos de que los menores mantengan conversaciones sensibles con una inteligencia artificial. Frente a esta preocupación, OpenAI decidió reforzar la seguridad de la plataforma, con medidas que incluyen controles parentales y alertas para detectar señales de peligro emocional.
Los especialistas en psicología advirtieron a la compañía que la interacción de los adolescentes con la IA puede derivar en ilusiones, delirios o trastornos inéditos, sobre todo en contextos de depresión, ansiedad o adicciones.
Por ese motivo, OpenAI sumó un Consejo de Expertos en bienestar y salud mental y una Red Global de Médicos que colaborarán en la definición de reglas de interacción y en la orientación del desarrollo del chatbot.
“Es necesario explorar cómo la inteligencia artificial puede apoyar al bienestar humano y no convertirse en un riesgo”, señalaron desde la empresa de Sam Altman.
Entre las novedades técnicas, se incorporará un enrutador capaz de derivar la charla al modelo de IA más adecuado según el tema tratado. Por ejemplo, si un menor expresa angustia o pensamientos negativos, el sistema podrá activar un modelo especializado como GPT-5, diseñado para dar respuestas empáticas, pausadas y de contención, con la posibilidad de derivar a recursos de ayuda reales.
Los controles parentales permitirán a los adultos:
Vincular sus cuentas con las de sus hijos para monitorear interacciones.
Definir reglas de comportamiento sobre cómo debe responder el chatbot.
Gestionar memoria e historial de conversaciones, con la opción de desactivarlos.
Recibir alertas si el sistema detecta un estado emocional de alto riesgo.
Con esto, se busca limitar la exposición a contenidos dañinos y dar a las familias la posibilidad de intervenir a tiempo.
Las medidas llegan después del caso de Adam Raine, un joven británico de 16 años que se quitó la vida en abril, hecho atribuido en parte a sus conversaciones con ChatGPT. El episodio generó una denuncia contra OpenAI y abrió un debate internacional sobre el papel de la inteligencia artificial en la vida de los menores.
Si bien la empresa evitó referirse directamente a ese caso, reconoció la necesidad de identificar crisis emocionales en tiempo real, bloquear respuestas potencialmente dañinas y facilitar el contacto con servicios de emergencia o familiares.
El lanzamiento de estas herramientas marca un cambio en la forma en que las tecnológicas enfrentan la relación entre menores y la inteligencia artificial. No se trata solo de restringir contenidos, sino de crear un entorno digital más empático, seguro y supervisado.
Resta comprobar si estas medidas serán suficientes en un escenario en el que la tecnología avanza más rápido que las regulaciones, pero OpenAI asegura que el objetivo es claro: construir una IA que no solo sea útil, sino también responsable y alineada con el bienestar humano.