Bajo las nuevas medidas, los padres podrán reducir la exposición a contenido sensible, controlar si ChatGPT recuerda chats pasados y decidir si las conversaciones se pueden usar para entrenar los modelos de OpenAI.

OpenAI está implementando controles parentales para ChatGPT en la web y dispositivos móviles el lunes, luego de una demanda de los padres de un adolescente que murió por suicidio después de que el chatbot de la startup de inteligencia artificial supuestamente lo entrenó sobre métodos de autolesión.

Los controles permiten a los padres y adolescentes optar por salvaguardas más fuertes al vincular sus cuentas, donde una parte envía una invitación y los controles parentales se activan solo si la otra acepta, dijo la compañía.

Los reguladores estadounidenses están examinando cada vez más a las empresas de IA sobre los posibles impactos negativos de los chatbots. 

Lee también: SII registra aumento de influencers en Chile que pagan impuestos en 2025: cifra se duplicó respecto a 2024

Bajo las nuevas medidas, los padres podrán reducir la exposición a contenido sensible, controlar si ChatGPT recuerda chats pasados y decidir si las conversaciones se pueden usar para entrenar los modelos de OpenAI, dijo la compañía respaldada por Microsoft en X.

Los padres también podrán establecer horas de silencio que bloqueen el acceso durante ciertos momentos y desactiven el modo de voz, así como la generación y edición de imágenes, dijo OpenAI. Sin embargo, los padres no tendrán acceso a las transcripciones de chat de un adolescente, agregó la compañía.

En casos raros en los que los sistemas y los revisores capacitados detectan signos de un riesgo grave para la seguridad, los padres pueden ser notificados solo con la información necesaria para respaldar la seguridad del adolescente, dijo OpenAI, y agregó que se les informará si un adolescente desvincula las cuentas.

OpenAI, que tiene alrededor de 700 millones de usuarios activos semanales para sus productos ChatGPT, está construyendo un sistema de predicción de edad para ayudarlo a predecir si un usuario es menor de 18 años para que el chatbot pueda aplicar automáticamente configuraciones apropiadas para adolescentes.

Meta también había anunciado nuevas salvaguardas para adolescentes en sus productos de IA el mes pasado. La compañía dijo que entrenará a los sistemas para evitar conversaciones coquetas y discusiones sobre autolesiones o suicidio con menores y restringirá temporalmente el acceso a ciertos personajes de IA.

Con información de Reuters.