OpenAI ya permite a los padres limitar el uso de ChatGPT a sus hijos: así funcionan los nuevos controles parentales
Los chatbots IA, en especial ChatGPT, están en el punto de mira por sus efectos sobre la salud mental. Este verano saltaba la noticia de que un matrimonio había demandado a OpenAI por el suicidio de su hijo adolescente y, en respuesta, la empresa confirmó un paquete de medidas entre las que se encontraba el control parental que acaban de implementar.
La respuesta a la crisis de salud mental
Desde hace meses circulan historias de personas que han tenido experiencias cercanas a la locura tras hablar con ChatGPT, hasta el punto de que el concepto «psicosis por IA» se ha convertido en una tendencia en redes (aunque no sea una etiqueta diagnóstica como tal). OpenAI se había limitado a emitir un escueto comunicado, pero tras el caso del suicidio de Adam Raine y la consiguiente demanda, la crisis de imagen era muy real.
A principios de este mes OpenAI confirmó que integrarían nuevas salvaguardas en ChatGPT y ayer mismo llegaba el anticipado control parental. La nueva función está disponible para todos los usuarios, independientemente de si usan el plan gratuito o de pago y se ha lanzado a nivel global.
Cómo funciona el control parental en ChatGPT

El control parental ya aparece en la configuración de ChatGPT.
El control parental de ChatGPT permite enlazar la cuenta de un adolescente con la de sus padres o tutores. Una vez enlazadas y establecido el rol de cada uno, el adulto podrá ajustar diversas opciones como establecer un horario de uso, desactivar el modo de voz, desactivar la memoria, evitar que use la generación de imágenes y reducir el contenido sensible.
Para activar el control parental de ChatGPT hay que acceder al apartado de configuración (pulsando sobre tu foto) y seleccionar la opción ‘Controles parentales’. Después se abrirá una ventana con la que podemos invitar a otros usuarios a unirse a nuestra familia y asignarles un rol concreto.

Además de estas opciones, quizás la función más importante es que habrá notificaciones. Cuando ChatGPT detecte signos de posibles autolesiones o conductas peligrosas, enviará una notificación a la persona al cargo del adolescente.
Hasta ahora, lo único que hacía ChatGPT cuando detectaba algo así era sugerir que el usuario acudiera a la línea de prevención contra el suicidio (algo que Adam Raine esquivó fácilmente diciendo que todo era parte de una obra de ficción que quería escribir), al incluir a los padres de los menores en la conversación se podrán tomar medidas más contundentes.
Sin embargo, siempre existe la posibilidad de que el menor tenga una segunda cuenta sin ningún tipo de control. OpenAI también está trabajando en un sistema de predicción de edad para detectar si quien está al otro lado es un adolescente y así activar las opciones correspondientes.
Imagen de portada | Pexels 1, 2
En Xataka | «No puedo parar»: la adicción a hablar con la IA ya está aquí y hasta existen grupos de ayuda para dejarla