OpenAI ha dado un paso significativo hacia la seguridad de los adolescentes al anunciar la implementación de controles parentales en su plataforma ChatGPT. Esta nueva función permitirá a los padres vincular sus cuentas con las de sus hijos a partir de los 13 años, estableciendo restricciones y recibiendo alertas sobre posibles problemas emocionales.
Detalles sobre los nuevos controles
A partir del próximo mes, los padres podrán decidir si el chatbot guarda el historial de conversaciones o utiliza la función de memoria. Además, se activarán de manera predeterminada guías de contenido apropiado para la edad, que regularán cómo responde la IA. Si una conversación es marcada como riesgosa, se enviará una notificación a los padres, lo que les permitirá intervenir en momentos críticos.
Esta actualización de OpenAI refleja un reconocimiento de que los adolescentes interactúan con ChatGPT como si fuera un amigo o confidente. Aunque no se menciona directamente, se percibe como una respuesta a casos recientes donde el uso de chatbots de IA estuvo vinculado a incidentes trágicos, incluso suicidios. La empresa busca así abordar las preocupaciones sobre el impacto emocional que estas interacciones pueden tener.
Un enfoque proactivo en la salud mental
OpenAI también anunció que comenzará a desviar conversaciones delicadas relacionadas con problemas de salud mental a través de una versión especializada del modelo ChatGPT. Este nuevo enfoque emplea un método denominado alineación deliberativa que busca responder con mayor cautela y evitar indicaciones hostiles, centrándose en las directrices de seguridad.
Para hacer posible este sistema de seguridad, OpenAI ha creado el Consejo de Expertos en Bienestar e IA, que cuenta con más de 250 profesionales en salud mental y atención a adolescentes. Estos especialistas ayudarán a definir cómo detectar el malestar y cómo debe responder la IA en situaciones de riesgo.
Los padres han expresado durante mucho tiempo su preocupación por el tiempo que sus hijos pasan frente a pantallas y el contenido que consumen, pero la introducción de la IA añade una nueva dimensión a sus inquietudes, ya que ahora no solo se trata de lo que ven, sino con quién conversan. Cuando ese ‘quién’ es un modelo de lenguaje avanzado que puede parecer emocionalmente comprensivo, la situación se complica aún más.
Las herramientas de seguridad propuestas buscan que la IA sea más proactiva en la prevención de daños, con la esperanza de que se puedan evitar situaciones críticas. Aunque puede resultar incómodo, si estas funciones pueden ayudar a desviar una llamada de auxilio del borde del precipicio, se pueden considerar como un avance positivo en la protección de los jóvenes.
La realidad es que en un mundo donde la tecnología avanza rápidamente, es fundamental que tanto padres como adolescentes comprendan las capacidades y los riesgos asociados con el uso de la inteligencia artificial. La implementación de estos controles parentales en ChatGPT es un intento de OpenAI por contribuir a un entorno digital más seguro para todos.