OpenAI, la empresa detrás de ChatGPT, anunció que implementará un sistema de control parental en su popular chatbot, luego de un creciente número de acusaciones de padres que señalan a la herramienta de influenciar conductas de autolesión en adolescentes.
En un comunicado oficial, la compañía aseguró que estas medidas son “solo el comienzo” de un plan más amplio para reforzar la seguridad de los usuarios, especialmente de los menores. Sin embargo, evitó vincular directamente esta decisión con las recientes demandas que enfrenta en Estados Unidos.
El caso más alarmante es el de un joven de 16 años en California que se quitó la vida tras interactuar durante meses con ChatGPT. Sus padres denunciaron a OpenAI y a su CEO, Sam Altman, argumentando que el modelo GPT-4 no aplicó salvaguardas pese a las claras señales de intención suicida. La empresa reconoció que su sistema presenta fallos en contextos sensibles y prometió mejoras inmediatas.
El nuevo control parental —que se activará el próximo mes— permitirá a los padres vincular sus cuentas con las de sus hijos, supervisar las interacciones y recibir alertas cuando el sistema detecte signos de inestabilidad emocional o estrés agudo. Además, las conversaciones de riesgo serán derivadas a un modelo especializado con directrices de seguridad más estrictas.
La polémica sobre ChatGPT se enmarca en un debate global sobre los riesgos del uso de IA por menores, respecto a un caso de suicidio en Estados Unidos. Senadores estadounidenses ya habían solicitado a OpenAI explicaciones sobre sus protocolos de seguridad, mientras que la organización Common Sense Media insiste en que los adolescentes no deberían tener acceso a estas aplicaciones debido a los “riesgos inaceptables” que representan para su salud mental y vínculos familiares.
Fuente: EFE
360°/KR/OBP



