Meta anunció una revisión de sus herramientas de inteligencia artificial para evitar conversaciones inapropiadas entre adolescentes y sus chatbots. La empresa indicó que, de ahora en adelante, sus asistentes digitales recibirán entrenamiento con medidas de seguridad más estrictas y se implementarán límites específicos para proteger a los usuarios jóvenes en plataformas como Instagram, Facebook, WhatsApp y Threads.
La portavoz de Meta, Stephanie Otway, señaló a TechCrunch y en respuesta a una cobertura de Reuters que, en el pasado, algunos chatbots de la compañía habían mantenido diálogos con adolescentes sobre temas delicados como autolesiones, suicidio, trastornos alimentarios o relaciones románticas potencialmente inapropiadas. Otway describió esos incidentes como un error y aseguró que las actualizaciones actuales son provisionales, con planes de desplegar mejoras de seguridad más sólidas a corto y mediano plazo.
Además, Meta adelantó que restringirá el acceso de los menores a ciertos personajes de IA que podrían sostener conversaciones inadecuadas. Estos personajes, creados por usuarios y disponibles en plataformas como Instagram y Facebook, habían mostrado interacciones con contenidos de carácter sexual o riesgoso. La compañía afirmó que continuará evaluando y ajustando estos perfiles para evitar exposiciones peligrosas y fomentar entornos más seguros para los jóvenes.
Otway subrayó que el crecimiento de la comunidad y la evolución tecnológica exigen una mejora continua de las protecciones. Con este enfoque, Meta busca equilibrar la innovación con la responsabilidad, evitando que herramientas de IA se transformen en vectores de contenido o dinámicas inapropiadas para los usuarios más jóvenes.
Fuente: Wired
360°/PG/OBP



