9 septiembre, 2025

Meta implementará nuevas medidas de seguridad para sus chatbots de IA

Por redacción puntocomunica
Share

Meta ha anunciado que implementará nuevas medidas de seguridad para evitar que sus chatbots de inteligencia artificial discutan temas sensibles como el suicidio, las autolesiones y los trastornos alimentarios con adolescentes.

El anuncio se produce dos semanas después de que un senador estadounidense iniciara una investigación sobre la compañía, tras la filtración de documentos internos que sugerían que sus productos de IA podrían mantener conversaciones «sensuales» con jóvenes. Meta calificó estos documentos, obtenidos por Reuters, como erróneos y en desacuerdo con sus políticas que prohíben cualquier contenido que sexualice a menores.

Un portavoz de Meta, citado por la BBC, afirmó: «Desde el principio, hemos incorporado protecciones para adolescentes en nuestros productos de IA, diseñando respuestas seguras a indicaciones sobre autolesiones, suicidio y trastornos alimentarios».

La compañía también comunicó a TechCrunch que reforzará las medidas existentes «como precaución adicional» y limitará temporalmente la disponibilidad de los chatbots para usuarios más jóvenes. En lugar de abordar estos temas delicados, los sistemas redirigirán a los adolescentes a recursos especializados.

Andy Burrows, director de la Fundación Molly Rose, una organización benéfica del Reino Unido creada en memoria de Molly Russell, quien se suicidó en 2017, criticó la decisión de Meta. Comentó que era sorprendente que la empresa hubiera puesto a disposición chatbots que podrían poner en riesgo a los jóvenes. Aunque se valoran las medidas de seguridad adicionales, enfatizó que se deben realizar pruebas rigurosas antes de que los productos lleguen al mercado, no de manera retroactiva, cuando ya se ha producido el daño.

Meta debe actuar con rapidez y determinación para implementar medidas de seguridad más estrictas para sus chatbots de IA, y Ofcom debe estar lista para investigar si estas actualizaciones no logran proteger a los menores.

La compañía ha indicado que las actualizaciones están en proceso. Actualmente, Meta asigna «cuentas para adolescentes» a usuarios de entre 13 y 18 años en Facebook, Instagram y Messenger, con configuraciones de contenido y privacidad diseñadas para ofrecer una experiencia más segura. En abril, Meta informó a la BBC que los padres y tutores podrían ver con qué chatbots de IA había interactuado su hijo adolescente la semana anterior.

Estos cambios se producen en un contexto de mayor escrutinio sobre los riesgos asociados con las herramientas de IA generativa. El mes pasado, una pareja en California presentó una demanda contra OpenAI, alegando que ChatGPT había incitado a su hijo adolescente al suicidio. Este caso surgió tras el anuncio de OpenAI de actualizaciones destinadas a promover un uso más saludable del chatbot.

Se ha reportado que las herramientas de IA de Meta, que permiten a los usuarios crear chatbots personalizados, han sido utilizadas para generar bots de «parodia» coquetas de celebridades como Taylor Swift y Scarlett Johansson. Se dice que estos bots a menudo insistían en ser las verdaderas estrellas y «hacían insinuaciones sexuales rutinarias» durante las semanas de prueba.

Un portavoz de Meta declaró: «Al igual que otros, permitimos la generación de imágenes que contengan figuras públicas, pero nuestras políticas prohíben las imágenes de desnudos, íntimas o sexualmente sugerentes». Además, añadieron que las normas de AI Studio prohíben la «suplantación directa de figuras públicas».