meta
4 septiembre, 2025

Meta anuncia más restricciones de seguridad para chatbots de IA

Por redacción puntocomunica
Share

Meta ha anunciado que implementará más restricciones de seguridad en sus chatbots de inteligencia artificial, incluyendo el bloqueo de conversaciones con adolescentes sobre temas como el suicidio, las autolesiones y los trastornos alimentarios.

Esta decisión se produce dos semanas después de que un senador estadounidense iniciara una investigación sobre la empresa tras la filtración de un documento interno que sugería que los productos de IA de Meta podrían mantener conversaciones inapropiadas con adolescentes.

El documento, obtenido por Reuters, fue calificado por Meta como contenido erróneo que no se ajusta a sus normas, las cuales prohíben cualquier contenido que sexualice a menores.

Un portavoz de Meta comentó que han incorporado protecciones para adolescentes en sus productos de IA desde el principio, diseñándolos para responder de manera segura a indicaciones sobre autolesiones, suicidio y trastornos alimentarios.

La compañía informó a TechCrunch que introducirá medidas de seguridad adicionales como precaución y limitará temporalmente las interacciones de los adolescentes con ciertos chatbots.

Andy Burrows, director de la Fundación Molly Rose, expresó su asombro por el hecho de que Meta hubiera puesto a disposición chatbots que podrían poner en riesgo a los jóvenes. Agregó que, aunque se valoran las medidas de seguridad adicionales, deberían realizarse pruebas rigurosas antes de que los productos sean lanzados al mercado, no de manera retroactiva tras un daño.

Burrows también instó a Meta a actuar con rapidez y determinación para implementar medidas de seguridad más estrictas para los chatbots de IA, y sugirió que Ofcom debería estar lista para investigar si estas actualizaciones no logran proteger a los niños.

Meta confirmó que está trabajando en estas actualizaciones. La empresa ya asigna a los usuarios de 13 a 18 años a cuentas para adolescentes en Facebook, Instagram y Messenger, las cuales cuentan con configuraciones de privacidad y contenido más estrictas.

En abril, Meta informó a la BBC que los padres y tutores podrían ver con qué chatbots de IA habían interactuado sus hijos en la última semana.

La preocupación por la seguridad de la IA ha aumentado en los últimos meses. En California, una pareja presentó una demanda contra OpenAI, alegando que su chatbot incitó a su hijo adolescente al suicidio. OpenAI, por su parte, anunció recientemente cambios para promover un uso más saludable de ChatGPT, señalando que la IA puede ser más receptiva y personal que tecnologías anteriores, especialmente para personas vulnerables que enfrentan angustia mental o emocional.

Se ha reportado que el AI Studio de Meta, que permite a los usuarios crear chatbots personalizados, se utilizó para desarrollar bots de parodia coquetos de celebridades como Taylor Swift y Scarlett Johansson. Estos avatares a menudo insisten en ser los verdaderos actores y artistas, haciendo insinuaciones sexuales de manera habitual.

Además, las herramientas de Meta también se han usado para crear chatbots que imitan a celebridades menores de edad, y en un caso, generaron una imagen fotorrealista sin camisa de un joven actor, lo que llevó a la eliminación de varios de estos chatbots.

Un portavoz de Meta aclaró que, al igual que otras plataformas, permiten la generación de imágenes que contengan figuras públicas, pero sus políticas prohíben las imágenes desnudas, íntimas o sexualmente sugerentes. La compañía también destacó que las normas de AI Studio prohíben la imitación directa de figuras públicas.