EEUU investiga a Alphabet, Meta, OpenAI, xAI y Snap por la seguridad de los chatbots de IA
La Comisión Federal de Comercio de Estados Unidos (FTC, por sus siglas en inglés) ha emitido una orden a siete compañías (Alphabet, Meta, OpenAI, Character.AI, Instagram, Snap y xAI) que proporcionan chatbots impulsados por inteligencia artificial (IA) orientados al consumidor para buscar información sobre cómo estas empresas miden, prueban y monitorean los impactos "potencialmente negativos" de esta tecnología en niños y adolescentes.

En este sentido, desde la agencia han explicado que "los chatbots de IA pueden usar tecnología de inteligencia artificial generativa para simular la comunicación y las relaciones interpersonales humanas. Pueden imitar eficazmente las características, emociones e intenciones humanas, y generalmente están diseñados para comunicarse como un amigo o confidente, lo que puede incitar a algunos usuarios, especialmente niños y adolescentes, a confiar y establecer relaciones con ellos".
Por ello, en su investigación, la FTC busca comprender "qué medidas, si las hay", han tomado las empresas para evaluar la seguridad de sus chatbots cuando actúan como acompañantes, para limitar el uso de los productos y los posibles efectos negativos en niños y adolescentes, y para informar a los usuarios y padres sobre los riesgos asociados con los productos.
"Proteger a los niños en línea es una prioridad absoluta para la FTC Trump-Vance, al igual que fomentar la innovación en sectores críticos de nuestra economía", ha señalado Andrew N. Ferguson, presidente de la FTC.
"A medida que evolucionan las tecnologías de IA, es importante considerar los efectos que los chatbots pueden tener en los niños, a la vez que se garantiza que Estados Unidos mantenga su liderazgo mundial en esta nueva y emocionante industria. El estudio que presentamos hoy nos ayudará a comprender mejor cómo las empresas de IA están desarrollando sus productos y las medidas que están tomando para proteger a los niños", ha añadido.
A este respecto, la FTC ha subrayado que está "interesada particularmente" en el impacto de estos chatbots en los niños y en las acciones que están tomando las compañías para mitigar los potenciales impactos negativos, limitar o restringir el uso de estas plataformas por parte de niños o adolescentes, o cumplir con la Ley de Protección de la Privacidad Infantil en Línea.
Así, como parte de su investigación, la FTC está buscando información sobre cómo las empresas monetizan la participación del usuario; procesan las entradas de los usuarios y generan resultados en respuesta a sus consultas; desarrollan y aprueban personajes; miden, aprueban y monitorean los impactos negativos antes y después de la implementación; mitigan los impactos negativos, en particular sobre los niños.
Del mismo modo, quiere conocer cómo emplean divulgaciones, publicidad y otras representaciones para informar a los usuarios y padres sobre las características, capacidades, la audiencia prevista, los posibles impactos negativos y las prácticas de recopilación y manejo de datos; supervisan y hacen cumplir las normas de la empresa y los términos de servicio (por ejemplo, pautas de la comunidad y restricciones de edad); y utilizan o comparten información personal obtenida a través de las conversaciones de los usuarios con los chatbots.



