OpenAI lanzará ChatGPT para menores de 18 años con control parental
OpenAI ha comunicado que lanzará ChatGPT para usuarios menores de 18 años con controles parentales, a medida que "prioriza la seguridad sobre la privacidad y la libertad de los adolescentes".

En este sentido, la startup de inteligencia artificial (IA) también ha avanzado que está desarrollando un sistema de predicción de edad para estimar la edad según el uso que las personas hacen de ChatGPT.
"En caso de duda, optaremos por lo seguro y usaremos la experiencia para menores de 18 años. En algunos casos o países, también podríamos solicitar una identificación; sabemos que esto compromete la privacidad de los adultos, pero creemos que es una compensación que vale la pena".
Es más, según ha explicado la compañía, se aplicarán diferentes normas a los adolescentes que utilicen sus servicios. Por ejemplo, ChatGPT estará capacitado para no tener las conversaciones coquetas mencionadas anteriormente si se les pide, ni para participar en conversaciones sobre suicidio o autolesión, incluso en un entorno de escritura creativa.
Además, "si un usuario menor de 18 años tiene ideas suicidas, intentaremos contactar a sus padres y, si no es posible, contactaremos a las autoridades en caso de daño inminente. Hoy compartimos más información sobre cómo estamos desarrollando el sistema de predicción de edad y los nuevos controles parentales para que todo esto funcione".
Por ello, desde OpenAI han subrayado que son conscientes de que estos principios "entran en conflicto y no todos estarán de acuerdo con nuestra forma de resolverlo. Son decisiones difíciles, pero tras consultar con expertos, creemos que es lo mejor y queremos ser transparentes en nuestras intenciones".
Este anuncio llega después de conocerse que que la Comisión Federal de Comercio de Estados Unidos (FTC, por sus siglas en inglés) ha emitido una orden a siete compañías (Alphabet, Meta, OpenAI, Character.AI, Instagram, Snap y xAI) que proporcionan chatbots impulsados por IA orientados al consumidor para buscar información sobre cómo estas empresas miden, prueban y monitorean los impactos "potencialmente negativos" de esta tecnología en niños y adolescentes.



