La Comisión Federal de Comercio de Estados Unidos (FTC) anunció la apertura de una investigación sobre cómo grandes compañías tecnológicas como OpenAI, Meta, Google y Character.ai manejan sus chatbots diseñados para interactuar como “compañeros virtuales”, un producto cada vez más utilizado por adolescentes.
El organismo regulador busca esclarecer tres puntos clave:
-
Mecanismos de interacción: cómo están diseñados los algoritmos que generan las conversaciones con los usuarios jóvenes.
-
Modelos de monetización: de qué manera las empresas obtienen beneficios económicos a través de estas plataformas.
-
Medidas de seguridad: qué protocolos existen para proteger la salud mental de los adolescentes y evitar la exposición a contenido inapropiado o dañino.
- Protocolos de seguridad: qué mecanismos existen para evitar exposición a contenido inapropiado y qué medidas aplican ante señales de riesgo emocional o pensamientos autodestructivos
Riesgos y preocupaciones
La popularidad de estos chatbots crece a un ritmo acelerado, pues los adolescentes los usan como apoyo emocional, entretenimiento o herramienta de compañía digital. Sin embargo, expertos advierten sobre riesgos en la salud mental, dependencia tecnológica, falta de filtros de seguridad y posible exposición a temas sensibles o inadecuados para su edad.
La FTC ha mostrado en los últimos años un creciente interés en la inteligencia artificial (IA) y su impacto en la privacidad y el bienestar de los consumidores. Esta investigación marca un nuevo paso hacia una regulación más estricta sobre cómo las empresas tecnológicas desarrollan productos basados en IA, especialmente aquellos que interactúan con menores de edad.
De confirmarse irregularidades, la FTC podría imponer sanciones económicas y establecer nuevas regulaciones sobre el uso de inteligencia artificial con menores de edad. La investigación podría convertirse en un referente internacional sobre cómo deben regularse las tecnologías conversacionales que influyen en la vida emocional de los adolescentes.
La investigación de la FTC podría marcar un precedente regulatorio para el sector tecnológico en Estados Unidos. De encontrarse fallas en la protección a menores, las empresas podrían enfrentar multas significativas, además de estar obligadas a adoptar protocolos más estrictos. Con este proceso, el organismo busca garantizar que la innovación en inteligencia artificial avance sin poner en riesgo el bienestar de los adolescentes.

