No paran de salir noticias sobre los riesgos que presentan algunos chatbots con inteligencia artificial, diseñados para simular relaciones personales mediante conversaciones similares a las humanas.
Muchas aplicaciones son gratuitas y, a menudo, carecen de mecanismos para aplicar restricciones de edad u otras medidas de seguridad como filtros específicos para menores. Cualquiera con un teléfono móvil puede acceder a ellos en minutos.
La realidad es que infinidad de niños y preadolescentes pasan mucho tiempo solos y utilizan estos chatbots para conversar o compartir sus inquietudes. Sin embargo, estos sistemas no suelen estar diseñados para mantener diálogos de manera comprensiva ni adaptada a la edad del usuario, lo que aumenta los riesgos. No olvidemos que los menores aún no han desarrollado un pensamiento crítico sólido y carecen de las habilidades necesarias para comprender que los chatbots pueden manipularles o engañarles.
Entre los riesgos más graves documentados se encuentran:
- Pérdida de habilidades sociales.
- Aumento del aislamiento en la vida real.
- Distorsión de la realidad, pues pueden empezar a confundir la relación con una IA con una amistad o pareja real.
- Adicción comportamental, pues estos sistemas están optimizados para mantener al usuario enganchado el mayor tiempo posible.
- La exposición a conversaciones con contenido sexual puede distorsionar la comprensión de un niño o preadolescente sobre lo que constituye una interacción segura y un comportamiento apropiado para su edad, especialmente con adultos desconocidos. Esto puede facilitar que sean acosados por depredadores en línea.
- Consejos peligrosos o dañinos sobre trastornos alimentarios, autolesiones, consumo de drogas o suicidio.
Medidas a adoptar
A nivel legislativo cabría imponer a los desarrolladores una serie de restricciones:
- Obligarles a implementar mecanismos efectivos de verificación de edad y filtros específicos para menores desde la fase de diseño.
- Exigir transparencia sobre los datos de entrenamiento y los mecanismos de moderación de contenido.
- Prohibir tácticas de retención adictiva en usuarios menores.
Al margen de estas medidas, a nivel familiar y educativo caben los siguientes consejos:
- Explicarles que estos chatbots no son personas reales y que están programados para que nunca te dejen de hablar, pudiendo generar dependencia.
- Proponer actividades extraescolares, como el deporte, que les ayudarán a superar el estrés, el aburrimiento o la soledad.
- Acompañarles en un proceso gradual para reducir el tiempo que pasan usando aplicaciones de IA con el fin de fomentar hábitos más saludables.
- Fomentar el pensamiento crítico con preguntas como: ¿por qué crees que te dice siempre lo que quieres oír?, ¿un amigo de verdad te diría esas cosas?.
- Recordarles que no están solos y que siempre pueden pedir ayuda, incluso si creen que hicieron algo mal.
Conclusión
Los chatbots no son juguetes inofensivos. Para un adulto pueden ser una curiosidad, pero para un niño o preadolescente pueden convertirse en una trampa emocional y psicológica, con consecuencias graves y duraderas, así que cuidado.
No se pierda nuestro podcast sobre el artículo


