PROTECCIÓN DATA

BLOG

El conocimiento es poder (Francis Bacon)

Blog
Compartir Facebook Twitter Linkedin
JAVIER CASAL TAVASCI

Chatbots, una trampa para menores

No paran de salir noticias sobre los riesgos que presentan algunos chatbots con inteligencia artificial, diseñados para simular relaciones personales mediante conversaciones similares a las humanas. 

Muchas aplicaciones son gratuitas y, a menudo, carecen de mecanismos para aplicar restricciones de edad u otras medidas de seguridad como filtros específicos para menores. Cualquiera con un teléfono móvil puede acceder a ellos en minutos.

La realidad es que infinidad de niños y preadolescentes pasan mucho tiempo solos y utilizan estos chatbots para conversar o compartir sus inquietudes. Sin embargo, estos sistemas no suelen estar diseñados para mantener diálogos de manera comprensiva ni adaptada a la edad del usuario, lo que aumenta los riesgos. No olvidemos que los menores aún no han desarrollado un pensamiento crítico sólido y carecen de las habilidades necesarias para comprender que los chatbots pueden manipularles o engañarles.

Entre los riesgos más graves documentados se encuentran:

  • Pérdida de habilidades sociales.
  • Aumento del aislamiento en la vida real.
  • Distorsión de la realidad, pues pueden empezar a confundir la relación con una IA con una amistad o pareja real.
  • Adicción comportamental, pues estos sistemas están optimizados para mantener al usuario enganchado el mayor tiempo posible.
  • La exposición a conversaciones con contenido sexual puede distorsionar la comprensión de un niño o preadolescente sobre lo que constituye una interacción segura y un comportamiento apropiado para su edad, especialmente con adultos desconocidos. Esto puede facilitar que sean acosados ​​por depredadores en línea.
  • Consejos peligrosos o dañinos sobre trastornos alimentarios, autolesiones, consumo de drogas o suicidio.

Medidas a adoptar

A nivel legislativo cabría imponer a los desarrolladores una serie de restricciones:

  • Obligarles a implementar mecanismos efectivos de verificación de edad y filtros específicos para menores desde la fase de diseño.
  • Exigir transparencia sobre los datos de entrenamiento y los mecanismos de moderación de contenido.
  • Prohibir tácticas de retención adictiva en usuarios menores.

Al margen de estas medidas, a nivel familiar y educativo caben los siguientes consejos:

  • Explicarles que estos chatbots no son personas reales y que están programados para que nunca te dejen de hablar, pudiendo generar dependencia.
  • Proponer actividades extraescolares, como el deporte, que les ayudarán a superar el estrés, el aburrimiento o la soledad.
  • Acompañarles en un proceso gradual para reducir el tiempo que pasan usando aplicaciones de IA con el fin de fomentar hábitos más saludables.
  • Fomentar el pensamiento crítico con preguntas como: ¿por qué crees que te dice siempre lo que quieres oír?, ¿un amigo de verdad te diría esas cosas?.
  • Recordarles que no están solos y que siempre pueden pedir ayuda, incluso si creen que hicieron algo mal.

Conclusión

Los chatbots no son juguetes inofensivos. Para un adulto pueden ser una curiosidad, pero para un niño o preadolescente pueden convertirse en una trampa emocional y psicológica, con consecuencias graves y duraderas, así que cuidado.

No se pierda nuestro podcast sobre el artículo

 

 

error: El contenido del blog está protegido por derechos de propiedad intelectual mediante su registro en Safe Creative. Queda prohibida la reproducción, distribución, transformación, transcripción, almacenamiento o recuperación total o parcial de este contenido, sin el permiso previa y expreso del titular de los derechos. La infracción de los derechos puede constituir un delito contra la propiedad intelectual (artículo 270 y ss. del CP). Para requerir la autorización pueden dirigirse al titular enviando un correo electrónico a info@protecciondata.es