PROTECCIÓN DATA

BLOG

El conocimiento es poder (Francis Bacon)

Blog
Compartir Facebook Twitter Linkedin
JAVIER CASAL TAVASCI

Los peligros de los perfiles algorítmicos

¿Por qué resulta problemático que los algoritmos elaboren perfiles individuales sobre nosotros de manera opaca y masiva?

Los algoritmos recopilan enormes cantidades de datos personales —hábitos de navegación, preferencias, intereses, opiniones, ubicaciones geográficas, interacciones sociales, estado emocional y más— a menudo sin que tengamos plena conciencia ni demos un consentimiento explícito e informado.

Gran parte de esta recopilación se realiza mediante rastreadores invisibles (trackers) en sitios web y apps, cookies de terceros, fingerprinting de dispositivos y metadatos de uso. Esto representa una violación de nuestra privacidad y autonomía, ya que perdemos el control sobre qué información personal se recoge y cómo se utiliza. Por ejemplo, un algoritmo podría deducir nuestro estado de salud simplemente analizando nuestras búsquedas en Internet. Estos perfiles, con frecuencia, se venden o comparten con terceros, lo que equivale a una pérdida irreversible de nuestra privacidad.

Otro gran problema radica en el uso de estos perfiles para personalizar el contenido que consumimos. Aunque pudiera parecer beneficioso, esta práctica genera burbujas de filtro o cámaras de eco, donde solo se nos muestra la información que el algoritmo cree que nos interesa, aislándonos de ideas opuestas que podrían enriquecernos intelectualmente. Además, pueden manipular nuestras decisiones, como cuando las recomendaciones de compra buscan maximizar nuestro gasto o influir en nuestro voto (recordemos el escándalo de Cambridge Analytica, del que hablé en el artículo enlazado aquí).

Ningún algoritmo es neutral, por cuanto incorporan sesgos inherentes a los programadores o a los datos con los que se entrenan. Además, no son infalibles y, en muchos casos, cometen errores que perpetúan estereotipos injustos. Por ejemplo, si un algoritmo asocia erróneamente ciertos comportamientos con grupos demográficos específicos, podría etiquetarnos de forma injusta, afectando nuestras oportunidades futuras en ámbitos como acceso a crédito, seguros, empleo, vivienda o educación, creando bucles de retroalimentación negativos: datos sesgados generan perfiles sesgados, que producen más datos sesgados.

Un estudio de ProPublica, una organización de noticias sin fines de lucro y ganadora de un Premio Pulitzer, analizó el software de evaluación de riesgos COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) que se utilizan en Estados Unidos para fundamentar decisiones sobre quién puede ser puesto en libertad en cada etapa del sistema de justicia penal, desde la asignación de fianzas hasta decisiones aún más fundamentales sobre la libertad de los acusados. Durante la investigación, que abarcó a más de 7.000 personas detenidas en el condado de Broward (Florida), se verificó cuántos fueron acusados de nuevos delitos en los dos años siguientes. El algoritmo predecía que los negros eran casi dos veces más propensos que los blancos a reincidir, mientras que tendía a cometer el error opuesto con los blancos: eran más propensos que los negros a ser clasificados de bajo riesgo y luego cometer otros delitos. Esto no solo amplifica la discriminación, sino que crea bucles de retroalimentación, donde datos sesgados generan perfiles sesgados que, a su vez, producen más datos sesgados.

Conclusión

Ninguno de nosotros sabe con certeza cómo se elaboran nuestros perfiles, qué datos personales se utilizan exactamente ni quiénes tienen acceso a ellos. Esta falta de transparencia facilita abusos: perfiles comercializados para publicidad invasiva, vigilancia masiva por gobiernos, o sistemas de puntuación social como el controvertido «Sistema de Crédito Social» en China, donde los algoritmos determinan el acceso a servicios básicos según el perfil de cada persona.

Para mitigar estos riesgos, es esencial exigir un mayor control y transparencia en la gestión de los algoritmos, así como herramientas que nos permitan gestionar nuestros datos personales. Solo así recuperaríamos el control sobre nuestra identidad digital y evitaríamos que los algoritmos puedan condicionar nuestro futuro, aunque temo que esta es una batalla perdida.

Herramientas como bloqueadores de trackers (uBlock origen, Ghostery, Privacy Badger, etc.), redes privadas virtuales (Proton VPN, Mullvad, IVPN, etc.), navegadores privados (DuckDuckGo, Brave, Tor, etc.) y alternativas descentralizadas pueden ayudar a minimizar los efectos del perfilado algorítmico y la recopilación masiva de datos, pero ninguna solución ofrece privacidad absoluta (especialmente frente a técnicas avanzadas como fingerprinting o correlación de datos).

No se pierda nuestro podcast sobre el artículo

 

 

 

error: El contenido del blog está protegido por derechos de propiedad intelectual mediante su registro en Safe Creative. Queda prohibida la reproducción, distribución, transformación, transcripción, almacenamiento o recuperación total o parcial de este contenido, sin el permiso previa y expreso del titular de los derechos. La infracción de los derechos puede constituir un delito contra la propiedad intelectual (artículo 270 y ss. del CP). Para requerir la autorización pueden dirigirse al titular enviando un correo electrónico a info@protecciondata.es