Hace años que vengo siguiendo el trabajo que realiza el grupo de Tracking Exposed. Como el proyecto toca a su fin para pasar a otra fase, tal y como han anunciado en su sitio web, creo que son merecedores de contarles que han hecho en favor de nuestra privacidad.
El impulsor de la asociación –Claudio Agosti– resume la experiencia del proyecto desde su fundación en 2015 en el comunicado que dejo enlazado aquí. A continuación, les resumiré los logros alcanzados, metodologías empleadas, herramientas desarrolladas, colaboraciones, estrategias y reconocimientos logrados por el grupo, si bien les recomiendo que hagan una lectura completa del comunicado oficial para mayor detalle.
Orígenes de Tracking Exposed
Tracking Exposed viene a ser una asociación sin ánimo de lucro, con gobernanza no jerárquica, en la que se embarcaron un grupo de expertos con el objetivo de poner de relieve el seguimiento de los usuarios por las grandes plataformas tecnológicas, la elaboración de perfiles, el mercado de datos y la influencia de los algoritmos, y es que, mientras estos fenómenos permanezcan ocultos, o sólo sean comprendidos por expertos, no podrán abordarse con la determinación que merecen problemas de tal magnitud.
El proyecto se inició con una herramienta de análisis de software, de código abierto y gratuita, para activistas e investigadores que trabajaban con el fin de exponer el seguimiento digital y la elaboración de perfiles en línea que eran invisibles, ineludibles e irresponsables. La idea es que los algoritmos deben estar sujetos al escrutinio público por las implicaciones que tienen en nuestras vidas.
La herramienta hace visibles los comportamientos de las plataformas tecnológicas más importantes, mediante tecnología de raspado («scraping») que muestra exactamente cómo las plataformas toman decisiones sobre el contenido a escala. A su vez, fue necesario requerir la colaboración de los usuarios, mediante la «donación de datos». Pidieron la colaboración de los usuarios para que recopilaran datos a través de la instalación de una extensión de la herramienta en su navegador con el objetivo de vincular sus actividades en línea con el contenido mostrado por las plataformas y así poder analizar los resultados. La observación colectiva se completó con el uso de «títeres» (perfiles falsos).
Primer objetivo: Facebook
El primer gran objetivo del proyecto fue Facebook, como la plataforma más grande y problemática. La investigación se centró en cuestiones políticas.
Los primeros experimentos mostraron cómo las decisiones algorítmicas de contenido de Facebook estaban dando forma a las dietas de información en las elecciones francesas de 2017, el G20 argentino de 2017 y las elecciones italianas de 2018 (Privacy International escribió sobre los hallazgos ) .
El grupo descubrió, rápidamente, evidencias de manipulación, como una lista elaborada por Facebook para determinar noticias que pudieran ser creíbles. Esto se confirmó, años más tarde, en el libro de «An Ugly Truth: Inside Facebook’s Battle for Domination» de Sheera Frenkel y Cecilia Kang. Facebook empleó dicha lista, que llamaron «News Ecosystem Quality» (NEQ) para dar forma al discurso político en países de todo el mundo. Los algoritmos personalizados estaban en todas partes y la elaboración de perfiles y la recopilación de datos abundaban. El contenido político se trataba de manera diferente al contenido «no político».
Durante los primeros dos años el grueso del equipo de investigación lo formaban voluntarios y los recursos económicos procedían de pequeñas subvenciones de la World Wide Web Foundation, la subvención «flash» de la Shuttleworth Foundation y el premio «Data Transparency Lab». Open Sensors Data, una empresa italiana de datos abiertos, fue el primer patrocinador, si bien aportó conocimientos valiosos en lugar de fondos.
El éxito del proyecto requería construir herramientas de observación colectiva más sólidas para la comunidad de investigación.
En 2018, la asociación obtuvo una importante subvención del Consejo Europeo de Investigación, lo que abrió una nueva era para Tracking Exposed. El objetivo era convertir la metodología del grupo en un producto que los investigadores pudieran utilizar, capacitarlos sobre cómo investigar los algoritmos no responsables y desarrollar nuevas investigaciones. Llamaron al proyecto «Algoritmos expuestos».
Contrataron a Simply Secure para realizar un taller sobre donación de datos en febrero de 2020. La colaboración fue fructífera. El trabajo conjunto ayudó a popularizar el concepto y la metodología del proyecto (donación de datos, raspado y cuentas títeres) como una nueva forma de exponer cómo funcionan realmente los algoritmos.
Las investigaciones se ampliaron a otras plataformas tecnológicas: Amazon, YouTube y TikTok.
El trabajo de investigación dio pie a una serie de conclusiones, que paso a resumirles con los enlaces explicativos:
- El algoritmo de creación de perfiles de Amazon viola el RGPD
- Discriminación de género en Amazon
- YouTube perfila rápidamente a los usuarios y personaliza los resultados de búsqueda
- Desinformación sobre el Covid-19 en YouTube
- El mundo según TikTok: mapeo de fronteras digitales y proximidades algorítmicas .
Algoritmos de Pornhub
Para analizar los algoritmos de esta plataforma de contenido para adultos, el grupo pidió en Reddit la colaboración de sus usuarios para seguir una secuencia de acciones predeterminadas. Alrededor de cien participantes vieron pornografía con fines científicos y la evidencia recopilada fue suficiente para que empezar a comprender cómo funcionan las recomendaciones de Pornhub.
Los resultados permitieron reflexionar sobre cómo los algoritmos del monopolio de la pornografía influyen en la percepción de la sexualidad, reforzando un punto de vista masculino, heterosexual y blanco, contribuyendo a fomentar una masculinidad hegemónica, la sexualización de las minorías y la cultura pornográfica heteronormativa.
Durante la investigación recrearon la actividad de navegación de los usuarios del sitio web en función de patrones de visualización predeterminados, por los investigadores, en dos dimensiones: identidad de género e intereses sexuales. Recopilaron evidencias sobre la elaboración de perfiles, aprovechando la extensión del navegador Pornhub Tracking Exposed.
El sistema de recomendaciones de la plataforma cambia en función del género y los intereses sexuales auto declarados de los usuarios, lo que se traduce en cambios en el diseño de la página de inicio, vídeos recomendados, categorías sugeridas y contenido popular.
La manipulación de contenidos en TikTok
Con el estallido de la guerra en Ucrania, el grupo centró su atención en investigar cómo TikTok estaba difundiendo información a los rusos. Con la ayuda de la experta Louise Doherty, el equipo elaboró tres informes que resaltaron algunos problemas graves:
- TikTok bloquea el 95% del contenido para usuarios en Rusia
- El contenido a favor de la guerra domina en TikTok en Rusia tras no implementar su propia política
- Promoción en la sombra: la recomendación algorítmica de TikTok de contenido prohibido en Rusia
Estos informes fueron mencionados en el Washington Post, Wall Street Journal, The Guardian y Le Monde, entre otros medios de comunicación. Los resultados de la investigación obligaron a TikTok a revisar su política de contenido. Los informes también motivaron una carta dirigida al Senado de Estados Unidos que allanó el camino hacia las audiencias del Congreso de TikTok en 2023.
Otra investigación que logró gran difusión fue la que se refiere a las elecciones francesas de 2022, resumidas en un informe que fue mencionado por Forbes y el popular podcast Your Undivided Attention del Center for Humane Tech. Los resultados del informe también se presentaron en un comité gubernamental de integridad electoral dirigido por el regulador de medios francés ARCOM.
Nuevas herramientas para el control de algoritmos
En 2022 el grupo se asoció con el Instituto Hermes para crear una nueva herramienta: Makhno.
Financiado por la Fundación Mozilla, Makhno es una herramienta que permite a cualquier persona marcar eliminaciones de políticas de contenido. En fase de desarrollo puede ser una herramienta poderosa en el futuro.
Otra herramienta es YouChoose que se configura como reemplazo del algoritmo de recomendación de contenido de YouTube para ser gobernado, de forma transparente, por los creadores de contenido, en lugar de los algoritmos opacos de YouTube.
YouChoose permite al usuario cambiar la forma en que funciona el algoritmo de YouTube, en el propio YouTube, sin necesitar el permiso explícito de YouTube. Todavía falta para que la herramienta alcance su esplendor como herramienta escalable, pero tiene buenas perspectivas.
Conclusiones del proyecto
Durante los siete años de trabajo sobre la responsabilidad de los algoritmos en Tracking Exposed, el grupo resume algunas lecciones extremadamente valiosas:
- No se puede confiar en que las plataformas desmantelen los sistemas que han construido y que conducen a la influencia dañina de algoritmos opacos e irresponsables en nuestras vidas.
- Incluso cuando los requisitos de transparencia aumentan y las medidas regulatorias se vuelven más fuertes, las plataformas encuentran una manera de evadir la rendición de cuentas.
- El papel de los activistas y la sociedad civil para realizar un escrutinio independiente es más importante que nunca, a pesar de la creciente conciencia sobre los problemas y de las personas bien intencionadas dentro y fuera de las plataformas poderosas.
- La estrategia legal contra las plataformas no da frutos y es que el ritmo de las violaciones y el de los procesos litigiosos son incompatibles. Pudieron encontrar pruebas fácilmente, pero cuando las documentaban para el litigio los resultaron ya eran otros. Además, las plataformas cuentan con recursos infinitos para procurarse la mejor defensa.
- Aprovechar la prensa internacional de alto perfil es la forma más eficaz para presionar a la opinión pública con el objetivo de llegar a los reguladores, políticos y líderes de pensamiento tecnológico influyentes.
El grupo concluye que los usuarios deberíamos poder construir conscientemente nuestros propios algoritmos, cambiarlos cuando queramos y no tener que delegar esta decisión en una entidad comercial, con funcionamiento y objetivos opacos. Los algoritmos de las plataformas tecnológicas deben ser explicables, ajustables, responsables y evitables. No puedo estar más de acuerdo.
Han hecho un gran trabajo y seguro que no lo han tenido nada fácil. Ahora inician un nuevo proyecto que llaman AI Forensics sobre auditoría algorítmica. Seguiré atento porque el trabajo de este grupo de expertos es meritorio.