En este artículo, les explicaré las razones por las que resulta problemático que los algoritmos elaboren perfiles individuales sobre nosotros.
Los algoritmos que crean estos perfiles recopilan una gran cantidad de datos personales —como hábitos, preferencias, intereses, opiniones, ubicaciones geográficas y más— a menudo sin que tengamos plena conciencia ni demos un consentimiento explícito e informado. Gran parte de esta recopilación ocurre a través de rastreadores invisibles en sitios web y aplicaciones. Esto representa una clara violación de nuestra privacidad y autonomía, ya que perdemos el control sobre qué información personal se recoge y cómo se utiliza. Por ejemplo, un algoritmo podría deducir nuestro estado de salud simplemente analizando nuestras búsquedas en Internet. Estos perfiles, con frecuencia, se venden o comparten con terceros, lo que equivale a una pérdida irreversible de nuestra privacidad.
Otro gran problema radica en el uso de estos perfiles para personalizar el contenido que consumimos. Aunque a primera vista pueda parecer beneficioso, esta práctica genera burbujas de filtro o cámaras de eco, donde solo se nos muestra la información que el algoritmo cree que nos interesa, aislándonos de ideas opuestas que podrían enriquecernos intelectualmente. Además, pueden manipular nuestras decisiones, como cuando las recomendaciones de compra buscan maximizar nuestro gasto o influir en nuestro voto (recordemos el escándalo de Cambridge Analytica, del que hablé en el artículo enlazado aquí).
Ningún algoritmo es neutral, por cuanto incorporan sesgos inherentes a los programadores o a los datos con los que se entrenan. Además, no son infalibles y, en muchos casos, cometen errores que perpetúan estereotipos injustos. Por ejemplo, si un algoritmo asocia erróneamente ciertos comportamientos con grupos demográficos específicos, podría etiquetarnos de forma injusta, afectando nuestras oportunidades futuras en ámbitos como la obtención de créditos bancarios, becas, empleos, etc.
Un estudio de ProPublica, una organización de noticias sin fines de lucro y ganadora de un Premio Pulitzer, analizó el software de evaluación de riesgos COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) que se utilizan en Estados Unidos para fundamentar decisiones sobre quién puede ser puesto en libertad en cada etapa del sistema de justicia penal, desde la asignación de fianzas hasta decisiones aún más fundamentales sobre la libertad de los acusados. Durante la investigación, que abarcó a más de 7.000 personas detenidas en el condado de Broward (Florida), se verificó cuántos fueron acusados de nuevos delitos en los dos años siguientes. El algoritmo predecía que los negros eran casi dos veces más propensos que los blancos a reincidir, mientras que tendía a cometer el error opuesto con los blancos: eran más propensos que los negros a ser clasificados de bajo riesgo y luego cometer otros delitos. Esto no solo amplifica la discriminación, sino que crea bucles de retroalimentación, donde datos sesgados generan perfiles sesgados que, a su vez, producen más datos sesgados.
Conclusión
Ninguno de nosotros sabe exactamente cómo se construyen nuestros perfiles, qué datos personales específicos se emplean ni quiénes tienen acceso a ellos.
Esta falta de transparencia facilita los abusos: los perfiles pueden comercializarse para dirigido, emplearse por gobiernos en vigilancia masiva o usarse en sistemas de puntuación social, como el controvertido «Sistema de Crédito Social» en China, donde los algoritmos determinan el acceso a servicios básicos según el perfil de cada persona.
Para mitigar estos riesgos, es esencial exigir un mayor control y transparencia en la gestión de los algoritmos, así como herramientas que nos permitan gestionar nuestros datos personales. Solo así recuperaríamos el control sobre nuestra identidad digital y evitaríamos que los algoritmos condicionen nuestro futuro, aunque temo que esta es una batalla perdida.
No se pierda nuestro podcast sobre el artículo

