Pongamos que le pregunto a un sistema de inteligencia artificial, por ejemplo, a ChatGPT por cinco formas posibles de que se extinga la raza humana.
En su respuesta, el algoritmo nos da cinco opciones: 1) Catástrofes naturales; 2) Pandemias; 3) Guerra nuclear; 4) Colisiones celestes y 5) Inteligencia artificial.
El algoritmo reconoce que la inteligencia artificial podría amenazar y poner en riesgo nuestra existencia si supera en inteligencia a los humanos y se vuelve hostil. Curioso, ¿no?. Vean la respuesta con detalle:

Que un mal uso de la inteligencia artificial nos puede causar más de un trastorno como sociedad es un hecho. De ahí surge la imperiosa necesidad de regular y supervisar los algoritmos con marcos éticos y legales robustos. Veamos algunos riesgos:
Caos en el sistema financiero
El 6 de mayo de 2010, el trader Navinder Singh Sarao, operando desde su casa en Londres, hizo caer los principales índices bursátiles de Estados Unidos –incluidos el Dow Jones Industrial Average, el S&P 500 y el Nasdaq Composite Index– provocando una pérdida de un billón de dólares. El incidente se conoce como Flash Crash 2010 y duró 36 minutos.
La Comisión de Bolsa y Valores de Estados Unidos (SEC) y la Comisión de Negociación de Futuros de Materias Primas (CFTC) presentaron un informe, tras la investigación de incidente que duró cinco meses. En el informe explican que la causa fue una sola transacción generada por un sistema automático de alta frecuencia de Waddell & Reed Financial, exacerbada por algoritmos de trading de alta frecuencia (HFT).
En 2015, fue arrestado en Londres a instancia de Estados Unidos, enfrentándose a 22 cargos como fraude electrónico, manipulación de productos básicos y suplantación de identidad. En 2016, se declaró culpable de un cargo de fraude electrónico y un cargo de «spoofing» (manipulación del mercado) en un tribunal federal de Estados Unidos, relacionado con su participación en el «Flash Crash» de 2010. Fue sentenciado a un año de detención domiciliaria.
Otro caso emblemático fue el de la compañía norteamericana Knight Capital Group, una firma líder en trading estadounidense que empleaba sofisticados algoritmos matemáticos para decidir las órdenes de compra y venta de acciones. El incidente ocurrió el 1 de agosto de 2012 a causa de un error técnico de uno de sus algoritmos. La consecuencia fue la alteración del mercado bursátil de Nueva York durante 45 minutos y una pérdida de 440 millones de dólares para la compañía, lo que la llevó a la quiebra.
La lección aprendida es que un algoritmo manipulado o mal diseñado puede desencadenar un caos financiero de dimensiones catastróficas.
Discriminaciones
La estudiante Robin Pocornie, mira fijamente a su ordenador portátil. Está lista para su examen en línea sobre «Fundamentos de Bioinformática» en la Universidad Libre de Ámsterdam. Las condiciones de su estudio son óptimas: Wi-Fi estable, buena luz, buen espacio. De pronto, aparece en su pantalla el siguiente mensaje: «Veo que estás tardando mucho en iniciar sesión». Lo intenta de nuevo. Se sienta en silencio frente a su cámara web para que el software anti-trampas (Proctorio) de la Universidad escanee su tarjeta de estudiante y su rostro. El programa no reconoce su rostro y le pide que se siente en una habitación bien iluminada. Su habitación tiene una iluminación más que correcta. No obstante, enciende una lámpara iluminando directamente su rostro. De repente, funciona.
Para iniciar sesión, Proctorio escanea la tarjeta y el rostro del estudiante, accediendo a la cámara y al micrófono para verificar su presencia y detectar si mira hacia otro lado de la pantalla o habla con alguien durante la sesión.
Robin Pocornie experimentó problemas de inicio de sesión cuatro veces más en los meses siguientes. Sospechaba que el software no reconocía su rostro por ser negra. En una búsqueda en Google por «Proctorio + Racismo», la pantalla se llena de historias de estudiantes estadounidenses negros con dificultades para iniciar sesión.
Ciertos software de reconocimiento facial son conocidos desde hace años por tener problemas para reconocer a las personas de color negro. Infame es el ejemplo de Google Photos, que etiquetó a las personas negras como gorilas en 2015. Los errores pueden explicarse por el hecho de que el software aprende patrones basados en una colección de fotos de rostros. Si hay menos personas de color en dicha colección, el algoritmo aprende a reconocerlas peor.
Robin Pocornie denunció los hechos al Netherlands Institute for Human Rights que concluyó que su caso era de discriminación algorítmica, y no es el único.
La Unión Estadounidense por las Libertades Civiles (ACLU) probó la tecnología de reconocimiento facial de Amazon conocida como Rekognition. El sistema contrastó las fotografías oficiales de los 535 miembros del Congreso de Estados Unidos con 25.000 fotografías descargadas de una fuente pública. Rekognition confundió a 28 miembros con posibles delincuentes. El algoritmo los identificó como personas que habían sido arrestadas por cometer un crimen. El error afectó, mayormente, a los rostros de piel más oscura. Pueden consultar las conclusiones de la prueba aquí.
Invasión de la privacidad
El uso de videocámaras en las calles de las ciudades, combinado con el uso de la inteligencia artificial, facilita la monitorización masiva de la ciudadanía, analizando patrones de comportamiento en tiempo real y planteando dilemas éticos sobre el consentimiento y la libertad. China es una buena muestra.
Riesgos para la conducción autónoma
La conducción autónoma exige, necesariamente, la conexión de los vehículos a Internet, así como la instalación de soluciones de posicionamiento por satélite (GNSS) y sistemas avanzados de asistencia a la conducción (ADAS). Asimismo, es indispensable tener un software de posicionamiento para calcular la posición de los vehículos y avanzados algoritmos para organizar el tráfico.
La conexión de cualquier dispositivo a la red sin medidas de seguridad conlleva riesgos, y los vehículos no son la excepción. En 2015, dos investigadores de seguridad automotriz (Charlie Miller y Chris Valasek) manipularon, de forma remota, un vehículo conectado a Internet, mostrando diversas vulnerabilidades de seguridad, hasta el punto de hacer perder el control del vehículo a su conductor. Si quieren saber más sobre conducción autónoma y ciberseguridad, hagan clic aquí.
Distorsión de sistemas democráticos
La inteligencia artificial permite crear manipulaciones audiovisuales casi perfectas, conocidas como «deepfakes», que pueden falsificar discursos o acciones de figuras públicas. De ellos les hablé en un artículo anterior que dejo enlazado aquí.
Imaginemos un deepfake de un candidato, por ejemplo, a la presidencia de Estados Unidos insultando a la comunidad hispana: podría influir en millones de votos, socavando la democracia.
Conclusiones
La Universidad de Stanford publica todos los años un informe sobre la evolución de la IA, involucrando expertos multidisciplinarios en IA, ciencias sociales, derecho y políticas. Los informes analizan riesgos como sesgos, deepfakes y desigualdades. Dejo enlazado aquí el índice de informes.
Entre las conclusiones, los expertos enfatizan: «Es urgente abordar seriamente las desventajas y riesgos de la IA aplicada a gran escala». La automatización de decisiones es un arma de doble filo: deepfakes intencionales y algoritmos opacos pueden engañar, discriminar o causar daños físicos, mientras que modelos entrenados en datos históricos perpetúan sesgos existentes.
En España, la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA), juega un rol clave en la implementación del Reglamento de Inteligencia Artificial, supervisando algoritmos de alto riesgo y promoviendo sandboxes regulatorios.


