Que exista la pederastia es un hecho que refleja lo enferma que está una parte de nuestra sociedad. La inteligencia artificial puede ser una aliada para luchar contra esta lacra.
Apple anunció en agosto de 2021 importantes novedades en las actualizaciones de iOS 15, iPadOS 15, watchOS 8 y macOS Monterey, con la finalidad de «proteger a los niños de los depredadores que utilizan herramientas de comunicación para reclutarlos y explotarlos y limitar la propagación del material de abuso sexual infantil». Pueden consultar aquí el comunicado oficial.
Las novedades principales eran dos, aunque solo una se implementó finalmente:
La primera era la monitorización o escaneo de iCloud Photos con el objetivo de detectar imágenes de contenido sexual con menores. La medida se planeaba aplicar en Estados Unidos en colaboración con el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC), con la idea de extenderla gradualmente a todos los dispositivos de Apple.
El sistema propuesto —basado en inteligencia artificial— realizaría una comparación en el dispositivo del usuario, utilizando una base de datos de hashes (resúmenes criptográficos) de imágenes conocidas de abuso infantil proporcionada por el NCMEC y otras organizaciones de seguridad infantil. Apple encriptaría dicha base de datos, que se almacenaría de forma segura en los dispositivos, permitiendo un análisis comparativo cuando una imagen se guardara en iCloud Photos. Este proceso usaría una tecnología criptográfica llamada «intersección de conjuntos privados» para determinar coincidencias sin revelar detalles, creando un «vale de seguridad criptográfico» que codificaba el resultado junto con datos encriptados adicionales.
Utilizando otra tecnología llamada «umbral de intercambio secreto», el sistema garantizaría que Apple no pudiera interpretar los «vales de seguridad» a menos que se cruzara un umbral de tolerancia específico, en cuyo caso se revisaría manualmente, se deshabilitaría la cuenta y se reportaría al NCMEC. El umbral se diseñó para ofrecer una precisión extremadamente alta, con menos de una en un billón de probabilidades por año de marcar erróneamente una cuenta.
Tras una fuerte controversia por cuestiones de privacidad y posibles abusos, Apple abandonó este sistema de escaneo en diciembre de 2022.
La segunda medida fue la actualización de la aplicación iMessages para advertir a los menores y a sus padres sobre el contenido sexual de las fotografías que reciban. Al recibir este tipo de contenido, la fotografía se verá borrosa y, antes de abrirla, se advertirá al menor sobre el contenido sexual de la imagen. Si el menor decide verla, los padres recibirán un mensaje. Se establece la misma previsión si un menor intenta enviar fotografías sexualmente explícitas. El menor será advertido, antes de enviar la fotografía, de que sus padres pueden recibir un mensaje si decide enviarla.
La segunda medida fue la actualización de la aplicación iMessages para advertir a los menores y a sus padres sobre contenido sexual en las fotografías recibidas. Al recibir este tipo de contenido, la imagen aparece borrosa y muestra una advertencia antes de visualizarla. Si el menor decide verla, los padres reciben una notificación. Lo mismo ocurre si un menor intenta enviar fotografías sexualmente explícitas: se le advierte antes de enviarlas y los padres son notificados. Esta función, conocida como «Communication Safety», se implementó en iOS 15.2 (diciembre de 2021) y ha sido ampliada en actualizaciones posteriores, como en iOS 26 (2025), donde ahora incluye detección de desnudos en FaceTime, AirDrop, Álbumes Compartidos y otros servicios, además de ofrecer opciones mejoradas para los padres y recursos adicionales para los menores.

Por desgracia, los pederastas y pedófilos actúan en la Darknet, ocultos en lo más profundo de Internet, pero cualquier medida destinada a luchar contra el abuso sexual infantil y su divulgación por Internet, me parece loable, siempre que incluya supervisión adecuada por parte de autoridades independientes y respete la privacidad de los usuarios inocentes.


