Que existe la pederastia o abuso sexual infantil es un hecho que refleja lo enferma que esta una parte de nuestra sociedad. En la Unión Europea se están dando pasos importantes en la lucha con esta lacra como el Proyecto 4NSEEK — Forensic Against Sexual Exploitation of Children, del que les hablé en un artículo anterior y que pueden consultar haciendo clic aquí.
Apple acaba de anunciar importantes novedades para finales del año 2021 en las actualizaciones de iOS 15, iPadOS 15, watchOS 8 y macOS Monterey con la finalidad de «proteger a los niños de los depredadores que utilizan herramientas de comunicación para reclutarlos y explotarlos y limitar la propagación del material de abuso sexual infantil». Pueden consultar aquí el comunicado oficial.
Las novedades principales son dos:
La primera es la monitorización o escaneo de iCloud Photos con el objetivo de detectar imágenes de contenido sexual con menores. La medida se empezará a aplicar en Estados Unidos en colaboración con el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC), si bien la idea es extender gradualmente la monitorización a todos los dispositivos de Apple.
El sistema –basado en Inteligencia Artificial– realizará una comparación en el dispositivo del usuario, utilizando una base de datos de imágenes que representan actividades sexualmente explícitas con menores proporcionada por NCMEC y otras organizaciones de seguridad infantil. Apple encriptará dicha base de datos, que almacenará de forma segura en todos los dispositivos de la compañía y que permitirá el análisis comparativo cuando una imagen se almacene en el álbum de fotos del dispositivo (inicialmente en iCloud Photos). Este proceso de coincidencia está impulsado por una tecnología criptográfica llamada «intersección de conjuntos privados», que determina si hay una coincidencia sin revelar el resultado. El dispositivo crea un «vale de seguridad criptográfico» que codifica el resultado de la coincidencia junto con datos encriptados adicionales sobre la imagen.
Utilizando otra tecnología llamada «umbral de intercambio secreto», el sistema garantiza que Apple no pueda interpretar el contenido de los «vales de seguridad», salvo que se cruce cierto cierto umbral de tolerancia, en cuyo caso, Apple revisará manualmente el informe del sistema, deshabilitará la cuenta del usuario y enviará un informe al NCMEC. El umbral está establecido para proporcionar un nivel de precisión extremadamente alto, que garantizará menos de uno en un billón de posibilidades por año de marcar incorrectamente una cuenta determinada.
La segunda medida es la actualización de la aplicación iMessages para advertir a los menores y a sus padres sobre el contenido sexual de las fotografías que reciban. Al recibir este tipo de contenido, la fotografía se verá borrosa y, antes de abrirla, se advertirá al menor sobre el contenido sexual de la imagen. Si el menor decide verla, los padres recibirán un mensaje. Se establece la misma previsión si un menor intenta enviar fotografías sexualmente explícitas. El menor será advertido, antes de enviar la fotografía, de que sus padres pueden recibir un mensaje si decide enviarla.
Por desgracia los pederastas y pedófilos actúan en la Darknet, ocultos en lo más profundo de Internet, pero cualquier medida destinada a luchar contra el abuso sexual infantil y su divulgación por Internet, me parece loable, siempre que exista un control por parte de las autoridades.
—
Actualización (03.09.2021)
Apple retrasa la puesta en funcionamiento de su sistema de vigilancia contra la pornografía infantil. La nota de prensa de Apple dice: «Teniendo en cuenta los comentarios de los clientes, organizaciones legales, investigadores y otros, hemos decidido tomarnos más tiempo durante los próximos meses para recopilar información y realizar mejoras antes de lanzar estas medidas de seguridad infantil, de enorme importancia».
La actualización de la aplicación iMessages también ha quedado en suspenso. Varios grupos defensores de la privacidad mantienen que esta iniciativa podría amenazar la seguridad y bienestar de algunos jóvenes, sobre todo del colectivo LGTBIQA+.