Recientemente Apple dio a conocer que implementará un sistema para analizar las imágenes guardadas en iCloud en busca de fotografías relacionadas con abuso sexual infantil. Sin embargo, esta medida generó preocupación debido a que el escaneo podría convertirse en una herramienta de vigilancia más allá de identificar este tipo de contenido.

En una carta abierta con más de 4,000 firmas, especialistas en seguridad y privacidad, criptógrafos, investigadores, profesores, expertos legales y usuarios de Apple condenaron “el movimiento planificado de Apple para socavar la privacidad del usuario y el cifrado de extremo a extremo”. 

“Si bien la explotación infantil es un problema grave, y aunque los esfuerzos para combatirlo son casi sin duda bien intencionados, la propuesta de Apple introduce una ‘puerta’ que amenaza con socavar las protecciones fundamentales de privacidad para todos los usuarios de los productos Apple”, indica el texto. 

La tecnología propuesta por la firma de la manzana monitorea continuamente las fotografías guardadas o compartidas en dispositivos iPhone, iPad o Mac del usuario. Un sistema detecta si existen imágenes objetables en el almacenamiento de iCloud y alerta a las autoridades. Otro notifica a los padres si un menor usa iMessage para enviar o recibir fotografías que un algoritmo de aprendizaje automático considera que contienen desnudez. 

“Debido a que ambas verificaciones se realizan en el dispositivo del usuario, tienen el potencial de eludir cualquier cifrado de extremo a extremo que, de otro modo, salvaguarda la privacidad del usuario”, agrega la carta. 

Líderes de la industria y expertos también se pronunciaron al respecto en otras plataformas. 

Por ejemplo, Will Cathcart, director de WhatsApp, dijo en Twitter que su empresa no adoptaría las medidas de seguridad y calificó el enfoque de Apple como “muy preocupante”. 

A la lista de personas y organizaciones que han expresado su inquietud al respecto se han unido Edward Snowden, la Electronic Frontier Foundation (EFF) y expertos de universidades como Harvard, por mencionar algunos. 

Apple responde

Ante esto, Apple dio a conocer en una conferencia de prensa que este sistema funcionará de diferentes maneras en cada país, conforme a las leyes locales. Agregó que no compartirá ningún tipo de material que no sean imágenes de abuso infantil con las autoridades.

Más tarde, la firma de la manzana publicó un documento de preguntas frecuentes sobre las “protecciones ampliadas para niños”. En este, la compañía aclara que “esta tecnología se limita a detectar CSAM (material de abuso sexual infantil) almacenado en iCloud” y que no accedera “a la solicitud de ningún gobierno para expandirlo”.

Apple argumenta además que cuenta con medidas de seguridad para evitar que sus sistemas se utilicen para detectar cualquier otra cosa que no sean imágenes de abuso. 

Dice que su lista de fotografías prohibidas es respaldada por el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) y otras organizaciones de seguridad infantil, y que el sistema “solo funciona con hashes de imágenes CSAM proporcionadas por NCMEC y otras organizaciones de seguridad infantil”. 

La compañía de Cupertino insiste en que rechazará las demandas de los gobiernos para agregar imágenes que no sean CSAM a la lista. “Hemos enfrentado demandas para construir e implementar cambios exigidos por el gobierno que degradan la privacidad de los usuarios antes, y hemos rechazado firmemente esas demandas. Continuaremos rechazándolas en el futuro”, subraya.

El documento de preguntas frecuentes no abunda en las inquietudes sobre la función que escanea los mensajes en busca de material sexualmente explícito, únicamente indica que la información en iMessage no será entregada a las autoridades. 

Apple ahora analizará las fotos en iCloud para combatir el abuso infantil