La compañía con sede en Cupertino mencionó que reportará a las autoridades cualquier fotografía relacionada con el abuso sexual infantil. Para ello, utilizará una tecnología que analizará las imágenes de los usuarios en iCloud que se suban a través de sus dispositivos. 

Lo medida se realizará con el fin de capturar a delincuentes y detener la propagación de imágenes sobre abuso sexual a los infantes. De momento esta medida se sujetará únicamente a los dispositivos en los Estados Unidos. 

¡Adiós a los destellos verdes! Apple los eliminará de su cámara con IA

Apple reveló que las versiones de iOS 14 y iPadOS 14 ya cuentan con nueva tecnología criptográfica que limita la propagación de material de abuso sexual infantil (CSAM por sus siglas en inglés). Sin embargo, llegará a todos los usuarios con las próximas versiones de sus sistemas operativos. 

Apple revisará las fotografías mediante un proceso conocido como “hash”, el cual, según la compañía, las imágenes se convierten en un conjunto de números con un patrón único que se compara con datos correspondientes a imágenes relacionadas con abuso sexual infantil.

Se mantendrá la privacidad de los usuarios

Lo anterior no significa que habrá empleados de Apple viendo las fotografías de los usuarios, sino que su tecnología hará las comparaciones sin intervención humana. En caso de que exista una coincidencia, entonces sí será momento de que un empleado intervenga para analizar la imagen y evitar falsos positivos antes de realizar el reporte a las autoridades.     

Apple aseguró que su tecnología no usará datos ni aprenderá nada de las imágenes escaneadas. 

“Apple no aprende nada sobre las imágenes que no coinciden con el CSAM conocido. Apple no puede acceder a metadatos para imágenes que coincidan con CSMA hasta que se verifica que la imagen contiene CSMA”, mencionó la compañía. 

La empresa dirigida por Tim Cook también aseguró que el riesgo de un falso positivo es muy bajo. 

«La precisión del sistema de coincidencia hace que sea muy poco probable que se revelen imágenes que no sean de abuso sexual infantil”, aclaró en un comunicado. 

¿Qué pasa si se encuentran imágenes relacionadas con CSMA?

Si la tecnología encuentra una coincidencia, un empleado de la compañía revisa la fotografía. Si esta tiene contenido de abuso sexual infantil la cuenta de iCloud del usuario en cuestión quedará bloqueada y se notificará inmediatamente a las autoridades, que serán las encargadas de realizar una investigación y determinar la condición del involucrado.