Hace unos días Apple anunció que las imágenes que los usuarios guarden en iCloud y, más notoriamente, en sus iPhones, serían escaneadas para verificar que no estuvieran relacionadas con el abuso infantil.
Apple escaneará los archivos en iCloud y los iPhones en busca de material de abuso infantil
El mecanismo supone un sistema automatizado que califica a los archivos como seguros o sospechosos. Cuando varios de estos son apuntados en la segunda categoría se procede a desencriptarlos para que un equipo de inspectores humanos compruebe si es material ilegal y lo reporte a las autoridades correspondientes.
Como suele ocurrir este tipo de medidas, aunque inspiradas en un buen objetivo, suelen despertar cuestionamientos tanto por sus métodos como su posible mal uso.
Una vigilancia sin igual
Will Cathcart, CEO de WhatsApp, apuntó al respecto en su cuenta de Twitter : “Hemos tenido computadores personales durante décadas y nunca a existido un mandato para escanear el contenido privado de todas las PC de escritorio, laptops o teléfonos de forma global para buscar contenido ilegal. Este no es el modo en que la tecnología concebida en países libres funciona”.
We’ve had personal computers for decades and there has never been a mandate to scan the private content of all desktops, laptops or phones globally for unlawful content. It’s not how technology built in free countries works.
— Will Cathcart (@wcathcart) August 6, 2021
Limites en juego
Apple ha apuntado que el sistema utiliza una base de datos dedicada a identificar específicamente imágenes de abuso infantil. La compañía afirma que en ocasiones anteriores se ha rehusado a crear sistema de vigilancia para los gobiernos, pero también es cierto que en ocasiones ha hecho grandes concesiones en China.
Aún confiando en Apple, varias organizaciones de derechos civiles y vinculadas a la informática y las telecomunicaciones han apuntado que no existe en sí un límite en el uso.
La Electronic Frontier Foundation afirma que no es posible crear un sistema de escaneo que funcione del lado del cliente y solo sea utilizado para combatir el abuso infantil.
Apple's filtering of iMessage and iCloud is not a slippery slope to backdoors that suppress speech and make our communications less secure. We’re already there: this is a fully-built system just waiting for external pressure to make the slightest change. https://t.co/f2nv062t2n
— EFF (@EFF) August 5, 2021
La herramienta, apunta la organización, es un sistema a la espera de un poco de presión para que se realicen los cambios necesarios para su uso en la supresión de la libre expresión.