Apple brinda más claridad sobre por qué abandonó el plan de detectar CSAM en las fotos de iCloud

Apple explica por qué abandonó el plan de detectar CSAM en las fotos de iCloud

Apple proporcionó el jueves la explicación más completa hasta ahora de por qué abandonó el año pasado su controvertido plan de detectar material conocido de abuso sexual infantil (CSAM, por sus siglas en inglés) almacenado en Fotos de iCloud.

La declaración de Apple, compartida con ENBLE y reproducida a continuación, fue en respuesta a la demanda del grupo de seguridad infantil Heat Initiative de que la compañía “detecte, informe y elimine” el CSAM de iCloud y ofrezca más herramientas para que los usuarios informen dicho contenido a la empresa.

“El material de abuso sexual infantil es aborrecible y estamos comprometidos a romper la cadena de coerción e influencia que hace que los niños sean susceptibles a él”, escribió Erik Neuenschwander, director de privacidad del usuario y seguridad infantil de Apple, en la respuesta de la compañía a Heat Initiative. Sin embargo, agregó que después de colaborar con una variedad de investigadores de privacidad y seguridad, grupos de derechos digitales y defensores de la seguridad infantil, la compañía concluyó que no podía continuar con el desarrollo de un mecanismo de escaneo de CSAM, incluso uno construido específicamente para preservar la privacidad.

“Escanear los datos de iCloud almacenados privadamente de cada usuario crearía nuevas vectores de amenaza para que los ladrones de datos los encuentren y los exploten”, escribió Neuenschwander. “También inyectaría el potencial de una pendiente resbaladiza de consecuencias no deseadas. El escaneo de un tipo de contenido, por ejemplo, abre la puerta a la vigilancia masiva y podría crear un deseo de buscar en otros sistemas de mensajería encriptada a través de tipos de contenido”.

En agosto de 2021, Apple anunció planes para tres nuevas funciones de seguridad infantil, incluido un sistema para detectar imágenes conocidas de CSAM almacenadas en ‌Fotos de iCloud‌, una opción de Seguridad de Comunicación que difumina fotos sexualmente explícitas en la aplicación Mensajes, y recursos de explotación infantil para Siri. La Seguridad de Comunicación se lanzó en los EE. UU. con iOS 15.2 en diciembre de 2021 y desde entonces se ha expandido al Reino Unido, Canadá, Australia y Nueva Zelanda, y los recursos de ‌Siri‌ también están disponibles, pero la detección de CSAM nunca se llegó a lanzar.

Inicialmente, Apple dijo que la detección de CSAM se implementaría en una actualización de iOS 15 y iPadOS 15 para finales de 2021, pero la compañía pospuso la función debido a “comentarios de los clientes, grupos de defensa, investigadores y otros”. Los planes fueron criticados por una amplia gama de individuos y organizaciones, incluidos investigadores de seguridad, la Electronic Frontier Foundation (EFF), políticos, grupos de políticas, investigadores universitarios e incluso algunos empleados de Apple.

La última respuesta de Apple al problema llega en un momento en que el debate sobre el cifrado ha vuelto a cobrar fuerza debido al gobierno del Reino Unido, que está considerando planes para enmendar la legislación de vigilancia que requeriría que las empresas de tecnología desactiven características de seguridad como el cifrado de extremo a extremo sin informar al público.

Apple dice que retirará servicios como FaceTime y iMessage en el Reino Unido si la legislación se aprueba en su forma actual.

Nota: Debido a la naturaleza política o social de la discusión sobre este tema, el hilo de discusión se encuentra en nuestro foro de Noticias Políticas. Todos los miembros del foro y visitantes del sitio pueden leer y seguir el hilo, pero la publicación está limitada a miembros del foro con al menos 100 publicaciones.