Empresas

La imposible guerra de Apple contra la explotación infantil

Apple pasó años intentando diseñar un sistema que detuviera la difusión de material de abuso sexual infantil en iPhones y en iCloud. Cuando la empresa lo desechó, miembros clave del equipo que estaba detrás del proyecto lo abandonaron y los investigadores de protección de menores se sintieron frustrados. Pero el enfoque de Apple de dar prioridad a la privacidad ganó muchos seguidores en el proceso.

Joe Mollick pasó gran parte de su vida soñando con convertirse en un oncólogo rico y famoso, en una luminaria del tratamiento del cáncer, en el hombre que curaría la enfermedad para siempre. Fue una búsqueda quijotesca para este hombre de 60 años, que le dejó derrotado y desesperadamente aislado. Recurrió a la pornografía para aliviar sus sentimientos de soledad. Cuando esos sentimientos se agravaron, también lo hizo su gusto por el porno; empezó a buscar material de abuso sexual infantil (CSAM, por sus siglas en inglés).

Cuando los policías atraparon por primera vez a Mollick subiendo CSAM en una aplicación de mensajería llamada Kik en 2019, registraron sus aparatos electrónicos y descubrieron un alijo de 2.000 imágenes y videos ilegales de niños y unos 800 archivos en una orden de registro descrita como «erótica infantil» revisada por Forbes. Los investigadores descubrieron que ese material había sido subido y almacenado en su cuenta de iCloud, aunque Apple no fue quien avisó a la policía. Fue Kik la que proporcionó el chivatazo que llevó a la captura de Mollick y a su condena a dos años de prisión. La empresa fue alertada de las imágenes por una herramienta de Microsoft llamada PhotoDNA, que utiliza una huella digital para identificar CSAM conocidos.

Que Apple no haya detectado el material ilegal no es sorprendente: aparte de su análisis estándar de los archivos adjuntos del correo electrónico saliente, la compañía ha optado durante mucho tiempo por no examinar los datos no cifrados de iCloud en busca de CSAM conocido. Y aunque había desarrollado un sistema criptográfico para hacer precisamente eso, Apple lo abandonó a finales de 2022, un movimiento polarizador que atrajo los elogios de los defensores de la privacidad y la indignación de los defensores de la seguridad infantil. La compañía enmarcó la controvertida decisión como un reflejo de su compromiso con la privacidad, una postura que le ha valido a la empresa más rica del mundo muchos aplausos.

Sin embargo, los críticos afirman que Apple no ha desarrollado una respuesta sostenida y eficaz a los materiales de explotación infantil en sus servicios y se ha quedado muy por detrás de sus competidores a la hora de ayudar a la policía a atrapar a los delincuentes que los hacen proliferar. Una revisión de Forbes de unos 100 casos federales en los que los investigadores buscaron tecnologías de Apple, creyendo que se utilizaban para promover la explotación infantil, encontró que los sistemas de la compañía se han utilizado para almacenar y transmitir miles de elementos de CSAM entre 2014 y 2023. Pero a diferencia de otras empresas como Google y Meta, que escanean proactivamente sus servicios en busca de este tipo de material y proporcionan millones de pistas cada año al Centro Nacional para Menores Desaparecidos y Explotados (NCMEC), una organización sin ánimo de lucro, y a las fuerzas de seguridad, Apple solo informa de cientos de casos, a pesar de tener cientos de millones de usuarios de iCloud.

Dentro de Apple, se han producido alteraciones en su función de confianza y seguridad en los 18 meses transcurridos entre el anuncio de la tecnología anti-CSAM y su eliminación. Dos ejecutivas de seguridad infantil, Melissa Marrus Polinsky, que pasó 10 años como directora de investigaciones y seguridad infantil de Apple, y su directora de confianza y seguridad Margaret Richardson, se marcharon. Otros dos ejecutivos que eran partes interesadas clave en el trabajo anti-CSAM de la empresa también se fueron: la directora de privacidad Jane Horvath y el jefe de iCloud Michael Abbott. (Abhishek Bhowmick, descrito por dos antiguos empleados de Apple como el principal ingeniero del software de detección de CSAM, se marchó para fundar su propia empresa. Contactado para hacer comentarios, dijo a Forbes que su trabajo en tecnología de privacidad en Apple fue «uno de los mayores honores de mi carrera».

«¿Cómo pueden estar seguros los usuarios de que una herramienta para un tipo de vigilancia no ha sido reconfigurada para vigilar otros contenidos, como la actividad política o la persecución religiosa?»

Erik Neuenschwander, director de privacidad y seguridad infantil de Apple.

Esas salidas fueron significativas. Cuando Polinsky y Richardson se marcharon, dejaron «agujeros bastante grandes en la organización», dijo a Forbes un antiguo empleado de Apple. Otro dijo que el grupo centrado en la protección de la infancia se había dispersado, con funciones reorganizadas y asignadas a otros equipos. Gran parte de la función se ha trasladado a ingeniería de privacidad, según una fuente en posición de saber.

Ese departamento está dirigido ahora por Erik Neuenschwander, ejecutivo técnico de Apple desde hace mucho tiempo. Nombrado recientemente director de privacidad y seguridad infantil, sus anteriores funciones se centraban en gran medida en la ingeniería de software. Junto a él trabajan Chuck Gillingham, ex fiscal adjunto del condado de Santa Clara (California, EE UU), y Ruben van der Dussen, ingeniero de privacidad que anteriormente trabajaba en Thorn, la organización sin ánimo de lucro contra el crimen organizado fundada por Ashton Kutcher. El personal de confianza y seguridad depende en última instancia de Mike Thornberry, que ha pasado gran parte de sus 23 años en Apple supervisando las ventas y Apple Pay.


Apple mantiene desde hace tiempo que la privacidad es un derecho humano fundamental. La empresa se negó a crear para el FBI una puerta trasera en iOS que eludiría varias funciones de seguridad importantes y permitiría a las fuerzas de seguridad acceder a los datos personales almacenados en los iPhones. Apple argumentó que hacerlo daría al gobierno y a otros el poder de acceder al dispositivo de cualquier persona para husmear y recopilar datos confidenciales. Desde entonces, la compañía ha avanzado hacia un cifrado aún más amplio de su hardware y software, para disgusto del FBI y otras fuerzas de seguridad. Aunque el cifrado de iCloud está activado por defecto, Apple podría escanear los archivos de cualquier usuario que pida a la empresa recuperar sus datos, por ejemplo, cuando inician sesión en un nuevo dispositivo, restauran archivos desde una copia de seguridad o piden ayuda si pierden el acceso a su cuenta.

Los defensores de la seguridad infantil afirman que el compromiso inquebrantable de Apple con la privacidad tiene un coste: Apple es esencialmente ciega al material dañino e ilegal almacenado en sus servicios. Como dijo un antiguo empleado a Forbes, esta postura «oculta otros daños sociales muy graves». Los tecnólogos y los veteranos de las fuerzas de seguridad afirman que los competidores en todos los ámbitos, desde Google, Meta y Microsoft hasta Dropbox y otros proveedores de nubes personales, son mucho más proactivos a la hora de erradicar a los depredadores sexuales que abusan de sus plataformas. Cada año, esas empresas proporcionan millones -a veces decenas de millones- de ciberinformes más que Apple al NCMEC (National Center for Missing & Exploited Children), que los revisa y cataloga antes de entregarlos a los investigadores de abusos a menores.

«Nunca han estado realmente interesados en contribuir a la protección de los niños en su plataforma», dijo a Forbes Jim Cole, que pasó dos décadas en la unidad de Investigaciones de Seguridad Nacional del DHS. «Han tomado el camino de la privacidad con bastante fuerza y la ley no les obliga a buscar CSAM».

«Apple no hace ningún escaneo proactivo de sus tecnologías ni de sus almacenamientos, ni de ninguna transmisión para ayudar a las fuerzas de seguridad a detener la explotación infantil, cero»

Jon Rouse, ex investigador de abusos a menores en Australia

Apple declinó hacer comentarios sobre una lista detallada de preguntas, y en su lugar facilitó a Forbes una carta de Neuenschwander, director de privacidad del usuario y seguridad infantil de Apple, que abordaba las recientes demandas de la organización sin ánimo de lucro Heat Initiative para que Apple restableciera los planes de escanear sus sistemas en busca de CSAM. Neuenschwander afirmó que Apple había abandonado el proyecto porque «no era posible en la práctica aplicarlo sin poner en peligro, en última instancia, la seguridad y la privacidad de nuestros usuarios», pero subrayó que la empresa ofrece otras funciones de seguridad para combatir la explotación infantil.

El escaneado masivo de los usuarios de Apple «abriría la puerta a la vigilancia masiva», advertía Neuenschwander en la carta, publicada por primera vez por Wired. «¿Cómo pueden estar seguros los usuarios de que una herramienta para un tipo de vigilancia no ha sido reconfigurada para vigilar otros contenidos, como la actividad política o la persecución religiosa? Las herramientas de vigilancia masiva tienen amplias implicaciones negativas para la libertad de expresión y, por extensión, para la democracia en su conjunto». Añadió que los fallos de este tipo de escaneado podrían acarrear problemas a los padres «cuando no han hecho más que compartir fotos perfectamente normales y apropiadas de sus bebés.»

El enigma de iCloud

Desde diciembre de 2022, Apple ofrece dos niveles de cifrado para iCloud. La «protección de datos estándar» cifra los datos en el servidor y en tránsito, pero Apple conserva las claves necesarias para desencriptarlos. La «protección de datos avanzada» hace esencialmente lo mismo, pero Apple no puede recuperar los datos cifrados. Dado que los usuarios deben optar explícitamente por esta última opción, es probable que Apple tenga acceso a una cantidad considerable de datos de iCloud sin cifrar.

También maneja información no solo de sus propias aplicaciones, sino de plataformas de correo electrónico, redes sociales y mensajería de terceros en las que los usuarios tienen activadas las copias de seguridad de sus dispositivos, algo que las fuerzas de seguridad suelen tener en cuenta al presentar solicitudes de órdenes judiciales para registrar cuentas de iCloud. Eso incluye datos de WhatsApp de Meta y otros mensajeros centrados en la privacidad como Threema, así como aplicaciones como Kik que suelen ser utilizadas por los depredadores.

Es de suponer que Apple podría escanear iCloud con PhotoDNA, una de las herramientas más extendidas en la lucha contra el material de explotación infantil en línea, según John Rouse, veterano con 25 años de investigaciones sobre abusos a menores en Australia, recientemente jubilado, y antiguo presidente del Grupo de Trabajo de Interpol sobre Investigaciones Encubiertas en Internet. El programa, creado en 2009 por Microsoft y el Dartmouth College, convierte las imágenes en valores numéricos únicos denominados hashes. Estos pueden compararse con una base de datos de hashes CSAM conocidos. Si coinciden, se inicia una nueva investigación.

El uso de PhotoDNA está tan extendido -Facebook y Google lo utilizan desde hace más de una década, Snapchat desde al menos 2020- que se ha convertido en un estándar del sector. Pero Apple no lo ha adoptado. La compañía no hace «ningún escaneo proactivo de sus tecnologías o sus almacenamientos, ni ninguna transmisión para ayudar a las fuerzas del orden a detener la explotación infantil, cero», dijo Rouse. «No contribuyen».

Como todas las empresas tecnológicas, Apple está obligada por ley a responder a las órdenes de registro, y también debe informar a las autoridades federales del material de abuso sexual infantil que encuentre en sus plataformas a través de la «CyberTipline» gestionada por el NCMEC.

El año pasado, mientras que Facebook e Instagram, de Meta, enviaron conjuntamente 26 millones de informes, Google 2 millones y TikTok casi 300.000, Apple envió 234. El año anterior, 160.

Apple no es una empresa de redes sociales, por lo que no es una comparación directa. Dicho esto, WhatsApp, que está cifrado de extremo a extremo, analiza el contenido no cifrado, como las fotos de perfil y de grupo, en busca de CSAM. En 2022, proporcionó más de un millón de datos cibernéticos al NCMEC; Microsoft envió 110.000; Dropbox, casi 46.000; y Synchronoss, el proveedor de almacenamiento en la nube de Verizon, más de 30.000.

Los planes originales de Apple para llevar a cabo escaneos en fotos almacenadas en iCloud sin invadir la privacidad de los usuarios era como «proponer magia en lugar de realidad»

Meredith Whittaker, presidenta de Signal

Apple declinó hacer comentarios sobre la escasez de informes NCMEC en comparación con sus competidores. Aunque es probable que la discrepancia se deba en parte a duplicidades -una sola imagen infractora compartida en varias publicaciones-, los críticos afirman que es más un reflejo de que Apple no hace más de lo que le exige la ley para vigilar el material ilegal.

El portavoz del NCMEC, Gavin Portnoy, afirmó que la disparidad no tenía «nada que ver con la posible duplicación» y que era el resultado de la falta de voluntad de Apple para «hacer esfuerzos razonables para detectar y denunciar el CSAM en su plataforma». Incluso el sitio marginal 4chan, que difícilmente es un pináculo de la moderación, reporta múltiplos de lo que Apple hace cada año.

Y los documentos judiciales sí muestran que los servicios de Apple alojan CSAM. El caso de Mollick fue una de las al menos 100 investigaciones federales de entre 2014 y 2023 en las que se alegaba o se creía que el sospechoso había utilizado productos de Apple para almacenar imágenes de explotación sexual infantil. (Ese recuento, que no incluye registros estatales, locales o internacionales, representa solo una fracción del total de casos de explotación infantil que involucran a Apple).

Dos ejemplos: En 2022, el tejano Michael Galvan, de 42 años, fue condenado a más de 17 años de prisión por distribuir CSAM después de que se encontraran casi 600 vídeos e imágenes ilegales en su cuenta de iCloud. En mayo de este año, el ex profesor de primaria del condado de Orange Richard O’Connor se declaró culpable de posesión de CSAM después de que una redada en su cuenta de iCloud identificara al menos 81 videos y 158 imágenes de abuso infantil, incluyendo «conducta violenta, sádica o masoquista.» En ambos casos, Apple proporcionó datos en respuesta a órdenes de registro aprobadas por los tribunales. En el caso de Galván, sin embargo, el chivatazo original que puso en marcha la investigación procedía de nuevo de Kik. En sólo dos de los casos analizados por Forbes, Apple detectó e informó proactivamente del CSAM que detectó en los mensajes de correo electrónico salientes.

Apple declinó hacer comentarios sobre estos casos y las diferencias entre escanear los correos electrónicos salientes en busca de imágenes de explotación sexual infantil y escanear iCloud. Pero es muy consciente de los problemas de CSAM en sus servicios. En mensajes de texto desenterrados durante la presentación de pruebas en el caso Epic Games contra Apple, el jefe antifraude de Apple, Eric Friedman, dijo a su colega en 2020 que Facebook y otras empresas tecnológicas se habían centrado en la confianza y la seguridad, pero «apestaban» en privacidad, y añadió que el enfoque de Apple de la privacidad es un derecho humano fundamental significaba que se había convertido en «la mayor plataforma para la distribución de pornografía infantil».

Un punto de inflexión

En un intento por detectar material ilegal alojado en iCloud, a finales de la década de 2010 Apple comenzó a trabajar en una herramienta que rastrearía sus servidores en busca de CSAM manteniendo la privacidad del cliente. Anunciado en agosto de 2021 y bautizado como NeuralHash, Apple dijo que el software podría detectar CSAM previamente identificado en el dispositivo, antes de que fuera subido y sin mirar ni capturar ninguna información sobre fotos que no fueran CSAM. La comunidad de seguridad infantil aplaudió la iniciativa. Pero un coro de voces aún más fuerte la atacó, denunciando a NeuralHash como una grave amenaza para la privacidad.

La Electronic Frontier Foundation encabezó esa acusación y describió la herramienta de Apple como «una puerta trasera para aumentar la vigilancia y la censura en todo el mundo». Joe Mullin, el principal activista de la campaña de la organización sin ánimo de lucro contra Apple, argumentó que las técnicas propuestas para encontrar imágenes abusivas habrían llevado a una vigilancia generalizada de los usuarios de Apple. «Intentan localizar imágenes específicas que son delictivas, de eso no hay duda, pero las técnicas que proponían utilizar eran como… hagamos de todo el mundo un pajar y que un algoritmo lo examine», declaró Mullin a Forbes. También afirmó que las herramientas de escaneado suelen ser imprecisas y poco auditables.

Meredith Whittaker, presidenta de Signal, dijo a Forbes que los planes originales de Apple para llevar a cabo escaneos en las fotos de iCloud sin invadir la privacidad de los usuarios era como «proponer magia en lugar de realidad». Apple lo dijo en la reciente carta de Neuenschwander, su director de privacidad del usuario y seguridad infantil, en respuesta a las nuevas demandas de escanear las fotos de iCloud para el CSAM. Era la declaración más contundente que Whittaker había visto del gigante tecnológico sobre la cuestión en 20 años de debate. «Fue inequívoca al afirmar que nunca será posible», dijo Whittaker. Whittaker se refirió a investigaciones anteriores en las que se detectaron vulnerabilidades en NeuralHash, alegando que la tecnología podría filtrar información sobre imágenes que no fueran de CSAM o ser explotada para inculpar a alguien.

«La declaración de Apple es la sentencia de muerte para la idea de que es posible escanear las comunicaciones de todo el mundo y preservar la privacidad», escribió en Twitter. «Apple cuenta con muchos de los mejores criptógrafos e ingenieros de software del mundo y con un presupuesto infinito. (No pueden. Nadie puede)».

«Todas las empresas tecnológicas deberían equilibrar la privacidad y la seguridad… Cuando no haces una, y sólo haces la otra, puedes tener abusos de tu tecnología»

Julie Cordua, presidenta de Thorn

La reacción pública a NeuralHash fue tan mala que Apple pausó su despliegue en otoño de 2021 y luego lo mató en diciembre de 2022. La medida dejó consternados y frustrados a algunos de los que habían trabajado en el software. La herramienta era «increíble», dijo un antiguo empleado. «Era revolucionaria. Y costó muchísimo trabajo». Otro dijo: «No lo describieron muy bien. No lo hicieron porque Apple no convence a la gente. Les gusta sorprender y deleitar, pero no entienden que este tipo de cosas requieren que la gente participe en cada paso».

Un año después del anuncio, los directores Polinsky y Richardson abandonaron la empresa: el primero se fue a trabajar al Departamento de Justicia y el segundo a GoFundMe. Bhowmick, ingeniero jefe de detección de CSAM, fundó su propia empresa de seguridad, Samooha. Horvath, responsable de privacidad, se trasladó al bufete de abogados Gibson, Dunn & Crutcher a principios de este año, mientras que Abbott, responsable de la nube, se marchó en abril de este año a GM.

También se han enfadado por la marcha atrás de Apple los defensores de la infancia y las fuerzas del orden que consideraban el despliegue de NeuralHash y el compromiso de la empresa con él como un gran paso adelante en la lucha contra la explotación infantil. Thorn, el grupo anti-CSAM respaldado por Kutcher, se encuentra entre los decepcionados por el abandono de los planes de Apple. «Toda tecnología puede usarse para el bien y para el mal, que es exactamente por lo que todas las empresas tecnológicas deberían equilibrar la privacidad y la seguridad», declaró a Forbes Julie Cordua, presidenta de Thorn. «Cuando no haces una, y sólo haces la otra, puedes tener un abuso de tu tecnología».

Tampoco ayuda el hecho de que el abandono de NeuralHash por parte de Apple parece haber exacerbado la ya tensa relación entre la compañía y los investigadores de explotación infantil. Rouse dijo que Apple se había vuelto cada vez más «retraída». «No se comunican… no dialogan con nosotros», dijo. «Y eso es realmente decepcionante cuando son uno de los mayores proveedores de tecnología del mundo».

Pero para los defensores de la privacidad, la decisión de Apple era la única que podía haber tomado, y NeuralHash una idea que debería haber abandonado antes. Incluso el fundador y consejero delegado de Epic Games, Tim Sweeney, que ha arremetido públicamente contra Apple por considerarla «una amenaza para la libertad en todo el mundo», entre otras cosas, elogió a la empresa por mantenerse firme ante las recientes críticas. (Anteriormente calificó los planes de Apple para la detección de CSAM, ya desaparecidos, de «software espía gubernamental instalado por Apple sobre la base de una presunción de culpabilidad» y de «locura fuera de serie»).

«Un buen movimiento de Apple para resistir las campañas de presión para vigilar los documentos y comunicaciones privadas de los usuarios en nombre de los gobiernos», escribió Sweeney en Twitter la semana pasada. «La propuesta de escaneo siempre fue una abominable violación de los derechos de los clientes».

ACTUALIZACIÓN: Este artículo se ha actualizado para señalar que la mayor parte del contenido de iCloud, incluidas las fotos, se cifra en el servidor y en tránsito con Protección de Datos Estándar, aunque Apple mantiene el acceso a esas claves de cifrado. Una versión anterior decía que el contenido de iCloud no está cifrado a menos que alguien opte por la función de Protección de Datos Avanzada de Apple.