Millones de usuarios de Apple tienen Google Photos en sus iPhones, iPads y Mac, pero Apple acaba de señalar una advertencia seria sobre la plataforma de Google y les dio a sus usuarios una razón para eliminar sus aplicaciones.
La semana pasada Apple tuvo varios revuelos con el tema de la privacidad, algo que no necesitaba en un periodo previo al lanzamiento del iPhone 13 e iOS 15. La compañía llevó a cabo un plan para filtrar las imágenes de los usuarios y así eliminar las imágenes que implicaban algún tipo de abuso infantil.
Todas las principales plataformas en la nube, incluida Google Photos, lo han hecho durante años. “El material de abuso sexual infantil no tiene cabida en nuestras plataformas”, dijo Google. “Como describimos, utilizamos una variedad de técnicas de escaneo estándar de la industria que incluyen tecnología de coincidencia de hash e inteligencia artificial para identificar y eliminar material que se ha cargado en nuestros servidores”.
Pero resulta que Apple no ha estado haciendo lo mismo. La compañía aún no ha aplicado tal filtrado a iCloud Photos, y su razonamiento para esta decisión aparentemente sorprendente destaca una vez más las diferentes filosofías de privacidad en juego.
La controvertida decisión de Apple (ahora estancada) de detectar contenido de abusos sexuales en niños en el dispositivo en lugar de en la nube, fue, dijo la compañía, porque quería marcar imágenes conocidas “sin obtener información sobre imágenes que no sean contenidos de abusos sexuales a menores”. Lo que significa es que todos los usuarios no deben renunciar a la privacidad de todo su contenido, para señalar a una pequeña minoría.
Si su iPhone privado no marca ninguna coincidencia potencial de material de abusos sexuales a menores, los servidores de Apple pueden ignorar todo su contenido. Si su iPhone marca posibles coincidencias, al menos 30 de ellas, entonces el servidor sabe exactamente dónde buscar.
Software espía en Google Photos
Sin embargo, el problema es que, a pesar de las explicaciones y garantías técnicas detalladas, el concepto de detección en el dispositivo no funcionó bien. Ese filtrado de “iPhone privado” simplemente apareció como un software espía en el dispositivo, lo que aumenta el espectro de la filtración del alcance, de que cada vez se marque más contenido a instancias de los gobiernos de EE. UU. Y el extranjero. Y así, Apple se ha retirado a su tablero de dibujo para repensarlo.
Apple ha destacado la invasión de la privacidad al buscar en todas sus fotos en la nube, que sería bienvenido solo hacer coincidir las bases de datos del contenido de abusos sexuales a menores, pero ¿se detiene allí? ¿Y qué hay de los riesgos inherentes a los detalles técnicos de Apple, en torno a coincidencias falsas y revisiones manuales? ¿Significa eso que nuestras fotos en la nube en otras plataformas son marcadas y revisadas regularmente por los escritorios de los operadores manuales?
Peor aún, el problema real que escondió los planes de búsqueda de Apple por debajo de la línea de flotación fue el riesgo de que los gobiernos se expandieran más allá del contenido conocido, recopilado por organizaciones de seguridad infantil, a otro contenido. Disidencia política o religiosa, otros delitos, minorías perseguidas en partes del mundo donde Apple vende sus dispositivos.
EE. UU. comienza con esta política de privacidad
Apple explicó con gran detalle que tenía protecciones técnicas para obstaculizar esto, prometiendo que siempre diría que no. Luego dijo que esto era solo EE. UU. para comenzar y solo se expandiría a países donde esos riesgos podrían ser contenidos. Pero el agitado lobby de la privacidad no estaba asegurado, especialmente dados los desafíos pasados de Apple de “simplemente decir no” en China, sobre las ubicaciones de almacenamiento de iCloud y la censura de aplicaciones, por ejemplo.
Claramente, no es necesario ser un genio técnico para darse cuenta de que esos mismos riesgos se aplican a la detección en la nube y no se limitan al software en los dispositivos. Las solicitudes de datos gubernamentales para datos almacenados en plataformas en la nube son comunes. Sí, la jurisdicción en la que se almacenan los datos en la nube varía y las plataformas tienen políticas sobre lo que proporcionan y cuándo; pero si los datos están ahí y se pueden identificar, se pueden recuperar.
Razones por la que no utilizar Google Photos
Hay tres razones por las que los usuarios de Apple deberían eliminar estas aplicaciones. Primero, usar Google Photos significa darle a la plataforma acceso completo a sus fotos. Es todo o nada. Apple tiene una herramienta de preservación de la privacidad relativamente nueva en su aplicación de fotos, para limitar las fotos a las que puede acceder cualquier aplicación. Pero Google Photos no lo aceptará, insistiendo en que cambie la configuración para darle acceso a todo si desea usar la aplicación.
Google, al igual que Facebook, también recoge los metadatos de las fotos y los introduce en su máquina de hacer dinero basada en algoritmos. “Utilizamos los datos de localización EXIF para mejorar la experiencia de los usuarios en la aplicación”, me dijo la empresa. “Por ejemplo, para hacer aflorar un viaje en nuestra función Memories o sugerir un álbum de fotos de un viaje reciente”.
Está claro que cada uno puede opinar sobre los datos personales que le parece bien que se introduzcan en los conjuntos de datos de Google para su extracción y análisis, y Google ofrece ahora más controles que nunca para restringir lo que se comparte. Pero limitar el acceso de Google también limita su funcionalidad. Es esa filosofía central la que está en juego.
“Tus álbumes de fotos y vídeos están llenos de momentos preciosos”, contrapone Apple al planteamiento de Google. “Los dispositivos de Apple están diseñados para darte el control sobre esos recuerdos”. Y en el fondo de esta garantía, tenemos el mismo debate de dispositivo versus nube que enmarcó la controversia del contenido que golpeó a Apple el mes pasado.
Lo que nos lleva a la tercera cuestión. Sabemos que Google aplica la IA en la nube a las fotos que almacena. Detrás de la medida de material de abuso sexual a menores de Apple estaba su enfoque bien establecido para analizar los datos de su dispositivo. Apple utiliza el aprendizaje automático (machine learning en inglés o ML) en el dispositivo para categorizar las fotos, por ejemplo, permitiendo la búsqueda inteligente de objetos o personas. Google lo hace en la nube. Y mientras que el problema del contenido de Apple era la vinculación de este aprendizaje automático en el dispositivo con el procesamiento externo, el ML en la nube de Google ya es externo, fuera del dispositivo, una relativa caja negra para los usuarios.
Cuando Apple dice que su plataforma de Fotos “está diseñada para que el reconocimiento facial y la detección de escenas y objetos —que impulsan funciones como Para ti, Recuerdos, Sugerencias para compartir y el álbum Personas— se produzcan en el dispositivo y no en la nube… Y cuando las aplicaciones solicitan acceso a tus fotos, puedes compartir solo las imágenes que quieres, no toda tu biblioteca”, sabemos exactamente a quién se refieren.
Sobre su enfoque del contenido de abusos sexuales a menores en Google Photos, la empresa me dijo que “trabajamos estrechamente con el Centro Nacional para Niños Desaparecidos y Explotados y otros organismos de todo el mundo para combatir este tipo de abusos”.
Sin embargo, Google no quiso responder a otras preguntas: la protección de la privacidad en Google Fotos, las limitaciones y restricciones de la selección, su política sobre las solicitudes de los gobiernos (extranjeros o nacionales) o si se le había pedido que ampliara el alcance de su selección. Además, me remitieron a sus políticas generales de publicidad sobre el contenido (no sobre los metadatos, como se puede observar) y a su informe de transparencia.
Google tampoco ha comentado otros clasificadores de IA que aplica a Google Photos, cómo se recogen y utilizan los datos y si tiene intención de revisar algo a la luz de la reacción de Apple. No hay ninguna implicación de que Google esté haciendo algo más que lo obvio, pero eso es lo que pasa con la nube, que en realidad es solo el ordenador de otra persona.
Al igual que mostramos que Facebook recopilaba datos EXIF sin transparencia para el usuario, la cuestión es indagar en los términos y condiciones para entender lo que significan en la práctica. Cuando el análisis se hace fuera del dispositivo, es invisible para el usuario. Ese era el punto de Apple sobre el contenido.
Evidentemente hay riesgo, como te avisó Apple. Ya sabemos que Google tiene una arquitectura menos segura para la privacidad que Apple, por lo que es conveniente ir con los ojos bien abiertos con sus aplicaciones.
Mientras tanto, si gastas más de 1000 euros en un iPhone, es necesario que uses su configuración de privacidad por defecto. Eso significa no usar Google Photos aunque tenga un avanzado sistema de búsqueda. Como siempre, la comodidad tiene un precio, pero perder sin transparencia ni control, el precio es demasiado alto.
En segundo lugar, la etiqueta de privacidad de Google Photos es un espectáculo de horror en comparación con la alternativa de Apple. Al igual que con otras aplicaciones de stock, Google (al igual que Facebook) recopila lo que puede, excusándose en que solo utiliza los datos cuando es necesario. Pero el problema es que Google vincula todos estos datos a tu identidad, añadiéndolos a los vastos perfiles asociados a tu cuenta de Google u otros identificadores personales. Google no hace esto como un servicio, sino que es el núcleo de su modelo de negocio publicitario basado en datos. Solo hay que seguir el dinero.
Google dice que estas etiquetas “muestran todos los datos posibles que podrían recopilarse, pero los datos reales dependen de las funciones específicas que decidas utilizar… Recogeremos información de contacto si quieres compartir tus fotos y vídeos… o si decides comprar un álbum de fotos, recogeremos tu información de pago y almacenaremos tu historial de compras. Pero estos datos no se recogen si decides no compartir fotos o no hacer una compra”.