Apple dice que no expandirá la controvertida tecnología CSAM

Apple dice que no expandirá la controvertida tecnología CSAM
            Apple ha tratado de desviar las críticas de su controvertido sistema de protección CSAM, pero al hacerlo, ha ilustrado exactamente lo que está en juego.</p><h2>La gran conversacion</h2><p>Apple anunció la semana pasada que introducirá un conjunto de medidas de protección infantil en iOS 15, iPad OS 15 y macOS Monterey cuando los sistemas operativos se lancen este otoño.
Entre otras protecciones, el sistema del dispositivo escanea su fototeca de iCloud en busca de evidencia de colecciones ilegales de pornografía infantil (CSAM). Proteger a los niños es, por supuesto, totalmente apropiado, pero los defensores de la privacidad siguen preocupados por el potencial del sistema de Apple para convertirse en un perro guardián en toda regla. En un intento por bajar el tono de las críticas, Apple ha dado a conocer nueva información en la que intenta explicar un poco más cómo funciona la tecnología. Como se explica en este informe técnico de Apple, la tecnología convierte las imágenes de su dispositivo en un hash digital que se puede comparar con una base de datos de imágenes CSAM conocidas cuando las carga en Fotos de iCloud.

Hazlo un hash

Aunque el análisis de la imagen se realiza en el dispositivo utilizando la tecnología hash de Apple, no todas las imágenes están marcadas o escaneadas, solo aquellas identificadas como CSAM. Apple afirma que esto es en realidad una mejora en el sentido de que la empresa no escanea toda la biblioteca en ningún momento. “Las técnicas existentes implementadas por otras empresas analizan todas las fotos de los usuarios almacenadas en la nube. Esto crea un riesgo para la privacidad de todos los usuarios ”, dice la nueva pregunta frecuente de la compañía. "La detección de CSAM en iCloud Photos ofrece importantes ventajas de privacidad sobre estas técnicas al evitar que Apple aprenda fotos a menos que ambas coincidan con imágenes CSAM conocidas y estén incluidas en una cuenta de iCloud. Fotos que incluyen una colección de CSAM conocidos". A pesar de estas garantías, todavía existen grandes preocupaciones sobre la medida en que el sistema puede extenderse al monitoreo de otras formas de contenido. Después de todo, si puede convertir una colección de imágenes CSAM en datos identificables, puede convertir cualquier cosa en datos contra los cuales se pueda analizar la información personal. El abogado de privacidad Edward Snowden advierte: “No se equivoquen: si pueden buscar pornografía infantil hoy, pueden buscar cualquier cosa mañana. "

¿Tomarlo con confianza?

Apple dice que no tiene planes de llevar su sistema a otras áreas. En sus preguntas frecuentes, escribe: “Ya hemos enfrentado solicitudes para crear e implementar cambios exigidos por el gobierno que degraden la privacidad del usuario, y las hemos rechazado firmemente. Continuaremos rechazándolos en el futuro. Seamos claros, esta tecnología se limita a detectar CSAM almacenado en iCloud y no accederemos a ninguna solicitud de un gobierno para extenderla. A primera vista, esto parece tranquilizador. Pero es lógico que ahora que existe esta tecnología, los países que quieran obligar a Apple a expandir la vigilancia en los dispositivos para asuntos más allá de CSAM usarán cualquier arma que tengan para forzar el problema. "Todo lo que se necesitaría para ampliar la estrecha puerta trasera que Apple está construyendo es una expansión de la configuración del aprendizaje automático para encontrar tipos adicionales de contenido", advirtió la Electronic Frontier Foundation. Prevenir esto será una lucha. Lo que significa que Apple tiene una pelea por delante.

La guerra de la privacidad ha comenzado

Esta puede ser una pelea que Apple quiera librar. Después de todo, sabemos que ha tomado muchas medidas importantes para proteger la privacidad del usuario en sus ecosistemas y también sabemos que apoya cambios en la ley para proteger la privacidad en línea. "Ciertamente es hora, no solo de una ley de privacidad integral aquí en los Estados Unidos, sino también de leyes globales y nuevos acuerdos internacionales que consagran los principios de minimización de datos, conocimiento del usuario, acceso del usuario. Usuarios y seguridad de datos en todo el mundo, ”, Dijo el CEO Tim Cook este año. Se podría argumentar que la introducción de alto perfil de Apple de medidas de protección infantil provocó una conversación más amplia sobre los derechos y la privacidad en un mundo en línea y conectado. La única forma de evitar que el sistema se extienda más allá de CSAM es ayudar a Apple a resistir la presión de hacerlo. En ausencia de dicho apoyo, es poco probable que Apple gane solo contra todos los gobiernos. En el caso de que la empresa no sea apoyada, la pregunta es cuándo, y no si, se verá obligada a ceder. Y, sin embargo, los gobiernos aún pueden llegar a un acuerdo sobre la privacidad en línea. Las apuestas son altas. El riesgo es que los ladrillos a lo largo del soleado camino hacia la justicia que Cook ha tratado de colocar durante mucho tiempo pueden convertirse en ladrillos en la pared para evitar que se lleve a cabo ese viaje. La ventaja es que un esfuerzo decidido puede permitir la creación de marcos que permitan el final de este camino. La controversia refleja lo accidentado que parece haberse vuelto este camino. Síganme en Twitter o únase a mí en el bar & grill de AppleHolic y en los grupos de discusión de Apple en MeWe.
<p>Copyright © 2021 IDG Communications, Inc.</p>