Burócratas con poder pero sin conocimiento los hay en todas partes. Aunque normalmente es la UE la que consigue los titulares, esta vez le toca a un organismo del Reino Unido, que parece desconocer los términos y límites de tecnologías como «cifrado de extremo a extremo» y acusa a Apple de no desenmascarar a más traficantes de pornografía infantil que usan sus plataformas.
Según informa Katie McQue para The Guardian, la Sociedad Nacional para la Prevención de la Crueldad hacia los Niños (National Society for the Prevention of Cruelty to Children – NSPCC) del Reino Unido acusa a Apple de reportar con poca frecuencia material de abuso sexual infantil (CSAM) que aparece en sus productos.
En un año, los depredadores de niños utilizaron iCloud, iMessage y Facetime de Apple para almacenar e intercambiar CSAM en un mayor número de casos solo en Inglaterra y Gales que el que la compañía informó en todos los demás países combinados, según los datos policiales obtenidos por el NSPCC.
A través de los datos recopilados a través de solicitudes de libertad de información y compartidos exclusivamente con The Guardian, esta organización benéfica ha descubierto que productos de Apple estaban implicados en 337 delitos registrados de imágenes de abuso infantil entre abril de 2022 y marzo de 2023 en Inglaterra y Gales.
En 2023, Apple hizo solo 267 informes de sospechas de CSAM en sus plataformas en todo el mundo al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC), que está en marcado contraste con sus grandes pares tecnológicos, con Google reportando más de 1,47 millones y Meta reportando más de 30,6 millones, según el informe anual de NCMEC.
Lo que parece ignorar esta organización con un nombre tan pomposo, es que el servicio iMessage de Apple está cifrado de extremo a extremo. Apple no puede ver los datos enviados a través de su servicio de iMessage.
La protección avanzada de datos de Apple para iCloud permite a los usuarios proteger los datos importantes de iCloud, incluyendo copias de seguridad de iCloud, fotos, notas y más. Apple no puede ver los datos protegidos por la protección de datos avanzada para iCloud.
En diciembre de 2022, después de mucha oposición Apple canceló un esfuerzo para diseñar una herramienta de escaneo de fotos de iCloud para detectar material de abuso sexual infantil (CSAM) en el servicio de almacenamiento, pero el miedo a las puertas traseras, los pasos positivos y la invasión de la privacidad de los usuarios pudieron más.
Ahora se ve que le toca tirar a los del otro lado de la cuerda…
Deja una respuesta
Lo siento, debes estar conectado para publicar un comentario.