Las medidas de seguridad para niños que Apple quiere implementar, explicadas (de verdad) [Actualizado]

El 5 de Agosto Apple conmocionó a propios y extraños anunciando una serie de medidas destinadas a proteger a los menores de que sean expuestos a imágenes de pornografía.

Como suele ocurrir, la mayoría de los medios han agarrado el rábano por las hojas, lo que les permite producir titulares sensacionalistas con remota conexión con la realidad de lo anunciado.

Con prudencia, porque es un tema que está en plena evolución y definición, vamos a intentar aportar los hechos, para que -al menos los lectores de faq.mac- puedan tener conversaciones formadas sin alarmismos innecesarios o populismos baratos. Como es un artículo largo, si quieres saber más sobre un punto en concreto te recomendamos que uses el índice que aparece al principio del artículo.

Primero responde(te) a esto

Como suele ocurrir, el debate (suponiendo que lo haya) se ha saltado todos los fundamentos para poder lanzar discursos plenamente demagógicos basados en una única perspectiva.

Las preguntas que hemos de responder antes de decidir si la solución de Apple es buena son: ¿hay que hacer todo lo posible por intentar que los niños no se vean expuestos a depredadores sexuales? ¿Merece la pena implementar medidas que les protejan? ¿Tienen las grandes tecnológicas responsabilidad sobre los contenidos a los que exponen a los usuarios? ¿qué es más importante: la privacidad o detectar a un depredador sexual?

Como podemos ver, responder a cada una de esas preguntas es un debate en si mismo, con matices desde tantos ángulos que responder con un sencillo “si” o “no” es sobresimplificar el debate.

Aún asi, tener claro el punto del que se parte es fundamental para decidir si Apple hace bien o mal en instaurar esas medidas unilateralmente.

Ha habido muchas gente protestando contra este anuncio (más abajo encontrarás el más importante), como Epic Games y WhatsApp (Facebook). Cabe preguntarse qué están haciendo ellos para impedir este tipo de abusos, o qué medidas proponen…

El comunicado de Apple

Aquí vamos a entresacar los principales párrafos (traducidos) de lo que ha dicho Apple, para que puedas formarte tu propia opinión. Las negritas son nuestras. El original está aquí.

___

Queremos ayudar a proteger a los niños de los depredadores que utilizan herramientas de comunicación para reclutarlos y explotarlos, y limitar la propagación del CSAM (Child Sexual Abuse Material o Material de Abuso Sexual Infantil).

Apple está introduciendo nuevas características de seguridad infantil en tres áreas, desarrolladas en colaboración con expertos en seguridad infantil.

En primer lugar, las nuevas herramientas de comunicación permitirán a los padres desempeñar un papel más informado para ayudar a sus hijos a navegar por la comunicación en línea. (…) Mensajes utilizará el aprendizaje automático en el dispositivo para advertir sobre el contenido confidencial, mientras Apple mantiene las comunicaciones privadas ilegibles.

iOS y iPadOS utilizarán nuevas aplicaciones de criptografía para ayudar a limitar la propagación de CSAM en línea, diseñadas para mantener la privacidad del usuario. La detección de CSAM ayudará a Apple a proporcionar información valiosa a las fuerzas del orden sobre las colecciones de CSAM en Fotos de iCloud.

Las actualizaciones de Siri y Búsquedas proporcionan a los padres y a los niños información ampliada y ayuda si se encuentran con situaciones inseguras. Siri y Búsquedas también intervendrán cuando los usuarios busquen temas relacionados con CSAM.

Estas características llegarán a finales de este año en actualizaciones de iOS 15, iPadOS 15, watchOS 8 y macOS Monterey.

Seguridad de la comunicación en los mensajes

La app Mensajes añadirá nuevas herramientas para advertir a los niños y a sus padres cuando reciban o envíen fotos sexualmente explícitas.

Al recibir este tipo de contenido, la foto se desdibujará y se advertirá al niño del contenido potencial de la imagen, se le presentarán recursos útiles y se le asegurará que es correcto no querer ver la foto. Como precaución adicional, también se le puede decir al niño que, para asegurarse de que está a salvo, sus padres recibirán un mensaje si ve la imagen. Protecciones similares estarán disponibles si un niño intenta enviar fotos sexualmente explícitas. El niño será advertido antes de que se envíe la foto, y los padres pueden recibir un mensaje si decide enviarlo.

Detección de CSAM

Otra preocupación importante es la difusión del Material de Abuso Sexual Infantil (CSAM) en línea. CSAM se refiere al contenido que representa actividades sexualmente explícitas que involucran a un niño.

Para ayudar a abordar esto, la nueva tecnología en iOS y iPadOS permitirá a Apple detectar imágenes CSAM conocidas almacenadas en Fotos de iCloud. Esto permitirá a Apple reportar estas instancias al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC). NCMEC actúa como un centro integral de informes para CSAM y trabaja en colaboración con agencias de aplicación de la ley en todo Estados Unidos.

El método de Apple para detectar CSAM conocido está diseñado teniendo en cuenta la privacidad del usuario. En lugar de escanear imágenes en la nube, el sistema realiza la comparación en el dispositivo utilizando una base de datos de hashes de imágenes CSAM conocidos proporcionados por NCMEC y otras organizaciones de seguridad infantil. Apple transforma aún más esta base de datos en un conjunto ilegible de hashes que se almacena de forma segura en los dispositivos de los usuarios.

Antes de que una imagen se almacene en Fotos de iCloud, se realiza un proceso de coincidencia en el dispositivo para esa imagen contra los hashes CSAM conocidos. Este proceso de coincidencia está impulsado por una tecnología criptográfica llamada intersección de conjunto privado, que determina si hay una coincidencia sin revelar el resultado. El dispositivo crea un vale de seguridad criptográfico que codifica el resultado de la coincidencia junto con datos cifrados adicionales sobre la imagen. Este vale se carga en Fotos de iCloud junto con la imagen.

Utilizando otra tecnología llamada umbral de uso compartido secreto, el sistema garantiza que el contenido de los comprobantes de seguridad no pueda ser interpretado por Apple a menos que la cuenta de Fotos de iCloud cruce un umbral de contenido CSAM conocido. El umbral está establecido para proporcionar un nivel extremadamente alto de precisión y garantiza menos de uno en un billón de posibilidades por año de marcar incorrectamente una cuenta determinada.

Solo cuando se supera el umbral, la tecnología criptográfica permite a Apple interpretar el contenido de los vales de seguridad asociados con las imágenes CSAM coincidentes. Apple luego revisa manualmente cada informe para confirmar que hay una coincidencia, deshabilita la cuenta del usuario y envía un informe a NCMEC. Si un usuario siente que su cuenta ha sido marcada por error, puede presentar una apelación para que se restablezca su cuenta.

Ampliar la guía en Siri y Buscar

Apple también está ampliando la orientación en Siri y Search al proporcionar recursos adicionales para ayudar a los niños y padres a mantenerse seguros en línea y obtener ayuda con situaciones inseguras. Por ejemplo, los usuarios que le pregunten a Siri cómo pueden denunciar CSAM o explotación infantil serán señalados a los recursos sobre dónde y cómo presentar una denuncia.

Siri y Search también se están actualizando para intervenir cuando los usuarios realizan búsquedas de consultas relacionadas con CSAM. Estas intervenciones explicarán a los usuarios que el interés en este tema es perjudicial y problemático, y proporcionarán recursos de los socios para obtener ayuda con este problema.

Más información

Hemos proporcionado más información sobre estas características en los documentos a continuación, incluidos resúmenes técnicos, pruebas y evaluaciones independientes del sistema de detección CSAM de expertos en criptografía y aprendizaje automático.

Preguntas que puedes tener

Ni que decir tiene que no somos expertos en el tema, y que lo que sabemos lo hemos aprendido leyendo temas relacionadas. Así que vamos a usar nuestras dudas como origen, e iremos ampliado las respuestas a medida que surjan nuevos temas.

Qué es un hash

Los hash son cadenas de números que representan imágenes CSAM conocidas, pero no es posible leer o convertir esos hash en las imágenes CSAM en las que se basan.

Qué son las nuevas medidas de seguridad en Mensajes

La seguridad de la comunicación en Mensajes está diseñada para brindar a padres e hijos herramientas adicionales para ayudar a proteger a los hijos del envío y la recepción de imágenes sexualmente explícitas en la aplicación Mensajes.

Funciona solo en imágenes enviadas o recibidas en la aplicación Mensajes para cuentas de niños configuradas en Compartir en familia.

Analiza las imágenes en el dispositivo, por lo que no cambia las garantías de privacidad de los mensajes. Cuando la cuenta de un niño envía o recibe imágenes sexualmente explícitas, la foto se verá borrosa y el niño será advertido, se le presentarán recursos útiles y se le asegurará que no tiene por qué ver o enviar la foto.

Como precaución adicional, a los niños pequeños también se les puede decir que, para asegurarse de que están seguros, sus padres recibirán un mensaje si lo ven.

La seguridad de la comunicación en Mensajes solo está disponible para cuentas en familia en iCloud. Las cuentas de padres / tutores deben activar la función para su grupo familiar. Las notificaciones para padres solo pueden ser habilitadas por padres / tutores para cuentas de niños menores de 12 años.

¿Entonces Mensajes deja de estar cifrado de punto a punto?

No. Esto no cambia las garantías de privacidad de Mensajes y Apple nunca obtiene acceso a las comunicaciones como resultado de esta función. Cualquier usuario de Mensajes, incluidos aquellos con la seguridad de comunicación habilitada, retiene el control sobre lo que se envía y a quién. Si la función está habilitada para la cuenta del niño, el dispositivo evaluará las imágenes en Mensajes y presentará una intervención si se determina que la imagen es sexualmente explícita.

Ninguna de las comunicaciones, evaluación de imágenes, intervenciones o notificaciones están disponibles para Apple.

Apple nunca obtiene acceso a las comunicaciones como resultado de esta función en Mensajes. Esta función no comparte ninguna información con Apple, NCMEC o las fuerzas del orden. La función de seguridad de las comunicaciones en Mensajes es independiente de la detección de CSAM para iCloud Photo

¿Cómo funcionan las edades para las notificaciones en Mensajes?

Solo pueden activar las notificaciones de padres para cuentas de niños menores de 12 años. En el caso de cuentas de niños menores de 12 años, cada instancia de una imagen sexualmente explícita enviada o recibida advertirá al niño que si continúa viendo o enviando la imagen, sus padres recibirán una notificación.

Solo si el niño procede a enviar o ver una imagen después de esta advertencia, se enviará la notificación.

Para las cuentas de niños de 13 a 17 años, se advierte al niño y se le pregunta si desea ver o compartir una imagen sexualmente explícita, pero no se notifica a los padres.

Qué son las nuevas medidas de seguridad de Fotos en iCloud

La detección de CSAM en iCloud Photos, está diseñada para mantener CSAM fuera de iCloud Photos sin proporcionar información a Apple acerca de otras fotos que no coincidan con imágenes CSAM conocidas.

La posesión de imágenes CSAM es ilegal en la mayoría de los países, incluidos los Estados Unidos.

Esta función solo afecta a los usuarios que han optado por utilizar Fotos de iCloud para almacenar sus fotos. No afecta a los usuarios que no han elegido usar Fotos de iCloud. No hay impacto en ningún otro dato del dispositivo. Esta función no se aplica a los mensajes.

¿Significa esto que Apple va a escanear todas las fotos almacenadas en mi iPhone?

No. Por diseño, esta función solo se aplica a las fotos que el usuario elige cargar en Fotos de iCloud, e incluso en ese caso Apple solo se entera de las cuentas que almacenan colecciones de imágenes CSAM conocidas, y solo las imágenes que coinciden con CSAM conocidas.

El sistema no funciona para usuarios que tienen las fotos de iCloud deshabilitadas. Esta función no funciona en la biblioteca de fotos privada de su iPhone en el dispositivo.

¿Esto descargará imágenes CSAM en mi iPhone para compararlas con mis fotos?

No. Las imágenes CSAM no se almacenan ni se envían al dispositivo.

En lugar de imágenes reales, Apple usa hashes ilegibles que se almacenan en el dispositivo. No es posible leer o convertir esos hash en las imágenes CSAM en las que se basan. Este conjunto de hashes de imágenes se basa en imágenes adquiridas y validadas para ser CSAM por organizaciones de seguridad infantil.

Mediante el uso de nuevas aplicaciones de criptografía, Apple puede usar estos hash en las cuentas de iCloud Photos que almacenan colecciones de fotos que coinciden con estas imágenes CSAM conocidas, y solo puede aprender sobre fotos que son CSAM conocidas, sin tener que ver el resto de fotos que no tienen has coincidentes.

¿En qué se diferencia esta tecnología de Apple de lo que hacen otras empresas?

Uno de los desafíos importantes en este espacio es proteger a los niños y al mismo tiempo preservar la privacidad de los usuarios. Con esta nueva tecnología, Apple aprenderá acerca de las fotos CSAM conocidas que se almacenan en Fotos de iCloud, donde la cuenta almacena una colección de CSAM conocidos. Apple no aprenderá nada sobre otros datos almacenados únicamente en el dispositivo.

Las técnicas existentes implementadas por otras empresas escanean todas las fotos de los usuarios almacenadas en la nube. Esto crea un riesgo de privacidad para todos los usuarios.

La detección de CSAM en iCloud Photos brinda importantes beneficios de privacidad sobre esas técnicas al evitar que Apple conozca las fotos a menos que ambas coincidan con imágenes CSAM conocidas y estén incluidas en una cuenta de iCloud Photos que incluya una colección de CSAM conocidos.

¿Se puede usar el sistema de detección de CSAM en Fotos de iCloud para detectar cosas que no sean CSAM?

Nuestro proceso está diseñado para evitar que eso suceda. La detección de CSAM para iCloud Photos está diseñada para que el sistema solo funcione con hashes de imágenes CSAM proporcionados por NCMEC y otras organizaciones de seguridad infantil.

Este conjunto de hashes de imágenes se basa en imágenes adquiridas y validadas para ser CSAM por organizaciones de seguridad infantil.

No hay informes automáticos a las fuerzas del orden y Apple realiza una revisión humana antes de presentar un informe al NCMEC. Como resultado, el sistema solo está diseñado para informar fotos que se conocen como CSAM en Fotos de iCloud.

¿Podrían los gobiernos obligar a Apple a agregar imágenes que no sean CSAM a la lista hash?

Apple rechazará tales demandas. La capacidad de detección de CSAM de Apple está diseñada únicamente para detectar imágenes de CSAM conocidas almacenadas en iCloud Photos que han sido identificadas por expertos del NCMEC y otros grupos de seguridad infantil.

Hemos enfrentado demandas para construir e implementar cambios ordenados por el gobierno que degradan la privacidad de los usuarios antes, y hemos rechazado firmemente esas demandas. Continuaremos rechazándolos en el futuro.

Seamos claros, esta tecnología se limita a detectar CSAM almacenado en iCloud y no accederemos a la solicitud de ningún gobierno para expandirla.

Además, Apple realiza una revisión humana antes de presentar un informe al NCMEC. En el caso de que el sistema marque fotos que no coincidan con imágenes CSAM conocidas, la cuenta no se deshabilitará y no se presentará ningún informe al NCMEC.

¿Se pueden “inyectar” imágenes que no son CSAM en el sistema para marcar cuentas de cosas distintas a CSAM?

Nuestro proceso está diseñado para evitar que eso suceda. El conjunto de hashes de imágenes que se utilizan para la comparación provienen de imágenes conocidas y existentes de CSAM que han sido adquiridas y validadas por organizaciones de seguridad infantil.

Apple no añade nada al conjunto de hashes de imagen CSAM conocidos. El mismo conjunto de hashes se almacena en el sistema operativo de cada usuario de iPhone y iPad, por lo que los ataques dirigidos contra individuos específicos no son posibles bajo nuestro diseño.

Por último, no hay informes automatizados para las fuerzas del orden y Apple realiza una revisión humana antes de presentar un informe al NCMEC.

En el caso poco probable de que el sistema marque imágenes que no coincidan con las imágenes CSAM conocidas, la cuenta no se deshabilitaría y no se presentaría ningún informe al NCMEC.

Carta abierta contra Apple por sus medidas de protección a a infancia

Expertos en seguridad y privacidad, criptógrafos, investigadores, profesores, expertos legales y consumidores de Apple condenan el movimiento planificado de Apple para socavar la privacidad del usuario y el cifrado de extremo a extremo.

Según los firmantes de la carta, la propuesta de Apple introduce una puerta trasera que amenaza con socavar las protecciones fundamentales de privacidad para todos los usuarios de los productos Apple.

Según la EFF (Electronic Frontier Foundation):

“Es imposible construir un sistema de escaneo del lado del cliente que solo pueda usarse para imágenes sexualmente explícitas enviadas o recibidas por niños. Como consecuencia, incluso un esfuerzo bien intencionado para construir un sistema de este tipo romperá las promesas clave del cifrado del mensajero y abrirá la puerta a abusos más amplios […] Eso no es un terreno pantanoso; es un sistema completamente construido que está a la espera de que cualquier presión externa les haga modificar su objetivo”.

Según el Center for Democracy and Technology:

“Apple está reemplazando su sistema de mensajería cifrada de extremo a extremo estándar de la industria por una infraestructura de vigilancia y censura, que será vulnerable al abuso y al alcance no solo en los EE. UU., sino en todo el mundo”, dice Greg Nojeim. Codirector del Proyecto de Seguridad y Vigilancia del CDT. “Apple debería abandonar estos cambios y restaurar la fe de sus usuarios en la seguridad e integridad de sus datos en los dispositivos y servicios de Apple”.

La carta termina con sus peticiones (en un lenguaje no muy amistoso):

Nuestra solicitud

Nosotros, los abajo firmantes, pedimos que:

• La implementación de la tecnología de monitoreo de contenido propuesta por Apple Inc. se detenga de inmediato.
• Apple Inc. emita una declaración reafirmando su compromiso con el cifrado de extremo a extremo y con la privacidad del usuario.

El camino actual de Apple amenaza con socavar décadas de trabajo de tecnólogos, académicos y defensores de políticas para que las medidas sólidas de preservación de la privacidad sean la norma en la mayoría de los casos de uso y dispositivos electrónicos de consumo. Pedimos que Apple reconsidere su implementación de tecnología, no sea que deshaga ese importante trabajo.

La carta lleva más de 5.500 firmas

Los principales miedos que se mencionan ante esta iniciativa de Apple

No cabe duda de que esta iniciativa, publicada (y publicitada) simultáneamente, es movimiento poderoso para Apple, que sin duda sabía que iba a levantar una enorme polvareda y enormes ríos de bites con desinformación, confusión y miedo, especialmente en una sociedad en la que sólo se leen los titulares.

Aún así, hay algunas reservas perfectamente válidas, que queremos dejar por escrito:

El problema de los países no democráticos.

Aunque Apple dice que nunca cederá al chantaje de que le obliguen a escanear fotos que no sean de pornografia, ¿que pasaría si, por ejemplo, China, decidiera tomar el control de la base de datos que sirve a Apple? ¿Qué pasaría si en esa base de datos se incluyeran hashes pertenecientes a la cara de opositores, periodistas, etc., sin que Apple lo supiera?

¿Dejaría Apple de vender el iPhone en China? Porque no hablamos de requisitos previos, síno de que, una vez instaurado el sistema, la base de datos se modifique.

Ahora son las fotos, mañana…

La iniciativa es loable, y nadie duda de las buenas intenciones de Apple (en general). Pero tal vez mañana decidan que también van a escanear los audios que se envían para detectar terroristas, o los mensajes escritos, o el tráfico a determinadas webs…

Como hemos hablado tantas veces, una vez que te adjudicas el papel de protector de la verdad, la salud, la seguridad, etc. es fácil que lo que una vez comenzó como una idea bienintencionada se tergiverse y acabe pervertida.

Actualización (10/8/2021)

Apple ha publicado unas FAQ (Preguntas más frecuentes) sobre este tema que vienen a abundar sobre lo que ya hemos relacionado más arriba. Como nota, es curioso ver cómo la mayoría de las preguntas se inician con una respuesta corta (Sí/No) y luego elaboran.

Actualización (12/8/2021)

Entrevista en Tech Crunch del responsable de privacidad de Apple, Erik Neuenschwander (Muy recomendable)

Sin embargo, en algunas preguntas críticas, evitan esa respuesta corta … Y ahí es donde nos preocupamos.

Actualización (6/9/2021): Apple retrasa la implantación de las medidas

Apple ha confirmado que tanto los comentarios de clientes, grupos sin ánimo de lucro, investigadores y otros sobre sus planes, le han llevado a retrasar la implementación para dar tiempo a hacer mejoras. Apple ha emitido la siguiente declaración sobre su decisión:

El mes pasado anunciamos nuestros planes sobre funcionalidades destinadas a ayudar a proteger a los niños de los depredadores que utilizan herramientas de comunicación para reclutarlos y explotarlos, y limitar la propagación del material de abuso sexual infantil. Sobre la base de los comentarios de los clientes, grupos de defensa de derechos, investigadores y otros, hemos decidido tomarnos un tiempo adicional en los próximos meses para recopilar información y hacer mejoras antes de lanzar estas características de seguridad infantil de importancia crítica.

La EFF dice que no es suficiente con retrasarlo

Bueno, todo sea por la democracia y la tolerancia: la EFF quiere imponer su criterio sobre lo que está bien y lo que está mal (Añadid vosotros el tono irónico).

En un artículo titulado “Postponerlo no es suficiente: Apple debe abandonar sus planes de vigilancia“, la EFF (Electronic Frontier Foundation) no se anda con rodeos sobre cómo cree que deben actuar los de Cupertino:

EFF se complace en que Apple esté escuchando ahora las preocupaciones de clientes, investigadores, organizaciones de libertades civiles, activistas de derechos humanos, personas LGBTQ, representantes juveniles y otros grupos, sobre los peligros que plantean sus herramientas de escaneo telefónico. Pero la empresa debe ir más allá de solo escuchar y abandonar sus planes de poner una puerta trasera en su cifrado por completo.

Escucha nuestro podcast sobre este tema:

Invitados: Víctor Salgado (abogado especializado en nuevas tecnologías) y José Luis Rivas (perito forense informático):

Alf

Propietario de www.faq-mac.com.

0 0 votos
Article Rating
Subscribe
Notify of
4 Comments
Oldest
Newest Most Voted
Opiniones Inline
Ver todos los comentarios
Queimacasas
Queimacasas
2 years ago

Este nuevo mecanismo ha puesto más fácil el espionaje, les ha ahorrado varios pasos a los piratas, pero te tienen que infectar primero el móvil igualmente ….
Ahora mismo el control en iCloud de CSAM se supone que ya se está haciendo, no? esto no cambia el panorama

La transparencia/confianza es clave…. no ha habido casos de ruptura hasta ahora, pero si vas por este camino no puedes fallar

bladerunner
2 years ago

Las preguntas del principio son capciosas. Me recuerdan a Eric Schmidt diciendo que si no tienes nada que ocultar, no tienes nada de que temer como una manera de justificar perder tu privacidad.

Yo te hago otra pregunta, ¿y si el sistema identifica falsamente a alguien? Porque recordemos que no están accediendo a las fotos si no a los hash de las mismas. Hay una posibilidad, aunque muy pequeña de que esto ocurra. En una sociedad en la que se esta cada vez mas juzgando a golpe de tweet, sin verificar fuentes de manera correcta, y donde se defienden posturas ideológicas a través de temas que no deberían de serlo (como el cambio climático, las vacunas, y líbreme dios, la esfericidad de la Tierra), me parece un terreno peligroso. El daño puede ser irreparable en muchos casos.

Y Apple en el pasado ya ha mencionado que hay países como China donde nunca las fuerzas de seguridad nunca les han pedido acceso a datos, como una manera de criticar a EEUU. Obvian decir que el motivo es que el gobierno chino ya tiene acceso a esos datos. No les tienen que pedir permiso porque ya tienen las llaves. https://www.nytimes.com/2021/05/17/technology/apple-china-censorship-data.html

Desconfío mucho de empresas que deciden que es lo mejor para ti, y esgrimen argumentos de este tipo. ¿Donde esta la linea? ¿Por que no han tenido interés en ayudar en investigaciones anti-terroristas, de trafico de personas, de trafico de drogas, asesinatos y un largo etcétera? Es algo realmente ingenuo pensar que los criminales suben sus cosas a iCloud, o que no tienen cuidado con como usan la tecnología. Si detienen a alguien gracias a esto no sera a quienes crean o se benefician del contenido. Es una acción cara a la galería y que realmente deja demasiadas puertas abiertas.

bladerunner
2 years ago

Han tardado poco en demostrar colisiones con el algoritmo:

https://www.theverge.com/2021/8/18/22630439/apple-csam-neuralhash-collision-vulnerability-flaw-cryptography

Pensando en como usar esto de manera maliciosa se me ocurre que sabiendo cuales son los hash, se pueden enviar imágenes inocuas pero con un hash que este en la base de datos a una victima y esperar a que el algoritmo le salte. Una manera de joder la reputacion de mucha gente.

Estoy dispuesto a jugarme algo a que esto va a ocurrir. Y en plan hacktivista, que un grupo grande de gente se instale imágenes con esos hash aposta para que salte a tanta gente que lo vuelvan inútil.

bladerunner
2 years ago

“¿Podrían los gobiernos obligar a Apple a agregar imágenes que no sean CSAM a la lista hash?
Apple rechazará tales demandas.”

Esa afirmación es demasiado valiente. Apple ya ha ha permitido a China, y otros países, bloquear aplicaciones que les molestaban, y permitido acceso a datos de identificación de usuarios. No se exactamente que es lo que les va hacer rechazar cualquier demanda futura.

Esto me recuerda a las campañas del orgullo gay de varias empresas. Dependiendo del país cambian el logo, las imágenes de la pagina principal, o simplemente no lo mencionan.

Apple, como cualquier empresa, defenderá sus intereses económicos, y la de sus accionistas. Y el baremo ético variara dependiendo de la cuenta de resultados, el país donde operen , y de si tienen apetito de causar malestar a un gobierno en particular.

Uber tenia como política de expansión ir a operar a nuevos países, pasarse las leyes por el forro, e intentar crear una masa de mercado lo bastante grande para presionar a los gobiernos locales. Eso si, cubriéndolo con una falsa patina de credibilidad diciendo que defendía a sus usuarios frente a los abusos de las asociaciones de taxistas (tema aparte), y demás. Lo curioso es que estas estrategias no las intentan en países como China, o donde podían terminar en la cárcel, o peor.

En resumen. Apple no rechazara esas peticiones si les afecta sus operaciones y cuenta de resultados. Pero eso si, “protegerá” a los niños.

4
0
Me encantaría saber tu opinión, por favor, deja un comentariox
()
x