Cargando...
 Apple planteó tres formas para controlar la pornografía infantil, 

Tecnología > Ciberseguridad

Snowden, WhatsApp y otras voces críticas a la decisión de Apple y su nueva política para combatir la pornografía infantil

"No te equivoques, si pueden escanear en busca de porno infantil, pueden escanear todo el día de mañana", publicó en Twitter el exagente de la CIA

Tiempo de lectura: -'

09 de agosto de 2021 a las 13:52

Apple lanzó una nueva función para proteger a los niños que utilizan sus dispositivos: escanear los iPhone para limitar la difusión de pornografía infantil. Sin embargo, esta medida despertó un nuevo debate en el mundo de la tecnología: ¿la compañía cruzó el límite e invade la privacidad de los usuarios?

Según una publicación en su blog oficial, Apple planteó tres formas para controlar el Child Sexual Abuse Material (CSAM), es decir, la pornografía infantil.

En primer lugar, Messages, la aplicación de mensajería "usará aprendizaje automático para avisar de contenido sensible”. Pero, “los mensajes de las comunicaciones privadas seguirán siendo ilegibles por Apple".

Esa monitorización de mensajes solo se produce en el caso de que el celular de los niños esté asociado a una cuenta familiar de iCloud. Además, los padres deberán activar el proceso de escaneo. En el caso de que se encienda el servicio, si un niño envía o recibe una imagen que activa una advertencia, la notificación llega al dispositivo de los padres. Ni Apple ni las agencias de seguridad son avisadas de ese evento.

La medida afecta a la aplicación Messages, pero no al servicio iMessage: todos los mensajes siguen estando cifrados de extremo a extremo, aseguran desde la compañía.

En segundo lugar, "se usarán nuevas aplicaciones de la criptografía para ayudar a limitar la difusión de CSAM online. La detección CSAM ayudará a Apple a proporcionar información valiosa a las agencias de seguridad en cuanto a colecciones de imágenes CSAM en iCloud Photos".

Esta medida está activada por defecto. Entonces, todos los usuarios que guarden sus imágenes en iCloud Photos, estarán sujetos a un proceso de “fingerprinting”. El portal Xataka explicó que “Apple no ve ni la imagen original ni la de la base de datos. Lo que ve son números. Cada imagen tiene una especie de huella dactilar que se compara con la huella dactilar de la imagen que está en iCloud Photos. Si son iguales, se activa la alerta, porque se detecta que esa imagen es efectivamente de pornografía infantil”.

En tercer lugar, Siri y Search proporcionarán información adicional para proteger a los niños que son usuarios de Apple.

Críticas a Apple

Las críticas, enfocadas principalmente en la detección de pornografía infantil en iCloud, han sido numerosas y han venido desde diferentes frentes.

La principal organización sin fines de lucro en la defensa de las libertades civiles en el mundo digital, Electronic Frontier Foundation, criticó a Apple y calificó al sistema como "una puerta de atrás" para el escaneo de otros contenidos. Desde la fundación sostuvieron que "es imposible crear un sistema de escaneo local que pueda ser usado únicamente para imágenes explícitas enviadas o recibidas por niños".

Asimismo, las empresas más grandes de tecnología han aprovechado para atacar a Apple por este tipo de medidas. Una de las que lo ha hecho es WhatsApp a través de Will Cathcart, su máximo responsable actual. El ejecutivo aseguró en un hilo de Twitter que "está preocupado" porque implica "un retroceso para la privacidad de la gente en todo el mundo".

Dejando claro que repudia el abuso sexual infantil, y reafirmando su compromiso y el de su compañía por luchar contra el problema, Cathcart argumentó que WhatsApp no adoptará este sistema.

Otro de los que se plantó en contra de Apple fue el CEO de Epic Games, Tim Sweeney. La empresa se encuentra en el centro de la disputa legal con Apple, y Sweeney aprovechó para criticar una medida que según él no es más que "un spyware gubernamental".

En esta línea, Matthew Green, profesor de criptografía en la Universidad Johns Hopkins, afirmó que Apple se está acercando a convertirse en una herramienta para la vigilancia gubernamental, y se podría convertir en una herramienta terrible en manos de un gobierno autoritario.

El activista por la privacidad Edward Snowden también se mostró en contra de la nueva función de Apple: "No te equivoques, si pueden escanear en busca de porno infantil, pueden escanear todo el día de mañana", publicó en Twitter.

 

Comentarios

Registrate gratis y seguí navegando.

¿Ya estás registrado? iniciá sesión aquí.

Pasá de informarte a formar tu opinión.

Suscribite desde US$ 245 / mes

Elegí tu plan

Estás por alcanzar el límite de notas.

Suscribite ahora a

Te quedan 3 notas gratuitas.

Accedé ilimitado desde US$ 245 / mes

Esta es tu última nota gratuita.

Se parte de desde US$ 245 / mes

Alcanzaste el límite de notas gratuitas.

Elegí tu plan y accedé sin límites.

Ver planes

Contenido exclusivo de

Sé parte, pasá de informarte a formar tu opinión.

Si ya sos suscriptor Member, iniciá sesión acá

Cargando...