Search and Hit Enter

Apple descarta espiar iMessage; así revisará fotos contra el abuso infantil

A pesar de algunas historias de miedo que sugieren que Apple está a punto de comenzar a escanear todos los chats de iMessage en busca de evidencia de material de abuso sexual infantil, el gigante tecnológico ha dejado en claro que no lo está haciendo en absoluto.

Sin embargo, Apple escaneará todas las fotos que los usuarios carguen en iCloud, utilizando un código que compara el «hash» de la imagen con hashes conocidos de fotos de abuso sexual infantil, almacenadas en bases de datos como el Centro Nacional para Niños Desaparecidos. y US Exploited (NCMEC).

Un «hash» es una representación numérica única de una imagen. Significa que las computadoras pueden ver si una foto es igual a otra. Una vez que se descubre una coincidencia, un humano la verificará para asegurarse de que el NCMEC y las autoridades policiales pertinentes deban ser informados.

Apple busca aclarar la confusión

Debido a que Apple está haciendo esa verificación en el dispositivo, algunos lo han llamado una especie de puerta trasera. Pero ahora, la empresa de Cupertino ha publicado una sección de preguntas frecuentes en la que intenta explicar por qué está haciendo este escaneo y aclarar algunas confusiones.

Quizás la principal fuente de esa confusión se deba al hecho de que Apple anunció dos tecnologías en una. Junto con el escaneo de material de abuso sexual infantil, la compañía anunció que estaba actualizando iOS con una función que detecta cuando una imagen desnuda está a punto de ser enviada hacia o desde el iPhone de un niño.

La compañía explica que todo esto sucede en el teléfono y Apple nunca ve la foto. Es esencial decir que la función solo funcionará en teléfonos que tengan una cuenta infantil configurada en Family Sharing.

«Apple nunca obtiene acceso a las comunicaciones como resultado de esta función en Mensajes», escribió Apple, aclarando que el cambio no rompe el cifrado de un extremo a otro.

“Cuando la cuenta de un niño envía o recibe imágenes sexualmente explícitas, la foto se verá borrosa y el niño será advertido, se le presentarán recursos útiles y se le asegurará que está bien si no quiere ver o enviar la foto. Como precaución adicional, a los niños pequeños también se les puede decir que, para asegurarse de que están a salvo, sus padres recibirán un mensaje si lo ven. «

Cómo evitar que Apple escanee tus fotos

Debido a que el escaneo de material de abuso sexual infantil solo ocurre en fotos de iCloud, existe una forma muy obvia de evitar que Apple revise sus imágenes: desactive el almacenamiento en la nube para sus fotos.

Esto es muy simple: en el menú Configuración, desplácese hacia abajo hasta Fotos y mueva el interruptor a Fotos de iCloud. Está habilitado de forma predeterminada, por lo que deberá deshabilitarlo si es un usuario nuevo.

Deshabilitar esto, por supuesto, significa que tendrá mucho menos espacio de almacenamiento para sus fotos, a menos que tenga uno de los iPhones más caros con más espacio.

En este sentido, Apple también buscó disipar los temores de que los gobiernos la obliguen a detectar cosas que no sean imágenes de abuso sexual infantil. En particular, se han expresado preocupaciones sobre el potencial de China para presionar al gigante tecnológico para que busque evidencia fotográfica de disidencia.

«Apple rechazará tales demandas», dijo el gigante tecnológico. “Hemos enfrentado demandas para construir e implementar cambios requeridos por el gobierno que degradan la privacidad del usuario antes, y hemos rechazado firmemente esas demandas. Continuaremos rechazándolos en el futuro. «

No Comments

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *