Fuente: Primer Informe

Apple ha anunciado los detalles de un sistema para encontrar material de abuso sexual infantil (CSAM) en los dispositivos de los clientes estadounidenses.

Antes de que una imagen se almacene en Fotos de iCloud, la tecnología buscará coincidencias de CSAM ya conocidos. Apple dijo que si se encuentra una coincidencia, un revisor humano evaluará e informará al usuario a las autoridades.

Sin embargo, existen preocupaciones de privacidad de que la tecnología podría expandirse para escanear teléfonos en busca de contenido prohibido o incluso discursos políticos. A los expertos les preocupa que los gobiernos autoritarios puedan utilizar la tecnología para espiar a sus ciudadanos.

Las «mejoras» de Apple

Apple dijo que las nuevas versiones de iOS y iPadOS, para finales de este año tendrán nuevas aplicaciones de criptografía. Esto «para ayudar a limitar la propagación de CSAM en línea, mientras se diseña para la privacidad del usuario».

El sistema funciona comparando imágenes con una base de datos de imágenes de abuso sexual infantil conocidas compiladas por el Centro Nacional para Niños Desaparecidos y Explotados de EEUU (NCMEC) y otras organizaciones de seguridad infantil.

Esas imágenes se traducen en «hashes», códigos numéricos que se pueden «hacer coincidir» con una imagen en un dispositivo Apple.

Apple dice que la tecnología también capturará versiones editadas pero similares de imágenes originales.

‘Alto nivel de precisión’

«Antes de que una imagen se almacene en iCloud Photos, se realiza un proceso de comparación en el dispositivo para esa imagen con los hashes CSAM conocidos», dijo Apple.

La compañía afirmó que el sistema tenía un «nivel extremadamente alto de precisión y garantiza menos de uno en un billón de posibilidades por año de marcar incorrectamente una cuenta determinada».

Apple dice que revisará manualmente cada informe para confirmar que hay una coincidencia. Luego, puede tomar medidas para deshabilitar la cuenta de un usuario e informar a las autoridades.

La compañía dice que la nueva tecnología ofrece beneficios de privacidad «significativos» sobre las técnicas existentes, ya que Apple solo aprende sobre las fotos de los usuarios si tienen una colección de CSAM conocido en su cuenta de Fotos de iCloud.

Preocupación de expertos

Algunos expertos en privacidad han expresado su preocupación.

«Independientemente de los planes a largo plazo de Apple, han enviado una señal muy clara. En su opinión (muy influyente), es seguro construir sistemas que escaneen los teléfonos de los usuarios en busca de contenido prohibido», dijo Matthew Green, investigador de seguridad de Universidad Johns Hopkins.

«No importa si tienen razón o no en ese punto. Esto romperá la presa; los gobiernos se lo exigirán a todos».

Envía tu comentario

Subscribe
Notify of
guest
0 Comentarios
Más antiguos
Recientes
Inline Feedbacks
Ver todos los comentarios

Últimas