Apple ha anunciado recientemente un par de nuevas funciones de seguridad infantil para todas sus plataformas de software. Las nuevas funciones se implementarán con iOS 15, iPadOS 15, watchOS 8 y macOS Monterey en los EE.UU a finales de este año, y tienen como objetivo limitar la propagación del material de abuso sexual infantil, entre otras cosas. Una de las nuevas características escaneará iPhones y iPads en busca de pornografía infantil y los reportará al «Centro Nacional para Niños Desaparecidos y Explotados».

Aunque Apple afirma que su método «está diseñado teniendo en cuenta la privacidad del usuario», ha suscitado preocupaciones entre los expertos en seguridad.

Según un informe reciente del Financial Times, los investigadores de seguridad advierten que la nueva función de Apple podría usarse indebidamente para la vigilancia, poniendo en riesgo la información personal de millones de personas. Su preocupación se basa en los datos que Apple compartió con algunos académicos estadounidenses a principios de esta semana.

Dos investigadores de seguridad no identificados que asistieron a la sesión informativa de Apple revelaron que el sistema propuesto, llamado «neuralMatch«, alertaría de manera proactiva a un equipo de revisores humanos si detecta material sensible en un iPhone o iPad. Los revisores humanos se pondrán en contacto con la policía si pueden verificar el material.

Presentación iOS15

Aunque los investigadores de seguridad apoyan los esfuerzos de Apple para limitar la propagación de pornografía infantil, algunos han expresado su preocupación por el potencial de que los gobiernos utilicen indebidamente esta herramienta para obtener acceso a los datos de sus ciudadanos.

Ross Anderson, profesor de ingeniería de seguridad en la Universidad de Cambridge, ha dicho que

«es una idea absolutamente espantosa, porque conducirá a una vigilancia masiva distribuida de nuestros teléfonos y ordenadores«.

Matthew Green, profesor de Ciencias de la Computación en el Instituto de Seguridad de la Información Johns Hopkins, también expresó su preocupación en Twitter y ha publicado:

Estos sistemas se basan en una base de datos de «hashes de archivos identificados» que usted, como consumidor, no puede revisar… Los hashes utilizan un algoritmo de hash neuronal nuevo y patentado que Apple ha desarrollado y consiguió que el NCMEC aceptara su uso… No sabemos mucho sobre este algoritmo. ¿Qué pasa si alguien puede alterarlo?

Si bien el algoritmo está actualmente entrenado para detectar material sensible, podría adaptarse para escanear otras imágenes o texto específicos, como carteles antigubernamentales, lo que lo convierte en una herramienta excepcionalmente útil para los gobiernos autoritarios. El precedente de Apple también podría obligar a otros gigantes tecnológicos a ofrecer características similares, lo que podría resultar en una pesadilla para nuestra privacidad.

A fecha de hoy Apple aún no ha dado respuesta a estas preocupaciones.

vía: XDA

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *