Luchar contra el abuso infantil es una cosa. Romper flagrantemente la privacidad de los ciudadanos es otra.
No es la primera vez que hablamos sobre la Unión Europea y su ímpetu en querer saber todo lo que escribimos con nuestros círculos cercanos y redes sociales. Recordamos este artículo en el que hablábamos de ChatControl, con el que se obligó a los proveedores de servicios a facilitar un ‘acceso’ a las llamadas y sms de los usuarios.
Ahora, una nueva y ‘algo controvertida’ propuesta de la Comisión Europea, quiere escanear masivamente y de forma automática todos los mensajes enviados a través de aplicaciones tipo WhatsApp o Facebook Messenger. Según alegan, esta medida haría frente al abuso y pornografía infantil.
Tras una filtración del borrador de la propuesta a principios de esta semana, determinados ‘expertos en privacidad’ han salido a Twitter a dar su opinión:
«Este es el documento más aterrador que he visto jamás.» decía el profesor de criptografía
«Describe la maquinaria más sofisticada de vigilancia masiva desplegada fuera de China y la URSS. Sin exagerar.»
Matthew Green
Esta regulación establecería nuevas obligaciones para los proveedores de servicios, un sector que va desde las tiendas de aplicaciones, empresas de alojamiento y cualquier empresa que ofrezca servicios de comunicaciones personales.
Las obligaciones más extremas se aplicarían a servicios como WhatsApp, Facebook Messenger o Signal, entre otros. Si una de estas empresas recibe una ‘orden de detección’ de la UE, se vera obligado a escanear los mensajes en busca de material de abuso infantil conocido. Del mismo modo también se buscará por material o información que pueda constituir una ‘preparación al abuso’. Todo esto será controlado en cierta manera a través de sistemas de Inteligencia Artificial, que analizarán el contexto de las imágenes y los mensajes.
Estas ‘órdenes de detección’ serían emitidas por las propias naciones de la UE, y según la Comisión, estarán dirigidas específicamente a reducir las infracciones a la privacidad. Sin embargo, la regulación no es clara acerca de estas órdenes. Los críticos de la regulación dicen que dichas órdenes de detección podrían usarse de manera amplia e invasiva para apuntar a grandes franjas de usuarios.
«La propuesta crea la posibilidad que las órdenes de detección sean dirigidas, pero no lo requiere«.
Ella Jakubowska, asesora de políticas de EDRi
Los expertos en privacidad dicen que la propuesta también podría socavar seriamente el cifrado de extremo a extremo. La propuesta no exige explícitamente el fin de los servicios encriptados, pero los expertos dicen que exigir a las empresas que instalen en sus sistemas cualquier software que la UE considere necesario para detectar el abuso infantil haría que el encriptado de extremo a extremo fuera efectivamente imposible. Debido a la influencia de la UE en la política digital en otras partes del mundo, estas mismas medidas también podrían extenderse por todo el mundo, incluso a los estados autoritarios.
Además de los problemas con el cifrado, también se ha criticado la decisión de la Comisión de apuntar a ejemplos previamente desconocidos de abuso infantil, así como al comportamiento de “preparación”. Encontrar este tipo de contenido requeriría el uso de escáneres algorítmicos, que según la Comisión preservarían el anonimato de los usuarios objetivo. Pero los expertos dicen que tales herramientas son propensas a errores y llevarían a que su gobierno vigile a personas inocentes.
vía: The verge