sábado, julio 27

Chat Control o quién paga cuando una broma privada acaba con un F-18 escoltando tu avión | Tecnología

Un estudiante de economía londinense viaja a Menorca con cinco amigos para celebrar el final de sus exámenes. Antes de subir al avión envía una foto suya al grupo privado de Snapchat en la que dice: «Haré volar el avión (soy miembro de los talibanes)». Mientras el avión sobrevuela Francia, la inteligencia británica transmite la supuesta amenaza a sus homólogos españoles, quienes envían dos aviones militares para escoltar el vuelo hasta la isla. Una vez allí, el avión aparca en una zona alejada de la terminal y los viajeros son desembarcados uno a uno, identificados y sometidos a registros de equipaje con perros y artificieros.

El estudiante fue arrestado y durmió en su celda durante dos días antes de ser puesto en libertad bajo fianza. Un año y medio después declaró ante la Audiencia Nacional, donde se le imputó el delito de desorden público. La Fiscalía pide una multa de 22.500 euros y una indemnización por responsabilidad civil de 94.782 euros, la factura de los F-18. Este no es un caso de terrorismo, pero tampoco se trata de los límites del humor. Es un ejemplo de lo que sucede cuando se añade una vigilancia excesiva a los sistemas automatizados racistas en un contexto de seguridad internacional.

Los riesgos del wifi público en los aeropuertos

La fiscalía solicita la aplicación del artículo 561 del código penal. Sanciona a quien provoque la movilización de la policía, servicios de asistencia o salvamento con una falsa alarma de accidente o amenaza. Pero Aditya Verma, como se llama el joven, no publicó la foto en Twitter ni en su cuenta de Instagram. Lo publicó en su grupo privado de Snapchat y ninguno de sus amigos lo compartió. Ninguno de los destinatarios creyó que Verma llevara una bomba porque todos subieron al avión con él. Dice que lo hizo porque sus amigos bromean regularmente sobre su origen indio y su piel oscura.

Los expertos de la Guardia Civil que examinaron sus dispositivos encontraron conversaciones anecdóticas en WhatsApp sobre el conflicto entre Pakistán e India y la posibilidad de un ataque del Estado Islámico allí, pero «no se observó ningún vínculo con el radicalismo o la violencia». Eso.» El hecho de que la inteligencia británica haya tenido acceso a su broma privada significa que la Fiscalía lo interpreta como una comunicación pública. Y el servicio de seguridad británico no dice cómo logró hacerlo.

La fiscalía supone que la captura se produjo a través de la red wifi del aeropuerto y se realizó de forma legal. Las dos premisas son interdependientes. Todas las redes Wi-Fi de los aeropuertos, incluida la del aeropuerto de Gatwick, requieren una acceso donde aceptas los términos y condiciones del servicio. Por ejemplo, que todas las comunicaciones serán abiertas y estarán sujetas a vigilancia por parte de organismos y autoridades por motivos de seguridad. Los aeropuertos se consideran infraestructura crítica y monitorear sus servicios públicos es una parte legítima de su estrategia de seguridad. Pero parece poco probable que un estudiante universitario que usa Snapchat necesite Wi-Fi en el aeropuerto de su ciudad natal, y es imposible que se conecte automáticamente sin darse cuenta. Incluso si ese fuera el caso, Snapchat tiene su propio protocolo de seguridad.

Antes de Snowden, las comunicaciones en red no eran seguras, lo que hacía mucho más fácil para la sede de comunicaciones del gobierno británico y la Agencia de Seguridad Nacional de Estados Unidos adquirir datos en masa. Hoy en día, la mayor parte del tráfico está cifrado gracias al protocolo llamado Transport Layer Security (TSL), y muchos servicios de mensajería, como Signal o WhatsApp, están cifrados de extremo a extremo. Quiere decir que el mensaje sale cifrado desde el teléfono que lo envía y se descifra en el teléfono final, quedando protegido incluso en la red Wi-Fi no segura o monitorizada de un aeropuerto. Snapchat dice que «los snaps (fotos) y los chats, incluidos los de voz y video, entre tú y tus amigos son privados; no escaneamos su contenido para crear perfiles ni mostrarte anuncios. Esto significa que generalmente no sabemos lo que dices». o publicar en a menos que nos lo solicites.» El Reino Unido puede ser ahora una excepción.

El juicio por desorden público contra Aditya Verma (d) en la Audiencia Nacional de Madrid este lunes. BORJA SÁNCHEZ TRILLO (EFE)

Privacidad post-Brexit

Leer mensajes cifrados es posible, pero no todo el mundo puede hacerlo. Necesita hardware específico para interceptar señales Wi-Fi y software especializado para capturar paquetes de datos transmitidos a través de la red. Esto sería incompatible con la “publicidad necesaria” que exige la aplicación del artículo 561 del Código Penal. Según la ley estadounidense, se diría que Verma compartió su broma con una “expectativa razonable de privacidad”. En Europa tal expectativa no sería necesaria, porque tenemos el Reglamento General de Protección de Datos y los derechos civiles. Pero la Inglaterra post-Brexit no tiene los mismos estándares de protección ciudadana. La Audiencia Nacional podría juzgar a una persona en España según las normas del Reino Unido.

El pasado mes de octubre, en Inglaterra el Ley de seguridad en línea, que obliga a las empresas a escanear los mensajes de los usuarios para asegurarse de que no estén transmitiendo material ilegal, especialmente contenido terrorista o pornografía infantil. La ley no dice cómo hacer esto, pero no hacerlo podría resultar en responsabilidad penal. La única solución sin romper el cifrado es escanear los dispositivos de los usuarios para examinar los mensajes. Antes mandar.

Esta tecnología se llama escaneo del lado del cliente, también conocido como Control de Chat. Es posible que las autoridades leyeran el chiste de Verma y reaccionaran de forma exagerada. Lo más probable es que lo hiciera un algoritmo automático de la propia Snapchat y que se activara un nivel de alarma que justificara la implementación sin que nadie pudiera explicar ni comprobar el motivo. La Unión Europea está a punto de iniciar un diálogo tripartito sobre el Reglamento de la Comisión Europea contra el abuso sexual infantil, que propone adoptar la misma tecnología. Este caso es sólo un pequeño ejemplo de lo distópica que puede resultar su implementación.

El racismo de un algoritmo británico

Esta es mi teoría: un sistema de escaneo del lado del cliente Detectó palabras clave –hacer estallar un avión, talibanes– en un contexto sensible –aeropuerto– y, como el remitente era un indio de 18 años, dio la alarma a un nivel que los servicios de inteligencia recibieron como una alerta terrorista, intemporal. para contextualizarlo. Siguiendo el protocolo, transmitieron la alarma al Ministerio de Defensa español que, con el avión en vuelo y sin acceso ni tiempo para detalles, lógicamente decidió extremar las precauciones y acompañar el vuelo hasta su destino. Una vez desmentida la amenaza, se busca al responsable para que pague la cuenta.

Técnicamente, la falsa alarma sobre la colocación de un artefacto explosivo la produjo el sistema, tras haber interceptado conversaciones privadas de un ciudadano británico en suelo británico y haber decidido que un estudiante sin antecedentes penales y apasionado por el ajedrez representa una amenaza yihadista creíble. , de ahí el color de su piel. Irónicamente, es el mismo estereotipo que dio origen al chiste. La Defensa también dijo que la multa debería ser pagada por el servicio británico y no por Aditya Verma.

En lugar de reconocer el sesgo de un sistema que conviene corregir, teniendo en cuenta a los casi dos millones de ciudadanos de la misma etnia que viven en el Reino Unido, prefirieron procesar a la primera víctima de los abusos: una adolescente que ha asimilado así el racismo. de su entorno que hace chistes terroristas antes que otros los hagan.

puedes seguir La tecnología de EL PAÍS En Facebook Y X o regístrate aquí para recibir el nuestro boletín semanal.

Regístrate para continuar leyendo

Leer sin límites

_