sábado, julio 27

Worldcoin: Por qué el iris es el dato biométrico más valioso | Tecnología

La Agencia Española de Protección de Datos (AEPD) tomó este miércoles una decisión sin precedentes. Durante los próximos tres meses, las esferas Worldcoin que desde julio han escaneado los iris de unos 400.000 españoles para validar sus cuentas y recompensarles con un lote de criptomonedas, que ahora valen unos 80 euros, ya no podrán funcionar. Los datos recopilados hasta la fecha por Worldcoin, empresa vinculada a Sam Altman, el padrino de ChatGPT, están bloqueados, por lo que no pueden ser procesados ​​ni compartidos hasta que una investigación internacional decida si es legal o no que una empresa privada recopile ese tipo de datos. de datos.

Es la primera vez que la AEPD toma medidas cautelares. El director de la agencia, Mar España, subrayó su carácter excepcional: “Actuamos con urgencia porque la situación lo requería. Nuestra decisión está justificada para evitar daños potencialmente irreparables. No adoptarlo habría privado a las personas de la protección a la que tienen derecho».

¿A qué se debe esta repentina rapidez en paralizar la colección de fotografías de alta resolución de los iris de los usuarios? “Porque se ha generado un estado de alarma social. Creo que las colas que se formaron en los centros comerciales y el hecho de que haya criptomonedas de por medio obligó a la AEPD a actuar con rapidez”, afirma Borja Adsuara, consultor y experto en derecho digital, quien expresa su preocupación por que “no se centren en lo importante: El problema no es si te dan dinero por el iris, sino si esos datos se tratan correctamente».

El valor de los datos biométricos

Hay muchos tipos de datos personales. Los más utilizados en los trámites diarios son nombre y apellidos, dirección o teléfono. Todos ellos pueden servir para identificar a un individuo concreto, pero tienen otra característica en común: el interesado puede modificarlos.

Otros datos personales, sin embargo, permanecen con nosotros de por vida. Son los llamados datos biométricos: aquellos que hacen referencia a las características únicas de cada persona, ya sean fisiológicas, físicas o comportamentales. Este tipo de información puede codificarse y, a menudo, permanece sin cambios con el tiempo. Tenemos el mismo ADN desde que nacemos hasta que morimos. Con las huellas dactilares pasa lo mismo (a menos que las quememos). El rostro evoluciona con los años (ganamos peso, envejecemos, perdemos pelo), pero existen algoritmos capaces de establecer patrones únicos -por ejemplo, medir la distancia entre los ojos, los ojos con la nariz o la boca- que permiten reconocer a personas con un nivel de éxito alto y duradero en el tiempo.

El iris es, entre los distintos datos biométricos, el que identifica con mayor precisión a una persona, según David Arroyo, investigador principal del grupo de Ciberseguridad y Protección de la Privacidad del CSIC, que advierte de que «si te roban el iris, o mejor dicho, «La plantilla alfanumérica con la que se almacena ese rasgo biométrico puede suplantar tu identidad en muchos lugares. La lectura del iris es mucho más precisa que el reconocimiento facial. No se utiliza tanto porque el sensor necesario es más caro y ajustar estos sistemas es más complejo».

Cola para fotografiarse el iris para registrarse en Worldcoin en el pequeño stand de la Bolsa de Avenida de América (Madrid). Las imágenes son tomadas por empleados subcontratados de Orb, la bola plateada. El único cartel de la empresa dice: «La economía global es de todos».Pablo Monge

Además de su valor como identificador personal, el análisis del iris puede proporcionar mucha otra información, tanto fisiológica como conductual. “A través de la mirada y la forma en que se dilata la pupila se puede entender qué le gusta a alguien, qué le asusta, qué le interesa e incluso ciertas características cognitivas, como si tiene Parkinson”, afirma Carissa Véliz, profesora de filosofía de la Universidad de Oxford. y autor del libro La privacidad es poder.

La lectura del iris suele limitarse a entornos de alta seguridad, como medio adicional de identificación para acceder a determinadas instalaciones. «Permite una autenticación muy sólida, pero conlleva muchos problemas de privacidad, porque el iris es algo que está directa e inequívocamente vinculado a una persona específica», dice Arroyo.

Un trato especial

Las particularidades de los datos biométricos hacen que su tratamiento jurídico sea más riguroso que otros. “La legislación europea los considera una categoría especial de datos. Se pueden captar tanto cuando la legislación española lo permite expresamente para determinados supuestos, como cuando existe consentimiento”, afirma Ricard Martínez, director de la Cátedra de Privacidad y Transformación Digital de la Universitat de València. “La ley española dice que, presumiblemente, en materia de datos de salud y biométricos, se debería poder dar el consentimiento. Pero eso no significa que todo sea posible. Puede contar con el consentimiento del interesado y realizar una actividad ilícita, desproporcionada o vulnerar un derecho fundamental. Es más complicado de lo que parece».

El uso proporcionado de estos datos es crucial. En 2021, la AEPD multó a Mercadona con 3,5 millones de euros (pagó 2,5 millones por aceptar el pago voluntario) por utilizar cámaras con sistemas de reconocimiento facial en 48 de sus tiendas. La compañía dijo que instaló esta tecnología para identificar a las personas con órdenes de restricción provenientes de sus fábricas. La agencia decidió que el objetivo perseguido, a saber, identificar a los condenados, no justificaba la recogida de modelos faciales de todos los clientes que entraban en los supermercados de la cadena.

Volviendo al caso de Worldcoin, las esferas escanean el iris y convierten esa imagen en un código alfanumérico. Ese patrón es el que identifica al usuario. “El problema no es que Worldcoin haya recopilado estos datos de 400.000 personas, sino que ponen todas estas bases de datos e imágenes a disposición de otros algoritmos y que no dicen exactamente por qué”, dice Jorge García Herrero, abogado de protección de datos y aplicación de la ley de las normas de este reglamento.

Un soldado estadounidense observa el iris de un afgano al sur de Kandahar.Chris Hondros (Getty Images)

El gran peligro de los datos biométricos es que se utilizan con fines no legítimos. En China, por ejemplo, se utilizan sistemas de reconocimiento facial para vigilar y perseguir a los uigures. Se sospecha que cuando los talibanes recuperaron el control de Afganistán en 2021, recurrieron a tecnologías de identificación biométrica, como el escaneo del iris, para identificar y reprimir a los colaboradores del antiguo régimen. La biometría es una herramienta incomparable si se pretende tomar medidas enérgicas y, por supuesto, los datos biométricos también se pueden utilizar para hacerse pasar por personas.

¿Qué pasa si no me importa la privacidad?

“Soy un ciudadano de a pie, Google ya tiene todos mis datos, no creo que el ojo aporte mucho”, dijo a EL PAÍS hace dos semanas un joven que se disponía a escanear su iris en el centro comercial La Vaguada. Hace Madrid. Es un tema recurrente. Carissa Véliz, de la Universidad de Oxford, cree que esto es falaz. “Tendemos a pensar que cuando algo es personal es individual, pero cuando compartes tus datos personales, en realidad pones en peligro a otros también, como vimos en el caso de Cambridge Analytica”, explica, en referencia al escándalo protagonizado. realizado por esa consultora, que accedió a la información personal de 50 millones de usuarios de Facebook para crear perfiles de votantes estadounidenses y dirigirles publicidad electoral personalizada.

“Puede que no te importe tu privacidad, pero yo no lo veo como un derecho, sino como una obligación, porque puedes poner en riesgo todo el entorno”, afirma David Arroyo, del CSIC. “Este tipo de datos luego se utilizan para caracterizar a otras personas y con ellos se lanzan ataques más sofisticados, como el phishing o la desinformación”, señala. Aunque posteriormente se ejerza el derecho de rectificación y se eliminen los datos biométricos recopilados, estos ya se habrán utilizado para entrenar la herramienta, es decir, para hacerla más eficiente.

Lo que preocupa a los expertos en el caso Worldcoin es que contribuye a la normalización de una tecnología, la lectura del iris, que tiene un doble engranaje. “Si dejamos que se establezca como una forma legítima de verificación, tarde o temprano todo el mundo acabará utilizándola”, afirma Véliz. “Me molestó mucho que se normalizara el uso del reconocimiento facial para desbloquear teléfonos. Creo que hizo que la gente percibiera esa tecnología como algo natural. Esperemos que no suceda lo mismo con la lectura del iris.»

puedes seguir La tecnología de EL PAÍS En Facebook Y X o regístrate aquí para recibir el nuestro boletín semanal.

Regístrate para continuar leyendo

Leer sin límites

_