sábado, julio 27

Las principales empresas de inteligencia artificial aceptan la ley europea, pero aseguran que su aplicación no supone un freno | Tecnología

La ejecutiva de AMD, Lisa Su, cuya empresa se ha unido a AI Alliance, muestra uno de los dispositivos que su empresa creó para acelerar la inteligencia artificial en un evento celebrado en junio en San Francisco.STEPHEN NELLIS (REUTERS)

Las grandes empresas de inteligencia artificial aceptan la normativa europea aprobada a medianoche del pasado viernes, pero sostienen que no supone un freno a su desarrollo. Como dijo Pilar Manchón, asesora del consejo asesor del gobierno español y responsable de la estrategia de investigación de IA de Google, “la IA es demasiado importante como para no regularla”. Las principales empresas responsables de estos desarrollos han trabajado en paralelo a la negociación del estándar para asegurar una evolución ética de estas herramientas, de modo que el estándar coincida con sus expectativas generales siempre y cuando, según Christina Montgomery, vicepresidenta y directora de Privacidad e IBM Trust, “proporcionan barreras protectoras para la sociedad al tiempo que promueven la innovación”.

Hasta ahora la tendencia de las empresas tecnológicas ha sido la de dejar los límites de sus desarrollos en manos de la autorregulación. Todo el mundo tiene principios éticos, que Manchón resume así: “Haz cosas buenas y asegúrate de que tengan un impacto positivo en la comunidad, en la sociedad, en la comunidad científica. Y, si potencialmente podría hacer algo para lo que no lo usó o no lo diseñó, asegurémonos de tomar todas las precauciones necesarias y mitigar los riesgos. Entonces: hazlo bien, innova, sé audaz, pero sé responsable».

Sin embargo, esta fórmula se ha mostrado absolutamente insuficiente en aspectos como las redes sociales. Según Global Witness, ONG que investiga y vigila el respeto de los derechos humanos con 30 años de experiencia, “estas empresas prefieren proteger su rentable modelo de negocio moderando adecuadamente los contenidos y protegiendo a los usuarios”.

Para prevenir estas disfunciones con la inteligencia artificial, algunas de las principales empresas e instituciones aceptan los estándares y proponen fórmulas propias que garantizan el cumplimiento de los principios contenidos en los mismos.

En este sentido, medio centenar de empresas, entre ellas IBM, Meta, AMD, Intel o Dell; universidades, como el Imperial College London, Cornell, Boston, Yale y Harvard; y organismos como la NASA o la NSF, han formado la Alianza para la Inteligencia Artificial (AI Alliance) para el desarrollo de la IA según estándares: abiertos, seguros y responsables.

«Una mayor colaboración e intercambio de información ayudarán a la comunidad a innovar de manera más rápida e inclusiva, identificando riesgos específicos y mitigándolos antes de lanzar un producto al mundo», dicen los firmantes. Para ello, sus grupos de trabajo establecerán sus propios estándares y “colaborarán” con iniciativas de gobiernos y otras organizaciones. «Este es un momento crucial para definir el futuro de la inteligencia artificial», advierte Arvind Krishna, presidente de IBM. «Podemos ayudar a garantizar que los beneficios transformadores de la IA responsable estén ampliamente disponibles», añade Lisa Su, directora ejecutiva y presidenta de AMD.

Podemos ayudar a garantizar que los beneficios transformadores de la IA responsable estén ampliamente disponibles

Lisa Su, directora ejecutiva y presidenta de AMD

De esta forma, los miembros de la alianza, entre los que actualmente no se encuentran OpenAI, desarrolladora de ChapGPT, ni Google, que acaba de presentar Gemini (un modelo con capacidades que superan las de los humanos), apoyan la colaboración, entre empresas y con gobiernos. , para seguir un camino común. Como explica Tom Mihaljevic, presidente de la Clínica Cleveland, una de las instituciones médicas más avanzadas en el uso de nuevas tecnologías, “las capacidades de la inteligencia artificial ahora crecen y mejoran constantemente y es esencial que organizaciones de diversos campos se unan para ayudar a avanzar mientras se abordan las preocupaciones de seguridad y protección.

Bob Shorten, director de la Dyson School of Engineering del Imperial College de Londres, también lo defiende: “Creemos que la participación de la comunidad es esencial para que la inteligencia artificial sea fiable, responsable, transparente y verificable”, los principios que defiende la norma europea.

Esta comunidad incluye gobiernos, industrias, instituciones académicas e investigadores alineados en el desarrollo ético. Pero, como explica Manuel R. Torres, catedrático de Ciencia Política de la Universidad Pablo de Olavide y miembro del consejo asesor del Real Instituto Elcano. «El problema es la proliferación de una tecnología que hay que evitar que caiga en manos equivocadas».

Torres elogia el papel de Europa como “potencia reguladora”, pero advierte: “El conflicto está en la forma en que se desarrolla esta tecnología en otros ámbitos que no tienen ningún tipo de escrúpulos ni limitaciones en el respeto a la privacidad de los ciudadanos cuyos datos alimenta todo.» Eso».

Cita el caso de China como ejemplo: “No sólo está inmersa en esta carrera tecnológica, sino que no tiene ningún problema en utilizar masivamente los datos que le dejan sus propios ciudadanos para alimentar y perfeccionar estos sistemas. No importa cuán minuciosos queramos ser con los límites que imponemos a nuestros desarrolladores locales, en última instancia, si esto no sucede a nivel mundial, también es peligroso».

Wu Zhaohui, viceministro de ciencia y tecnología de China, dijo en noviembre pasado en la cumbre de seguridad de IA del Reino Unido que su gobierno está «dispuesto a aumentar la colaboración para ayudar a construir un marco de gobernanza internacional».

Pero la legislación, por sí sola, es insuficiente. A partir de la aprobación de la norma europea, la clave será la «supervisión permanente», añade Cecilia Danesi, abogada especializada en IA y derechos digitales, profesora de la Universidad Pontificia de Salamanca y de otras universidades internacionales, divulgadora y autora de El imperio de los algoritmos (Galerna, 2023).

Para Danesi, también miembro del grupo Mujeres por la Ética de la Inteligencia Artificial (Women4Ethical AI) de la UNESCO, el seguimiento es necesario: “Estos sistemas son de alto riesgo y pueden impactar significativamente en cuestiones de derechos humanos o de seguridad. Hay que evaluarlos y revisarlos para verificar que no vulneren derechos, que no tengan prejuicios. Y esto debe hacerse de forma continua porque los sistemas, a medida que siguen aprendiendo, pueden adquirir sesgos. Y actuar preventivamente para evitar daños y generar sistemas éticos que respeten los derechos humanos.»

150 directivos de empresas continentales, como Airbus, Ubisoft, Renault, Heineken, Dassault, TomTom, Peugeot y Carrefour, se pronunciaron en contra de la regulación del sector en Europa. Sus funcionarios firmaron una carta abierta en junio contra la regulación en la UE, creyendo que la norma afectará “la competitividad y la soberanía tecnológica de Europa sin abordar de manera efectiva los desafíos que enfrentamos y enfrentaremos”.

Cibertivismo

ONG y expertos dedicados al ciberactivismo han expresado sorpresa y decepción por la ley aprobada ayer. Ella Jakubowska, analista especializada en tecnologías de identificación biométrica en la ONG europea de derechos digitales EDRi, dice: “A pesar de muchas promesas, la ley parece destinada a hacer exactamente lo contrario de lo que queríamos. Allanará el camino para que los 27 estados miembros de la UE legalicen el reconocimiento facial público en vivo. «Esto sentará un precedente peligroso en todo el mundo, legitimará estas tecnologías de vigilancia masiva profundamente intrusivas y significará que se pueden hacer excepciones a nuestros derechos humanos».

Carmela Troncoso, ingeniera de telecomunicaciones especializada en privacidad del Politécnico Federal de Lausana (Suiza), asegura: «Hay muchas prohibiciones muy prometedoras, pero también muchas lagunas y excepciones que no dejan claro si las prohibiciones realmente protegerán los derechos humanos, ya que esperamos «por ejemplo, que las fuerzas del orden utilicen el reconocimiento facial en tiempo real para buscar sospechosos. También es triste que España esté detrás de algunas de las propuestas más preocupantes en esta ley», añade Troncoso, creador de la tecnología que la hizo posible. aplicación seguimiento covid, informes Manuel González Pascual..

puedes seguir La tecnología de EL PAÍS En Facebook Y X o regístrate aquí para recibir el nuestro boletín semanal.

Regístrate para continuar leyendo

Leer sin límites

_