sábado, julio 27

Diez respuestas a la ley europea sobre inteligencia artificial | Tecnología

Los sistemas y programas de inteligencia artificial (IA) son capaces de realizar tareas propias de la inteligencia humana, como el razonamiento, el aprendizaje (aprendizaje automático), percibir, comprender el lenguaje natural y resolver problemas. Ya está presente en todos los ámbitos de nuestra vida, desde las aplicaciones habituales para comprar o ver películas hasta el desarrollo de nuevas fórmulas farmacéuticas o la organización de procesos productivos. Permite automatizar tareas, tomar decisiones, mejorar la eficiencia y aportar soluciones en sectores tan diversos como la medicina, la industria, la robótica o los servicios financieros. La legislación europea sobre IA comienza a aplicarse paulatinamente con el objetivo de garantizar su desarrollo con criterios éticos y legales. Estas son 10 respuestas a las dudas que genera una iniciativa pionera en el mundo:

¿Por qué Europa lo regula?

La inteligencia artificial proporciona beneficios sociales, promueve el crecimiento económico y mejora la innovación y la competitividad. Estas aplicaciones generalmente conllevan poco o ningún riesgo. Pero otros pueden generar situaciones contrarias a derechos y libertades, como el uso de inteligencia artificial para generar imágenes pornográficas no deseadas o el uso de datos biométricos para clasificar a las personas en función de las características de su apariencia o su aplicación en la contratación, en la educación, la salud o vigilancia predictiva.

¿Cuáles son las categorías de riesgo?

Riesgo mínimo: la mayoría de los sistemas entran en esta categoría. Para estas aplicaciones, el proveedor puede adoptar voluntariamente requisitos éticos y adherirse a códigos de conducta. Se considera IA de propósito general aquella entrenada con una potencia de cálculo de 10²⁵ operaciones de punto flotante por segundo (FLOPS). FLOPS es la medida del rendimiento de una computadora y la Comisión considera la dimensión anterior como el umbral de posibles riesgos sistémicos. La UE cree que ChatGPT-4, de OpenAI, y Gemini, de Google DeepMind, podrían estar en este umbral, que puede revisarse mediante un acto delegado.

Alto Riesgo: Son los modelos que tienen el potencial de impactar la seguridad o los derechos de las personas. La lista está abierta a revisión permanente, pero la norma ya incluye áreas de aplicación incluidas en esta categoría, como las infraestructuras críticas de comunicación y suministro, la educación, la gestión de personal o el acceso a servicios esenciales.

Riesgo inaceptable: Los sistemas incluidos en esta categoría están prohibidos porque violan derechos fundamentales. Esta lista incluye aquellos para clasificación o puntuación social, aquellos que explotan la vulnerabilidad de las personas y aquellos para identificar raza, opinión, creencia, orientación sexual o reacción emocional. Se hacen excepciones para su uso por parte de la policía para procesar 16 delitos específicos relacionados con personas desaparecidas, secuestro, trata y explotación sexual, prevención de amenazas a la vida o la seguridad, o respuesta a la amenaza actual o previsible de un ataque terrorista. En casos de urgencia se podrá autorizar un uso excepcional, pero en caso de negativa se deberán suprimir todos los datos e información. En circunstancias que no sean urgentes, debe ir precedido de una evaluación previa de las implicaciones desde la perspectiva de los derechos fundamentales y debe notificarse a la autoridad de vigilancia del mercado pertinente y a la autoridad de protección de datos.

Riesgo específico para la transparencia: se refiere a los peligros de manipulación generados por bulos que parecen reales (profundo) o con aplicaciones conversacionales. La norma exige que quede claramente claro que el usuario está ante una creación artificial o que está interactuando con una máquina.

Riesgo sistémico: La norma tiene en cuenta que el uso generalizado de sistemas de gran capacidad puede causar daños grandes o de gran alcance, como en el caso de ataques cibernéticos o la difusión de engaños o sesgos financieros.

¿Quién debe someterse a la ley?

Todos los agentes, tanto públicos como privados, que utilicen sistemas de inteligencia artificial dentro de la UE deben cumplir con la ley, sean europeos o no. Afecta a los proveedores de programas, a quienes los aplican y a quienes los compran. Todos deben asegurarse de que su sistema sea seguro y cumpla con la ley. En el caso de sistemas de alto riesgo, antes y después de su comercialización o puesta en servicio, los sistemas deben someterse a una evaluación de conformidad para garantizar la calidad de los datos, la trazabilidad, la transparencia, la supervisión humana, la precisión, la ciberseguridad y la solidez. Esta evaluación deberá repetirse si el sistema o su propósito cambian sustancialmente. Los sistemas de inteligencia artificial de alto riesgo utilizados por las autoridades o entidades que actúan en su nombre también deben registrarse en una base de datos pública de la UE, a menos que dichos sistemas se utilicen con fines policiales y migratorios. Los proveedores de modelos con riesgos sistémicos (potencia de cálculo superior a 10²⁵ FLOPS) tienen la obligación de evaluarlos y mitigarlos, reportar incidentes graves, realizar pruebas y evaluaciones avanzadas, garantizar la ciberseguridad y proporcionar información sobre el consumo energético de sus Modelos.

¿Qué debe incluir una evaluación del cumplimiento?

Los procesos, el período y frecuencia de uso, las categorías de personas y grupos afectados, los riesgos específicos, las medidas de vigilancia humana y el plan de acción en caso de que los riesgos se materialicen.

¿Cómo sabe un proveedor los efectos de su producto?

Las grandes empresas ya cuentan con sus propios sistemas para adaptarse al estándar. Para las instituciones más pequeñas y aquellas que utilizan sistemas de código abierto, la ley crea espacios controlados para pruebas y ensayos en condiciones del mundo real, que proporcionan un entorno controlado para probar tecnologías innovadoras durante seis meses, ampliables a la misma cantidad de meses. Pueden estar sujetos a controles.

¿Quién está exento?

Los proveedores de plantillas gratuitas y de código abierto están exentos de las obligaciones de comercialización, pero no de las obligaciones de eliminación de riesgos. La norma tampoco afecta las actividades de investigación, desarrollo y creación de prototipos o desarrollos destinados a usos de defensa o seguridad nacional. Los sistemas de IA de uso general deberán cumplir requisitos de transparencia, como la producción de documentación técnica, el cumplimiento de la ley de derechos de autor de la UE y la difusión de resúmenes detallados del contenido utilizado para entrenar el sistema.

¿Quién supervisa el cumplimiento?

Se crean una Oficina Europea de Inteligencia Artificial, un consejo asesor científico y autoridades nacionales de supervisión para supervisar los sistemas y autorizar las aplicaciones. Las agencias y oficinas de IA deben tener acceso a la información necesaria para cumplir con sus obligaciones.

¿Cuándo será plenamente aplicable la Ley de IA?

Tras su adopción, la Ley de IA entra en vigor 20 días después de su publicación y será plenamente aplicable en 24 meses, de forma escalonada. En los primeros seis meses, los Estados miembros deben eliminar los sistemas prohibidos. Las obligaciones de gobernanza para la IA de uso general se impondrán dentro de un año. En dos años habrá que adaptar todos los sistemas de alto riesgo.

¿Cuáles son las sanciones por infracciones?

Cuando se comercialicen o utilicen sistemas de inteligencia artificial que no cumplan los requisitos del Reglamento, los Estados miembros deben establecer sanciones efectivas, proporcionadas y disuasorias para las infracciones y notificarlas a la Comisión. Multas de hasta 35 millones de euros o el 7% de la facturación anual mundial del ejercicio anterior, hasta 15 millones de euros o el 3% de la facturación y hasta 7,5 millones de euros o el 1,5% de la facturación. En cada categoría de infracción, el umbral sería el menor de los dos importes para las PYME y el mayor para otras empresas.

¿Qué puede hacer la víctima de una infracción?

La Ley de IA otorga el derecho a presentar una queja ante una autoridad nacional y facilita que los particulares soliciten compensación por los daños causados ​​por sistemas de IA de alto riesgo.

puedes seguir La tecnología de EL PAÍS En Facebook Y X o regístrate aquí para recibir el nuestro boletín semanal.

Regístrate para continuar leyendo

Leer sin límites

_