sábado, julio 27

¿Máquinas con ética? Cómo enseñar moralidad a las computadoras traduciendo la ética en números | Tecnología

Hay tres elementos fundamentales en la fórmula matemática para enseñar un código de ética a las máquinas. Y no es muy diferente del cóctel ético que manejamos las personas. Acción, valor y norma conforman esta tríada con la que juegan los investigadores para establecer los límites que controlan el comportamiento de las inteligencias artificiales.

Para las personas, el valor equivale a algún tipo de norma social comúnmente aceptada: sabemos que mentir es una acción moralmente reprobable. Y las normas ayudan a formalizar la idea de valor en un código legal. “Las normas lo prohíben, igual que está prohibido fumar en espacios cerrados, pero la valentía también ayuda a promover buenas acciones, como hacer una donación o ser amable”, explica Maite López-Sánchez, investigadora en inteligencia artificial y profesora de la Universidad de Barcelona . que trabaja en sistemas para introducir principios éticos en los sistemas de inteligencia artificial.

Las personas aprendemos este marco, que sirve para delimitar nuestro comportamiento, durante el proceso de socialización. Pero en las máquinas todo debe traducirse en números y funciones matemáticas. El objetivo final es proporcionar un ordenamiento de las acciones. “Al final las máquinas están muy integradas en la sociedad y acaban tomando decisiones que nos afectan como personas. Sería deseable que estas decisiones estuvieran alineadas con lo que creemos correcto, que estuvieran bien integradas socialmente”, afirma el investigador.

López-Sánchez acude a los conceptos más básicos para explicar la necesidad de tener coches éticos: “Puedo tener un coche autónomo, y si le doy como objetivo que me lleve al trabajo, el coche tomaría la ruta más eficiente o más rápida. Tenemos muy claro que quiero ponerme manos a la obra, pero no quiero atropellar a nadie. «No sería moralmente correcto». Pero el estudio de caso va mucho más allá de hipótesis extremas. “Hay muchos aspectos a tener en cuenta para conducir correctamente. No se trata sólo de no infringir las normas, sino de hacer las cosas bien, como ceder el paso a un peatón, mantener la distancia de seguridad o no ser agresivo con la bocina”, añade el investigador.

La ética en la IA también sirve para promover la igualdad de trato. “Si se trata de un sistema de toma de decisiones para la concesión de un seguro de salud, lo que queremos es que sea un algoritmo sin sesgos, que trate igual a todas las personas que evalúa”, afirma López-Sánchez.

En los últimos años han surgido sesgos algorítmicos de todo tipo. Un sistema desarrollado por Amazon que seleccionaba a los candidatos favorecía los currículums de los hombres sobre los de las mujeres. Lo hizo porque estaba formado con currículos mayoritariamente masculinos y no había manera de corregir esa desviación. Otro algoritmo, en este caso utilizado por el sistema sanitario estadounidense, penalizaba a los negros frente a los blancos de igual gravedad clínica, de modo que a los blancos se les asignaba un mayor riesgo y, por tanto, se les daba prioridad en la atención médica. .

Además, los sistemas autónomos abordan cuestiones relacionadas con la propiedad intelectual o el uso de datos privados. Una fórmula para evitar estas carencias es establecer autolimitaciones en el diseño del algoritmo. Ana Cuevas, catedrática de Lógica y Filosofía de la Ciencia de la Universidad de Salamanca, defiende este enfoque proactivo: “No hay que esperar a que sucedan las cosas para analizar los riesgos que pueden entrañar, sino partir del supuesto de que primero “para crear un sistema de inteligencia artificial tenemos que pensar qué tipo de sistema quiero crear para evitar ciertos resultados no deseados».

Ética en lenguaje de máquina

Introducir un corpus ético en las máquinas es un trabajo relativamente nuevo. La comunidad científica lo ha abordado principalmente desde un punto de vista teórico, pero no es tan común hurgar en el barro para concretar valores en cifras y lecciones morales en ingeniería. En el grupo de investigación de Sánchez-López, WAI, en la Universidad de Barcelona, ​​exploran este campo de forma experimental.

Estos investigadores vinculan los conceptos de valor y agencia en el diseño de sistemas. “Tenemos funciones matemáticas que nos dicen que para un determinado valor, una determinada acción de la máquina se considera positiva o negativa”, afirma López-Sánchez. Por tanto, en el ejemplo del coche autónomo, una conducción suave en una carretera con curvas se considerará positiva dado el valor de la seguridad. Sin embargo, observado desde el prisma del valor de la amabilidad hacia los demás conductores, el vehículo puede decidir aumentar la velocidad si nota que obstaculiza el ritmo de los demás coches.

En el caso concreto se trataría de un conflicto entre valores, que se resolvería con ponderación. Preliminarmente se establecen preferencias que indican qué valores prevalecen. Todo el conjunto incluye fórmulas entrelazadas, que también deben contener la variable norma. “Existe otra función que establece que una norma promueve un valor”, afirma el investigador. «Y también tenemos funciones que analizan cómo una norma evalúa la acción y también cómo evalúa el valor de dicha acción». Es un sistema complejo donde la retroalimentación es clave.

Cuando López-Sánchez habla de evaluación se refiere directamente al aprendizaje automático. Una de las formas que aprenden es a través del refuerzo, al igual que las personas, actuamos bien porque somos recompensados ​​y evitamos hacerlo mal porque somos castigados. Este mecanismo también funciona en inteligencia artificial.

“Los premios son números. Damos premios con números positivos y castigos con números negativos”, explica el investigador de WAI. “Los coches intentan sumar tantos puntos como sea posible. Entonces la máquina intentará comportarse bien si le doy números positivos cuando hace las cosas bien. Y si cuando se porta mal la castigo y le quito puntos, intentará no hacerlo». Al igual que ocurre con la educación de los niños, se valora con fines educativos.

Pero quedan muchas cuestiones por resolver. Para empezar, algo tan sencillo como decidir qué valores queremos meter a las máquinas. “La ética se desarrolla de maneras muy diferentes. En algunos casos tendremos que hacer cálculos utilitarios para minimizar riesgos o daños”, afirma el profesor Cuevas. “Otras veces es posible que necesitemos utilizar códigos de ética más estrictos, como afirmar que un sistema no puede mentir. Todo sistema debe incorporar ciertos valores y para ello debe haber un acuerdo comunitario y social.»

En el laboratorio de López-Sánchez ahondan en estudios sociológicos para encontrar valores comunes entre personas y diferentes culturas. Al mismo tiempo, toman como referencia documentos internacionales, como la Declaración Universal de Derechos Humanos de las Naciones Unidas. Aunque habrá aspectos en los que será más complicado llegar a un consenso a nivel global. Esto es lo que cree Cuevas: “Los límites de las máquinas tendrán sus límites. La Unión Europea, por ejemplo, tiene su manera de hacer las cosas y Estados Unidos tiene otra”, subraya, en referencia al diferente enfoque regulatorio que existe a cada lado del Atlántico.

puedes seguir La tecnología de EL PAÍS En Facebook Y X o regístrate aquí para recibir el nuestro boletín semanal.

Regístrate para continuar leyendo

Leer sin límites

_