jueves, junio 13

Akihiko Kondo: El viudo por la muerte de la computadora o porque es peligroso para la inteligencia artificial hablar como Scarlett Johansson | Tecnología

Akihiko Kondo, que cumplió 41 años el último día de mayo, se casó con el holograma de su cantante virtual favorita, Hatsune Miku, en una ceremonia simbólica hace seis años. Apenas dos años después, Gatebox, la empresa responsable del avatar, abandonó el servicio, y la joven administradora de una escuela pública japonesa quedó viuda debido a la muerte del ordenador. La historia de Kondo, por estrambótica que parezca, no es más que un anticipo de una realidad de consecuencias impredecibles: la sustitución de las relaciones personales reales por agentes robóticos programados para responder al usuario según sus expectativas. El libro fue presentado por el investigador y profesor de robótica de la Universidad de Sheffield, Tony Prescott. La psicología de la inteligencia artificial (La psicología de la inteligencia artificial), con lo que sostiene que la IA puede ser un paliativo contra la soledad. Pero con riesgos, como admiten él y decenas de investigadores.

Que ChatGPT-4o se presentara con una voz similar a la de Scarlett Johansson no es casualidad. Hablantes de inglés que han visto la película. Su, Escrita, dirigida y producida por Spike Jonze y galardonada con el Oscar al mejor guión en 2014, bastaron unos segundos para asociar al nuevo agente (asistente virtual) de Open AI con la actriz, cuya interacción acaba enamorando al protagonista solitario.

El último informe del Ericsson Consumer & Industry Lab refleja que “el 50% de los primeros en adoptar la IA creen que las personas simularán sus matrimonios para anticipar cambios o incluso anticipar el divorcio”. Un abrumador 71% de estos consumidores de IA cree que esta utilidad será beneficiosa.

La sustitución de la interacción humana, con todas sus complejidades, por una relación híbrida entre hombre y máquina conlleva muchas ventajas, pero también numerosos riesgos, más reales e inmediatos que los reflejados en algunos capítulos del libro. Espejo negro. “Los robots sociales están diseñados específicamente para interacciones personales que involucran emociones y sentimientos humanos. Pueden aportar beneficios, pero también causar daño emocional a niveles muy básicos”, advierte Matthias Scheutz, director del Laboratorio de Interacción Humano-Robot de la Universidad de Tufts (EE.UU.).

La experiencia de Akihiko Kondo es una síntesis de esta complejidad y se diferencia de otras más ligadas a experiencias artísticas, como La pareja hibrida de Alicia Framis, que simula una boda con un holograma a modo de reflejo, o Meirivone Rocha, una brasileña de 39 años que infló a sus seguidores en las redes difundiendo su supuesta boda con una muñeca.

El japonés, en una entrevista con la BBC, dice haber sufrido acoso por parte de compañeros, admite que los amigos a través de internet y los juegos siguen siendo su «comunidad» y confiesa que nunca ha tenido pareja: «He tenido amores no relacionados». “Relaciones recíprocas en las que siempre fui rechazado y me hicieron excluir la posibilidad de estar con alguien”. Soledad, acoso, dependencia psicológica y tecnológica, habilidades sociales limitadas, celibato involuntario (el peligroso movimiento en Internet anterior a la violencia machista), satisfacción artificial de necesidades, compañeros virtuales con apariencia de realidad… La extraña historia de Kondo abre las puertas a una Análisis de las virtudes y peligros de la interferencia de la IA en las relaciones personales.

Ventajas

Los beneficios de la inteligencia artificial humanizada no son pocos ni sencillos.

Soledad. Prescott admite los riesgos, pero destaca uno de los principales beneficios: “En una época en la que muchas personas describen su vida como solitaria, puede resultar útil contar con la compañía de la inteligencia artificial como una forma de interacción social mutua, estimulante y personalizada. La soledad humana a menudo se caracteriza por una espiral descendente en la que el aislamiento conduce a una menor autoestima, lo que desalienta futuras interacciones con las personas. La compañía de la IA podría ayudar a romper este ciclo al aumentar la autoestima y ayudar a mantener o mejorar las habilidades sociales. Si es así, las relaciones con la IA podrían ayudar a las personas a encontrar compañía tanto con humanos como con otras personas artificiales”.

Cuidadoso. Joan Claire Tronto, profesora de ciencias políticas de la Universidad de Minnesota, amplía el concepto de cuidado (tratamiento) a todo lo que “hacemos para mantener, continuar y reparar nuestro mundo para que podamos vivir en él lo mejor que podamos”. En su trabajo, una clave es el “compromiso de satisfacer las necesidades de los demás”. Y la IA puede hacerlo sin descanso. Luis Merino es profesor de la Universidad Pablo de Olavide y responsable de robótica social, la disciplina destinada a asistir a grupos humanos de forma autónoma y con capacidad de aprender de las emociones de los destinatarios de los servicios: “El objetivo es que los robots entiendan nuestras intenciones y emociones y aprender de ellas.»

Ventaja o interés. Sam Altman, director ejecutivo de Open AI, describe su último modelo a seguir como un “colega súper competente”. El primer término se refiere a su humanización y el segundo a los beneficios que proporciona al realizar tareas por cuenta del usuario. Este último beneficio garantiza el “bienestar individual”, según Brad Hooker, profesor de filosofía de la Universidad de Reading. Este interés es inherente a la interacción humana. No siempre se busca un beneficio, pero es poco probable que una relación prospere si los costos superan consistentemente los beneficios.

Desarrollo humano. La inteligencia artificial puede promover actitudes y comportamientos que faciliten la realización personal y la interacción con los demás. En una evaluación de ChatGPT, Gemini y Llama (Meta), la Universidad de Illinois demostró la importancia de esta habilidad. «Los agentes pueden ayudar a aumentar, por ejemplo, la conciencia sobre comportamientos saludables, participar emocionalmente en cambios y darse cuenta de cómo sus hábitos pueden afectar a las personas que los rodean», explica Michelle Bak, investigadora de los modelos.

Autonomía. Se refiere al potencial de la inteligencia artificial para proporcionar información relevante para que el individuo actúe y decida en función de sus motivaciones e intereses.

Riesgos

De cada una de estas categorías de beneficios surgen ramas de riesgos asociados. Estos son algunos destacados por los investigadores:

Daño físico o emocional. Las anécdotas de los primeros modelos de IA que amenazan, insultan o promueven comportamientos dañinos o violentos no son nada nuevo, aunque periódicamente alimentan reacciones desproporcionadas e inconsistentes. Ha pasado un año desde que la cadena de supermercados de Nueva Zelanda Pak ‘n’ Save fue advertida porque la IA de planificación de su menú recomendaba bebidas con cloro gaseoso y bocadillos con veneno y pegamento. Evidentemente nadie ha seguido este consejo porque prima el sentido común, pero puede haber casos menos evidentes y extremos.

Amelia Glaese, investigadora de Google DeepMind y ahora de Open AI, busca fórmulas y sistemas para evitar estos accidentes. «Utilizamos el aprendizaje reforzado a partir de la retroalimentación humana para (…) hacer que nuestro agente sea más útil e inofensivo y proporcionar evidencia de fuentes que respalden las afirmaciones».

Humanizar al robot con empatía y herramientas de voz y vídeo añade peligro al ofrecer una interacción más realista y atractiva y hacer creer al usuario que está con un amigo o interlocutor de confianza. Una aplicación extrema puede ser la tentación de mantener una versión virtual de un ser querido fallecido y así evitar el dolor necesario para continuar con la vida.

Los investigadores piden que estos desarrollos se prueben en circuitos cerrados (mina de arena) antes de ser ofrecidos, son constantemente monitoreados y evaluados, se analiza la variedad de daños que pueden causar en diferentes áreas y se estudian fórmulas para mitigarlos.

Limitación del desarrollo personal.. «Algunos usuarios buscan relaciones con sus pares de IA que estén libres de obstáculos, opiniones, preferencias y normas que puedan entrar en conflicto con las suyas propias», advierte un estudio de media docena de universidades para DeepMind. Y, además, con un lenguaje halagador.

Shannon Vallor, filósofa especializada en ética científica e inteligencia artificial, advierte del peligro de que los nuevos sistemas promuevan relaciones «sin fricciones», pero también sin valores: «No tienen la vida mental y moral que los seres humanos tenemos detrás de nuestras palabras y acciones». «.

Este tipo de relaciones aparentemente ideales, según estos expertos, desincentiva la necesidad de cuestionarse y avanzar en el desarrollo personal, al tiempo que promueve la renuncia a la interacción real y genera dependencia de aquellas máquinas dispuestas a halagar y buscar satisfacciones a corto plazo.

Gestión. Esta dependencia emocional de un sistema capaz de persuasión es un acceso inmediato a la interferencia en los comportamientos, intereses, preferencias, creencias y valores de los usuarios, y en su capacidad para tomar decisiones libres e informadas. “Las emociones que los usuarios sienten hacia sus asistentes podrían ser explotadas para manipularlos o, llevadas al extremo, obligarlos a creer, elegir o hacer algo que de otro modo no habrían creído, elegido o hecho”, advierte el documento de DeepMind.

Dependencia material. El final de la experiencia de Akihiko Kondo y su boda virtual con un holograma son un claro ejemplo de ello. Fue la empresa encargada de programar y mantener el sistema la que puso fin a la solución que encontró el administrador japonés para cubrir determinadas necesidades. Los desarrolladores pueden crear dependencia y luego alterar la tecnología debido a la dinámica del mercado o a cambios regulatorios sin tomar las medidas adecuadas para mitigar el daño potencial al usuario.

puedes seguir La tecnología de EL PAÍS En Facebook Y X o regístrate aquí para recibir el nuestro boletín semanal.

Regístrate para continuar leyendo

Leer sin límites

_