sábado, julio 27

La evolución de la inteligencia artificial que hace que ChatGPT parezca «increíblemente estúpido» y posea riesgos éticos | Tecnología

Los agentes son básicamente robots que pueden cumplir con las solicitudes de los usuarios en comunicación con otras máquinas y humanos para generar y ejecutar una solución compleja o creativa en su nombre. Ya no se limitan a ofrecer respuestas o imágenes más o menos precisas, sino que aportan soluciones, las planifican y las implementan utilizando el lenguaje natural. Los últimos avances hacia la inteligencia artificial general (IA), que iguala o supera a la inteligencia humana, fueron presentados durante el último Google Next celebrado en Las Vegas y son su apuesta en el juego en el que juega OpenAI, que tiene previsto presentar su nuevo desarrollo, y el resto de las grandes empresas. Apenas 10 días después de que Google lanzara sus agentes, el grupo de investigación de la multinacional (DeepMind) y una decena de universidades y organizaciones presentaron una investigación advirtiendo de las implicaciones éticas de este desarrollo.

Thomas Kurian, director ejecutivo de Google Cloud, describe la última carta de su empresa en el juego de la IA: “Vertex AI Agent Builder reúne modelos fundamentales, motor de búsqueda y otras herramientas desarrollo para facilitar la creación y despliegue de agentes. Ofrece la comodidad de una plataforma de creación de agentes sin código junto con potentes funciones. Ahora puede crear rápidamente una variedad de agentes de IA basados ​​en la búsqueda de Google y los datos de su organización..

Para Sam Altman, responsable del competidor Open AI, los nuevos desarrollos en inteligencia artificial son más que una simple aplicación y revolucionarán la vida, según publicó Revisión de tecnología del MIT: “Es un colega muy informado que sabe absolutamente todo sobre mi vida, cada correo electrónico, cada conversación que he tenido, pero no se siente como una extensión. Puedes abordar algunas tareas inmediatamente y, para las más complejas, salir y hacer una propuesta o volver con preguntas si es necesario.

Para Altman, DALL-E, Sora o ChatGPT son “increíblemente estúpidos” en comparación con lo que viene: “Nos han fascinado con su capacidad para generar textos convincentes y vídeos e imágenes surrealistas, pero, en su mayor parte, no dejan de ser herramientas. que utilizamos para tareas aisladas y tenemos una capacidad limitada para aprender sobre nosotros mismos a partir de nuestras conversaciones con ellos. La evolución de la inteligencia artificial, según el MIT, “podrá ayudarnos fuera de la interfaz de chat (acceso conversacional) y quitarnos de encima las tareas del mundo real”.

La investigación de DeepMind coincide en su relevancia: “Es probable que los asistentes avanzados de IA tengan un profundo impacto en nuestras vidas individuales y colectivas. Para ser beneficiosos y estar alineados con los valores, los participantes deben responder adecuadamente a las demandas y necesidades de los usuarios, los desarrolladores y la sociedad”.

Pero también advierte de sus consecuencias negativas: “Características como la capacidad de interactuar en lenguaje natural y un alto grado de personalización podrían hacer que los asistentes de IA sean especialmente útiles para los usuarios. Sin embargo, estas características también hacen que las personas sean vulnerables a la influencia inapropiada de la tecnología, por lo que se necesitan fuertes salvaguardias”.

Según una investigación conjunta de DeepMind y universidades, los agentes, como los llama Google, son asistentes avanzados de inteligencia artificial (IA) que utilizan lenguaje natural y cuya función es planificar y ejecutar secuencias de acciones, en uno o más dominios, para dar cuenta de un usuario y de acuerdo con sus expectativas. En concreto, se trata de una herramienta accesible a cualquier empresa o institución, aunque no disponga de departamento informático, dirigida a cualquier usuario y que realiza diversas tareas como atención al cliente, actividades diarias, creación de contenidos, análisis de datos, cifrado de programas. o prevención de ataques.

La demostración mostrada en Las Vegas permitió a un cliente potencial introducir un vídeo de una banda en el buscador inteligente y pedirle que localizara una chaqueta como la que llevaba uno de los miembros. El agente, en este caso de compra, ofrecía en segundos los comercios más cercanos con el producto solicitado, su disponibilidad y precio. A partir de la solicitud del usuario, realizó la compra y buscó los accesorios adecuados. Más de un centenar de empresas ya han comenzado a aplicar esta herramienta, como la empresa de turismo IHG para ofrecer planes vacacionales o Carrefour para generar campañas personalizadas o McDonalds para buscar elementos de mejora.

Hasta ahora, todo bien. Una herramienta capaz de incrementar la productividad de cualquier empresa o actividad comercial, evitando costes y simplificando la vida del usuario. Pero estos robots llamados agentes tienen numerosas implicaciones éticas identificadas por una investigación de más de 200 páginas publicada apenas 10 días después de la presentación:

¿Qué pasaría si un agente se limitara a ofrecer opciones de compra sólo en empresas incluidas en la red de IA y excluyera a las pequeñas empresas? ¿Qué pasaría si favoreciera soluciones sólo de empresas que pagan para posicionarse y cobran hasta tres veces más por un servicio como Ask? ¿Para una simple nota de una propiedad o comprar un billete respecto a las páginas oficiales? ¿Y si entraran en el mundo de la política y guiaran las intenciones de voto? ¿Qué pasaría si excluyeran de sus beneficios a quienes no tienen acceso a las tecnologías o habilidades para usarlas? ¿ofrece tratamientos falsos para un problema de salud o incorpora información no verificada o privada sin consentimiento? ¿Qué pasa si sigue las instrucciones del usuario cuando podría dañarlo? ¿Qué sucede si la identificación del agente de las preferencias del usuario es incorrecta?

Problemas éticos

Las preguntas son innumerables. La extensa investigación universitaria y corporativa que lanzó a los agentes los agrupa e identifica seis áreas clave donde surgen cuestiones éticas sobre este desarrollo:

Influencia. Los agentes son creativos, asistentes de investigación, consultores, acompañantes e incluso asesores para decisiones que afectan la vida. Por tanto, según los investigadores, esta inteligencia artificial avanzada, como ya lo han hecho los teléfonos móviles o la aparición de aplicaciones online para todo tipo de tareas, “podría alterar radicalmente la naturaleza del trabajo, la educación y las actividades creativas, así como la forma en que vivimos”. vivir. comunicarnos, coordinarnos y negociar entre nosotros, influyendo en última instancia en lo que queremos ser y llegar a ser”. Los modos de influir en los agentes incluyen la persuasión racional, la manipulación, el engaño, la coerción y la explotación; esta última se considera cuando se explota la situación de la víctima o usuario para beneficiar injustamente al explotador.

Errores y accidentes. Cuanto más autónomos sean los sistemas, mayor será el riesgo de abusos y accidentes derivados de instrucciones mal especificadas o mal interpretadas. La teoría de los accidentes normales, desarrollada por Charles Perrow de la Universidad de Princeton, sostiene que, «debido a la complejidad de los sistemas de nuestra sociedad, las fallas múltiples e inesperadas son críticas y los accidentes son inevitables».

Falsa humanización. El hecho de que sean cada vez más parecidos a los seres humanos resulta ventajoso en algunos aspectos, como la facilidad de interacción con agentes robóticos, pero este antropomorfismo abre interrogantes sobre «la confianza, la privacidad, las relaciones con la inteligencia artificial y los límites morales de la personalización». La humanización puede crear falsas relaciones de confianza y vínculo emocional que influyan en el usuario.

Desigualdad y manipulación. Dada la utilidad potencial de los agentes, “es importante que la tecnología sea ampliamente accesible y esté diseñada teniendo en cuenta las necesidades de los diferentes usuarios y no usuarios” para garantizar una distribución equitativa de los beneficios, advierte el documento. Además, el texto advierte del “importante impacto social” que genera problemas de acción colectiva u otras situaciones problemáticas. El documento identifica diferentes métodos de manipulación que se pueden resumir en tres: que el agente o su desarrollador manipule al usuario en base a los objetivos del primero o en base a información falsa, que el usuario utilice al agente para generar una posición dominante o que es una entidad social que manipula al usuario en beneficio de un presunto interés colectivo.

Evaluación. Los modelos actuales se evalúan en función de su desempeño, pero no se tienen en cuenta sus consecuencias como parte de un sistema más amplio. En este sentido, se puede considerar la precisión de una respuesta a una pregunta escolar, pero no su impacto en el sistema educativo. «Se necesitan nuevas metodologías y conjuntos de evaluación que se centren, en particular, en la interacción entre los humanos y la IA y sus efectos», afirman los investigadores.

Privacidad. El desarrollo de agentes requiere regulaciones paralelas sobre cómo se maneja la información privada en las interacciones con ellos o entre las mismas máquinas.

Polo. Los investigadores advierten del peligro de una proliferación de agentes sin la participación de los usuarios y sus representantes para desarrollar mejores prácticas en la materia o permitir el control y la rendición de cuentas públicos o promover recomendaciones regulatorias sobre aspectos de interés general.

Los propios investigadores admiten que este documento “no anticipa ni puede anticipar todas las posibles implicaciones de las transiciones tecnológicas o sociales que los agentes permitirán” y piden un “monitoreo y evaluación continuos de la tecnología”.

Ocupación

El documento también advierte sobre cuestiones que surgen en materia de empleo. ¿Qué ocupaciones esperamos que afecten directamente estos participantes? ¿En qué medida pueden los empleados de estas ocupaciones adaptar sus tareas o encontrar trabajos alternativos? ¿Pueden utilizar el asistente para incrementar sus habilidades en las empresas? ¿Hasta qué punto esperamos que surjan empresas completamente nuevas o nuevos procesos de producción y empleos? ¿Habrá una preferencia a largo plazo por los humanos sobre la IA en estos sistemas de fabricación?

Carlo Villegas, director de Wehumans, unidad del grupo Abai que ya crea estos nuevos asistentes tecnológicos, admite que estos nuevos desarrollos tendrán efecto en el empleo —“Todo se puede automatizar”, asegura—, pero cree que no ser gradual: “Ahora es una cuestión de capacidad tecnológica pero de rentabilidad, de encontrar aquellos casos de uso en los que el agente realmente aporta, así como de sustitución de una persona. Reemplazar empleos con intensidad compleja no será del todo rentable porque las personas aún pueden hacer más de una cosa y brindar una flexibilidad que la inteligencia artificial está lejos de adquirir. Además, todavía es demasiado caro reemplazarlo. Ahora, cuando llegue, que sucederá, será lentamente.

Los campos de aplicación son diferentes: “Tenemos muchos casos de uso y diferentes proyectos donde desarrollamos e implementamos estos agentes”, afirma Villegas, aunque aclara que no existe una solución única y algunos proyectos no requieren desarrollos tan sofisticados. No utilizan una única plataforma para generarlos, sino que la eligen en función del proyecto y del cliente.

Finanzas, educación, sanidad, asistencia y administración son algunos de los sectores en los que están entrando estos nuevos agentes, cuyo coste oscila entre los 30.000 y más de 100.000 euros. “Depende del impacto, de la escala, de si el sistema está diseñado para ser utilizado por 100 o 1.000 personas. Dependiendo del objetivo y del proyecto modulamos todos los parámetros”, explica. En cualquier caso, se posiciona del lado de los optimistas, entre aquellos que ven estos avances como herramientas y no como una amenaza para los empleos y los estilos de vida.

Respecto a las cuestiones éticas que plantean los agentes, el director de Wehumans es claro: “La responsabilidad será de la empresa o del desarrollador de estas herramientas. Siempre debe haber un ojo humano que monitoree, ajuste o cambie y sea el responsable final. Debemos ser transparentes y garantizar que los usos sean completamente legítimos y estén libres de errores».

puedes seguir La tecnología de EL PAÍS En Facebook Y X o regístrate aquí para recibir el nuestro boletín semanal.

Regístrate para continuar leyendo

Leer sin límites

_