sábado, julio 27

Yann LeCun, científico jefe de IA de Meta: «La IA a nivel humano llevará mucho tiempo» | Tecnología

El extraordinario potencial y los enormes riesgos de la revolución de la inteligencia artificial generativa (IA) estuvieron en el centro de las discusiones en la reunión anual del Foro Económico Mundial en Davos. Nick Clegg y Yann LeCun, presidente de Asuntos Globales y científico jefe de inteligencia artificial de Meta, expresaron su visión sobre el tema en un encuentro con periodistas de cinco medios internacionales, entre ellos EL PAÍS.

Meta, la empresa matriz de Facebook, es una de las empresas líderes en la revolución. Lo es por su notable capacidad en este sector concreto, lo es porque va de la mano del enorme poder que le confiere el control de su gigantesca plataforma social, cuya gestión en los últimos años ha suscitado, entre otras cosas, cosas, críticas y acusaciones graves. cosas, por su impacto en la democracia.

En la conversación, LeCun señala que “al contrario de lo que se puede escuchar de algunas personas, no existe un modelo para un sistema que logre la inteligencia humana”. El experto considera que “pedir regulación por miedo a una inteligencia sobrehumana es como pedir regulación de los vuelos transatlánticos casi a la velocidad del sonido en 1925. No está a la vuelta de la esquina; “Se necesitará mucho tiempo, con sistemas que aún no conocemos”, afirma, y ​​por eso cree que es prematuro legislar considerando el riesgo de que escapen al control humano. La UE aprobó en diciembre la primera legislación del mundo sobre inteligencia artificial, y otros países, como Estados Unidos y Reino Unido, también están trabajando en leyes específicas para controlar esta tecnología.

Clegg, por su parte, insta a los legisladores de todo el mundo que se ocupan del tema a regular los productos, pero no la investigación y el desarrollo. «La única razón por la que uno podría pensar que sería útil regular la investigación y el desarrollo es porque cree en la fantasía de que los sistemas de IA pueden apoderarse del mundo o son inherentemente peligrosos», dice Clegg, ex viceprimer ministro británico. y líder del Partido Liberal Democrático de ese país.

Los dos están satisfechos de que, después de un período de cierta agitación tras la aparición de ChatGPT, el debate público se haya alejado de las hipótesis apocalípticas y se haya centrado en cuestiones más concretas y desafíos actuales como la desinformación, el derecho de autor, el acceso a la tecnología. .

El estado de la tecnología.

“Estos sistemas son inteligentes dentro de un ámbito relativamente limitado en el que han sido entrenados. Dominan el lenguaje y eso nos hace pensar que son inteligentes, pero no tanto», explica LeCun. «Y no tenemos la capacidad de simplemente escalarlos y evolucionarlos con más datos, con computadoras más grandes, y así llegar a la inteligencia humana. No sucederá. Lo que sucederá es que tendremos que descubrir nuevas tecnologías, nuevas arquitecturas de estos sistemas», aclara el científico.

El experto explica que será necesario desarrollar nuevas formas de sistemas de inteligencia artificial “que permitan a estos sistemas, en primer lugar, comprender el mundo físico, algo que actualmente no pueden hacer. Recuerde, lo cual tampoco pueden hacer en este momento. Razonamiento y planificación, que ni ellos mismos pueden hacer en este momento. Y cuando descubramos cómo construir máquinas que puedan comprender el mundo, recordar, planificar y razonar, tendremos un camino hacia la inteligencia humana”, continúa LeCun, nacido en Francia. En más de un debate y discurso en Davos se mencionó la paradoja de que Europa tiene un capital humano muy notable en este sector, pero no empresas líderes a escala global.

“Esto no está a la vuelta de la esquina”, insiste LeCun. El científico cree que este camino “llevará mucho tiempo; años, si no décadas. Requerirá nuevos avances científicos de los que no somos conscientes. Así que vale la pena preguntarse por qué personas que no son científicos dicen esto, ya que no son ellos los que están en las trincheras tratando de que funcione. El experto explica que ahora tenemos sistemas que pueden pasar el examen de licencia, pero no tenemos sistemas que puedan limpiar la mesa y tirarla a la basura”. No es porque no podamos construir un robot. Es porque no podemos hacerlos lo suficientemente inteligentes. Entonces, obviamente, nos falta algo importante antes de que podamos alcanzar el tipo de inteligencia que vemos, no sólo en los humanos, sino también en los animales. “Sería feliz si al final de mi carrera (tiene 63 años) tuviéramos sistemas inteligentes como un gato o algo parecido”, subraya.

El estado de la regulación

El debate sobre cómo regular esta tecnología en su estado actual y las posibilidades de desarrollo en sus alrededores fue uno de los temas centrales del foro anual de Davos. La legislación introducida en la UE, pionera en muchos sentidos, ha sido un importante foco de atención.

Cuando se le pregunta al respecto, Clegg, que ha sido eurodiputado y es un proeuropeo convencido, evita hacer una declaración definitiva sobre el tema, pero lanza críticas a la Unión. “Aún es un trabajo en progreso. Es algo muy clásico de la UE. Hay clamor, se dice que algo está acordado, pero en realidad es un trabajo inconcluso. Lo estudiaremos de cerca cuando esté completo y publicado, creo que el diablo estará realmente en los detalles”, dice el presidente de Asuntos Globales de Meta.

«Por ejemplo, en lo que respecta a la transparencia de los datos en estos modelos, todo el mundo está de acuerdo», continúa Clegg. “¿Pero qué nivel de transparencia? ¿Son los conjuntos de datos? ¿Son datos individuales? O, por ejemplo, en derechos de autor. La legislación sobre derechos de autor ya existe en la UE. ¿Te limitarás a esto? ¿O finalmente se añadirá un nuevo nivel específico? Cuando se entrenan estos modelos, se devora una gran cantidad de datos. Etiquetar cada dato por motivos de propiedad intelectual es extraordinariamente complejo. Entonces creo que el diablo está en los detalles. Lo estudiaremos».

De ahí vienen las críticas. “Personalmente, como europeo apasionado, a veces me siento un poco frustrado por el hecho de que en Bruselas parecen enorgullecerse de ser los primeros en legislar, en lugar de si la legislación es buena o no. Recordemos que esta ley europea sobre inteligencia artificial fue propuesta inicialmente por la Comisión Europea hace tres años y medio, antes de que estallara todo el tema de la inteligencia artificial generativa (como ChatGPT). Y luego intentaron adaptarlo mediante una serie de enmiendas, disposiciones para intentar captar la última evolución de la tecnología. «Es una forma bastante torpe de legislar, una adaptación, para algo tan importante como la inteligencia artificial generativa».

El debate entre establecer protecciones y evitar obstaculizar el desarrollo genera fuertes tensiones, dentro de la política y entre la política y el sector privado. En esa delgada línea que deben trazar los legisladores está en juego un valor incalculable: productividad, empleos, capacidades que definirán el equilibrio de poder geopolítico.

Clegg toca ese nervio. “Sé que Francia y Alemania, e Italia en particular, creo que han pedido razonablemente a los eurodiputados y a la Comisión Europea que tengan mucho cuidado de no incluir en la legislación nada que pueda realmente obstaculizar la competitividad europea. «De las diez empresas más grandes del mundo, ninguna es europea». Por otro lado, un grupo de expertos pidió a la UE, en una carta abierta publicada por EL PAÍS, una legislación aún más estricta “para proteger los derechos de los ciudadanos y la innovación”.

Optimismo y prudencia

Bajo este enorme impulso de poder avanza una tecnología que, si bien no está cerca de alcanzar del todo niveles humanos o sobrehumanos, ya ha entrado en nuestras vidas con extraordinaria fuerza.

“La inteligencia artificial amplifica la capacidad correctiva de la inteligencia humana. Hay un futuro en el que todas nuestras interacciones con el mundo digital estarán mediadas por un sistema de inteligencia artificial”, afirma LeCun. “Esto significa que, en algún momento, esos sistemas de IA serán más inteligentes que nosotros en algunas áreas, de hecho en algunas ya lo son, y quizás más inteligentes que nosotros en todas las áreas en algún momento. Y eso significa que tendremos asistentes con nosotros todo el tiempo, que son más inteligentes que nosotros. ¿Deberíamos sentirnos amenazados por esto? ¿O deberíamos sentirnos empoderados? Creo que deberíamos sentirnos empoderados”.

Durante la entrevista, LeCun introduce varios elementos de optimismo cauteloso. “Si piensas en el efecto que esto podría tener en la sociedad a largo plazo, podría tener un efecto similar al de la invención de la imprenta. Básicamente, crear un nuevo Renacimiento en el que puedas ser más inteligente es intrínsecamente bueno. Ahora bien, evidentemente existen riesgos. Y la tecnología debe implementarse de manera responsable, de modo que se maximicen los beneficios y se mitiguen o minimicen los riesgos”.

puedes seguir La tecnología de EL PAÍS En Facebook Y X o regístrate aquí para recibir el nuestro boletín semanal.

Regístrate para continuar leyendo

Leer sin límites

_