sábado, julio 27

Melanie Mitchell: “La inteligencia artificial despegará cuando se inserte en robots que experimenten el mundo como niños” | Tecnología

¿Estamos sobreestimando el potencial de la inteligencia artificial (IA)? ¿Qué tan inteligente es él? ¿Llegará algún día al hombre? Estas son algunas de las preguntas que Melanie Mitchell (Los Ángeles, 55 años) se hace en su libro Inteligencia artificial. Guía para seres pensantes., que Captain Swing estrena en español este lunes. Su respuesta es contundente: estamos muy lejos de crear superinteligencia, por mucho que algunas empresas afirmen lo contrario. Y una de las razones fundamentales es que las máquinas no piensan como nosotros. Pueden hacer casi cualquier tarea mejor que nadie, pero entienden el mundo peor que un niño de un año.

Mitchell proporciona un contexto crítico para evaluar el fenómeno de la inteligencia artificial, una tecnología que ha estado en el debate público desde que aparecieron herramientas como ChatGPT hace dos años. Políticos, empresarios y académicos han advertido recientemente sobre los peligros de estos sistemas, que han asombrado al mundo con los elaborados textos que son capaces de generar y las imágenes y vídeos hiperrealistas que pueden producir.

La profesora Davis de Complejidad en el Instituto Santa Fe y profesora de la Universidad Estatal de Portland describe en su trabajo cómo funcionan los sistemas de inteligencia artificial más avanzados y los compara con el razonamiento humano. Conclusión: Aspectos clave como la intuición o el conocimiento del entorno son, de momento, inalcanzables para cualquier máquina. Mitchell se une a EL PAÍS a través de videollamada desde su casa en Santa Fe, Nuevo México.

PREGUNTAR. ¿De qué es capaz la inteligencia artificial hoy en día?

RESPUESTA. Hubo un gran salto en sus capacidades hace un par de años con la llegada de la inteligencia artificial generativa, incluyendo aplicaciones como ChatGPT o Dall-E. Pero estos sistemas, aunque lo parezca, no tienen el mismo tipo de comprensión del mundo que tenemos nosotros. Por eso a veces hacen algo extraño o inventan algo. Carecen de fiabilidad y tienen una serie de limitaciones que son difíciles de predecir. Por eso creo que, si bien estos sistemas pueden ser muy útiles y los uso todo el tiempo, debemos tener cuidado con la confianza que depositamos en ellos. Especialmente si no hay supervisión humana.

P. ¿Por qué?

r. Pueden cometer errores graves. Un claro ejemplo son los coches autónomos. Una de las razones por las que aún no están entre nosotros es que fallan donde un humano rara vez lo haría, como no identificar a un peatón o un obstáculo. Otro ejemplo son los sistemas automáticos de reconocimiento facial. Las máquinas son extremadamente buenas para detectar rostros en imágenes, pero han sido peores para identificar personas o mujeres de piel más oscura. Con ChatGPT hemos visto innumerables casos en los que inventan lo que dicen.

La profesora Mitchell utiliza herramientas de inteligencia artificial a diario, pero reconoce sus limitaciones y siempre monitorea sus resultados.Kate Joyce

P. ¿El auge de la IA generativa ayuda o perjudica el desarrollo de la disciplina?

r. En cierto sentido, esto bombo publicitario Aumenta las expectativas de la gente y esto provoca decepción. Ha sucedido muchas veces en la historia de la inteligencia artificial. En las décadas de 1950 y 1960 se decía que dentro de unos años tendríamos máquinas con inteligencia humana. Esto no sucedió. Llegó el llamado invierno de la inteligencia artificial: los fondos para la investigación se agotaron y las empresas quebraron. Ahora estamos en un período de gran espera. La pregunta es: ¿será realmente este el momento en que las predicciones de los optimistas se hagan realidad o nos encontraremos con otra gran decepción? Es difícil de predecir.

P. Hace apenas tres años, el futuro habría sido el metaverso. Hoy ya nadie habla de eso. ¿Crees que podría pasar algo parecido con la inteligencia artificial?

r. Sucede todo el tiempo con las grandes innovaciones tecnológicas: hay una especie de gran burbuja publicitaria, luego las expectativas no se cumplen y la gente queda decepcionada, y finalmente la tecnología gana. Este desarrollo resulta útil, pero no tan brillante como se esperaba. Probablemente esto es lo que sucederá con la inteligencia artificial.

P. Usted sostiene que los sistemas de IA carecen de comprensión semántica o de sentido común y, por lo tanto, no pueden ser verdaderamente inteligentes. ¿Crees que tarde o temprano la situación cambiará?

r. Es posible. No hay ninguna razón por la que no podamos desarrollar una máquina así. La pregunta es: ¿cómo llegamos allí? ChatGPT ha sido capacitado con todos los libros y textos digitales disponibles, así como con todos los videos e imágenes en Internet. Pero hay cosas que tienen que ver con el sentido común y el conocimiento y que no están codificadas en lenguaje ni datos: sólo pueden captarse a través de la experiencia. Quizás las máquinas no puedan pensar de forma más humana hasta que experimenten el mundo como lo hacemos nosotros. Hay mucho debate en la disciplina de la IA sobre esto. Sospecho que el gran salto se producirá cuando la máquina no sólo esté entrenada pasivamente en el lenguaje, sino que también experimente activamente el mundo como lo hace un niño.

La historia de la inteligencia artificial ha demostrado que nuestras intuiciones sobre la vida y la inteligencia muchas veces son erróneas, que en realidad todo es mucho más complejo de lo que pensábamos.

P. Cuando estoy en forma de robot.

r. Sí. Una inteligencia artificial colocada en un robot podría tener el mismo tipo de educación o desarrollo que un niño. Es algo sobre lo que Alan Turing, uno de los padres de la informática, planteó la hipótesis ya en los años cincuenta. Esa idea tiene más sentido ahora.

P. En el libro describe cómo funciona la inteligencia artificial y lo poco que tiene que ver con nuestra forma de pensar. ¿Importa el proceso si cumple su función?

r. Depende de para qué quieras usar el sistema. El GPS de mi coche puede encontrar una ruta hacia y desde donde quiero ir. No entiende el concepto de carreteras ni de tráfico, pero hace un buen trabajo. La pregunta es si realmente queremos que los sistemas interactúen de manera más general con el mundo humano. ¿Hasta qué punto tendrán que entender esto? Hubo un caso en el que un vehículo autónomo frenó repentinamente en un momento determinado y el conductor no supo por qué. Resultó que había un cartel con una señal de alto. ¿Se pueden evitar errores como este? Sólo cuando entiendes el mundo como nosotros.

P. ¿Hasta dónde crees que puede llegar la inteligencia artificial?

r. No veo ninguna razón por la que no podamos desarrollar máquinas con inteligencia similar a la humana. Pero será muy difícil llegar allí, no estamos cerca. En la década de 1970 se pensaba que si las máquinas pudieran jugar ajedrez al nivel de gran maestro, igualarían la inteligencia humana. Resultó que ese no era el caso. Luego se decía que cuando eran capaces de traducir textos o mantener conversaciones. Esto tampoco sucedió. Toda la historia de la IA ha demostrado que nuestras intuiciones sobre la vida y la inteligencia suelen ser erróneas, que en realidad todo es mucho más complejo de lo que pensábamos. Y creo que seguirá siendo así. Aprenderemos mucho más sobre lo que realmente significa ser inteligente.

Decir que los sistemas de IA podrían volverse locos y destruirnos es, como mínimo, una afirmación altamente improbable y especulativa.

P. Entonces habrá valido la pena.

r. Uno de los objetivos de la inteligencia artificial es ayudar a comprender qué entendemos por inteligencia. Y, cuando intentamos implementarlo en máquinas, muchas veces nos damos cuenta de que en realidad incluye muchos elementos que no habíamos considerado.

P. Algunos pioneros de la IA, como Geoffrey Hinton, creen que esta tecnología podría resultar difícil de controlar. ¿Qué opinas?

r. La inteligencia artificial trae muchos tipos de peligros. Puede utilizarse para producir desinformación y profundo. Existen sesgos algorítmicos, como el que mencioné en el caso del reconocimiento facial. Hinton y otros van más allá y dicen que estos sistemas podrían estropearse y destruirnos. Esta afirmación es, por decir lo menos, muy improbable y especulativa. Si desarrollamos un sistema superinteligente, dudo que no le importen nuestros valores, como que matar a todos los humanos no está bien. Centrarse tanto en esta dramática idea de una amenaza existencial para la humanidad no hace más que desviar la atención de cosas que son verdaderamente importantes en estos momentos.

P. ¿Cree que, como sociedad, estamos abordando adecuadamente las amenazas que enfrentamos hoy?

r. Sí, aunque la legislación siempre tiene dificultades para seguir el ritmo de la innovación. La UE ha dado un primer paso con el reglamento europeo sobre IA. Una de las cosas que estamos viendo en Estados Unidos son las demandas por derechos de autor. Todos estos sistemas están entrenados con grandes cantidades de texto e imágenes. Si no has pagado por su uso, ¿estamos ante una infracción de derechos de autor? La ley no es clara porque se promulgó mucho antes del desarrollo de esta tecnología. Veremos cómo se soluciona esto.

Los neurocientíficos no entienden cómo funciona el cerebro y hacen experimentos para intentar darle sentido a lo que ven. Esto es lo que está pasando ahora con la IA generativa

P. ¿Cuál es la aplicación de IA más impresionante que has visto últimamente?

r. Lo que más me entusiasma es la aplicación de estos sistemas a problemas científicos. DeepMind, por ejemplo, está trabajando en el uso de inteligencia artificial para predecir la estructura de las proteínas. También se utiliza para desarrollar nuevos materiales y medicamentos. Estamos en una especie de nueva era de la ciencia, quizás tan importante como la inaugurada con la llegada de las computadoras.

P. En el libro dice que quienes calibran sistemas de aprendizaje profundo, la técnica de inteligencia artificial más avanzada, parecen más alquimistas que científicos, porque ajustan parámetros en las máquinas sin saber exactamente lo que están haciendo.

r. Poco después de escribir el libro, la gente empezó a hablar de ingenieros de ingeniería. requiere (las instrucciones proporcionadas por herramientas de inteligencia artificial generativa). Su trabajo es intentar que el sistema funcione lo mejor posible. Resulta que hay gente que gana mucho dinero haciendo este trabajo. Y es pura alquimia, no hay ciencia detrás. Se trata de probar cosas. Algunos funcionan y otros no, y no tenemos idea de por qué.

P. Es irónico que quienes buscan optimizar una de las tecnologías más sofisticadas de la historia de la humanidad lo hagan a ciegas.

r. Estos sistemas son, en cierto sentido, cajas negras. Son sistemas de Software aquellos extremadamente complejos que no han sido programados explícitamente para hacer cosas, pero han sido entrenados, aprendidos de los datos y nadie puede entender por qué funcionan como lo hacen. Incluso los neurocientíficos no entienden cómo funciona el cerebro y hacen experimentos para intentar encontrarle sentido a lo que ven. Esto es lo que está sucediendo ahora con la IA generativa.

puedes seguir La tecnología de EL PAÍS En Facebook Y X o regístrate aquí para recibir el nuestro boletín semanal.

Regístrate para continuar leyendo

Leer sin límites

_