Dimitris Dimitriadis se describe a sí mismo como un futurista y trabaja en el Instituto de Investigación de Futuros y Prospectiva (IFFR DAO). Precisa que no predice el futuro, pero investiga para instituciones, como la Secretaría Especial de Previsión Estratégica de la Presidencia del Gobierno griego, y para empresas, para que puedan anticipar los nuevos acontecimientos y sus consecuencias. Nacido en Salónica hace 42 años, colaboró con la empresa de ciberseguridad Kaspersky en su última reunión en Atenas y es autor de 2049publicado en griego el año pasado por Key Books, traducido al inglés y se espera una versión en español a finales de este año. El subtítulo resume su visión: Una perspectiva esperanzadora sobre el futuro de la humanidad. Es el mensaje que envía a las multinacionales, las instituciones de la UE y los proveedores de formación con los que trabaja para, como él dice, ayudar a los líderes a aprovechar las nuevas tecnologías.
Preguntar. ¿Qué es un futurista?
Respuesta. No podemos predecir el futuro, lo predecimos. Como futuristas, no decimos que hay un solo futuro, sino futuros. Pero no podemos predecirlos, por muchos datos que tengamos. Lo importante es estar preparado, aprender a tomar mejores decisiones hoy y extrapolar su pensamiento, otear el horizonte en busca de la convergencia de tecnologías, normas sociales y otras tendencias. Porque tenemos todas estas cosas nuevas desde una perspectiva tecnológica, pero también tenemos tendencias que provienen de la sociedad, de las normas sociales o de la economía y necesitamos comprender todas estas fuerzas y explorar el horizonte para estar mejor preparados. Construimos escenarios, planificamos y exploramos el horizonte con gobiernos y grandes organizaciones. Intentamos facilitar el proceso de anticipar el futuro, no predecirlo.
P. ¿Garantiza que dentro de 10 años tendremos un ordenador de 1.000 euros con la capacidad de la mente humana?
r. Lo baso en la ley de los rendimientos acelerados (Atribuida al ingeniero estadounidense Raymond Kurzweil, quien afirma que cualquier sistema evolutivo, incluido el tecnológico, tiende a aumentar exponencialmente. y acelera la tasa de cambio). Hoy tenemos ordenadores que realizan cálculos con más o menos la misma capacidad que el cerebro humano. Si seguimos con esta aceleración, dentro de 10 años podremos tener uno con capacidad para toda la humanidad por 1.000 euros.
P. ¿Hay motivos para tener miedo?
r. En cierto modo es aterrador, pero también esperanzador porque esta capacidad en términos de cálculo y resolución de problemas humanos reales puede resolver muchas cosas, como encontrar nuevas proteínas o curar enfermedades. Si lo miras desde la perspectiva de la humanidad y cómo podemos utilizar esto para avanzar, creo que es realmente esperanzador, no al revés. Por supuesto, los malos actores siempre tendrán acceso a estas tecnologías, pero los buenos, digamos, o los buenos y los científicos que trabajan del otro lado, lo hacen sólo pensando en el ser humano.
Crecimos con la idea de los coches voladores y no los tenemos. Pero los vehículos autónomos en carretera o en el mar para transportar mercancías, por ejemplo, son inevitables.
P. ¿En el futuro prevé que habrá coches sin conductor?
r. Es un gran ejemplo. Como millennials, crecimos con la idea de los coches voladores y no los tenemos. Pero los vehículos autónomos para el transporte de mercancías por carretera o marítimo, por ejemplo, son inevitables. Entonces habrá coches sin conductor en las ciudades. La conducción autónoma es una gran cosa porque se pierden muchas vidas en las carreteras. Entonces hay que desarrollarlos. Son caras ahora para los sistemas y sensores que requieren, pero pensemos en la capacidad de algunas herramientas tecnológicas de hace 10 o 20 años y de ahora. Ahora, cada parte de esta tecnología debe tener en cuenta a los seres humanos y todas las directrices políticas. Por ejemplo, es realmente difícil tener directrices políticas para los drones en este momento. Pero estamos cerca y tenemos que anticiparnos.
P. ¿Y la atención médica será a través de inteligencia artificial (IA)?
r. La IA es realmente buena para reconocer patrones, por eso tenemos mamografías o rayos X y la IA es excelente porque puede aprender de un billón de imágenes y comprender lo que mira. Pero cuando quieres dar la noticia de una enfermedad, no necesitas una inteligencia artificial ni un mensaje por teléfono, necesitas a alguien con empatía, con quien puedas identificarte, en quien puedas confiar. Los humanos necesitan empatía y nunca reemplazaremos esta parte.
Los humanos necesitamos empatía y nunca reemplazaremos esta parte
P. ¿Qué pasa con los profesores virtuales?
R. La enseñanza virtual también es una gran cosa. Un estudiante puede caminar virtualmente con Aristóteles en el ágora y, a través de este avatar inmersivo de IA, aprender más porque no es algo que se lee ni algo que se les muestra; Es una experiencia y aprendemos a través de las experiencias. Podemos construir pequeños modelos de lenguaje específicos para profesores a través de un teléfono de 360 euros con ocho gigas y enseñar y resolver todo el temario de primer, segundo y tercer curso.
P. ¿Hay alguna razón para ser tecnofóbico?
R. Somos tecnófobos debido a la narrativa de la tecnología. Las películas y los dramas de ciencia ficción siempre necesitan un villano, pero en nuestra vida real debemos empezar a confiar en nuestra tecnología porque, a medida que la confianza se arraigue, tendremos más educación e integridad de la información. Este es un proceso muy lento, pero si se quiere cambiar un sistema educativo, se necesitan 20 años, así que si empezamos ahora, deberíamos empezar con la tecnología y, en una generación, cambiar las cosas. Por eso digo que necesitamos un enfoque multiescala e internacional sobre cómo percibimos la verdad, los valores, la cohesión social, nuestros vecinos y cómo vemos a nuestros padres. No es sólo una cuestión de tecnología.
q. ¿Y cómo se garantiza el acceso universal a los avances tecnológicos?
R. El acceso a la tecnología puede democratizarse y descentralizarse mediante políticas. Necesitamos construir directrices políticas. Por ejemplo, tenemos la ley de IA en Europa y es, digamos, una legislación muy difícil y fóbica porque tiene un enfoque de riesgo y todo lo que tiene ese enfoque está del lado del miedo. Pero, por otro lado, tiene elementos claves para que la IA sea igualitaria y más diversa.
P. ¿Es peligroso para las personas sustituir sus relaciones humanas por inteligencia artificial?
R. Hay dos lados. Lo bueno es que la IA puede hacer más feliz a una persona o evitar que se suicide o mejorar sus habilidades sociales mediante la conversación con la IA para tener más confianza en la vida real. La desventaja es que la inteligencia artificial reemplaza por completo las relaciones personales. Pero cuando tenemos estos dos conceptos de distopía y utopía, los humanos siempre estamos en el medio. Puede que tengas un amigo virtual imaginario o una mascota que nunca muere, pero puedes aprender algo de ello. Siempre estoy del lado positivo.