Los avances en el campo de la inteligencia artificial, especialmente en el campo del aprendizaje automático, son rampantes. En la larga lista de aplicaciones recientes destaca la conocida ChatGPT o Gemini, que además de texto procesa imágenes, audio y vídeo. Para implementar estos modelos se utilizan grandes cantidades de datos, a veces confidenciales. Un ejemplo es el caso de los algoritmos que ayudan en el diagnóstico y tratamiento de enfermedades, que utilizan datos médicos personales. Por tanto, es fundamental encontrar formas de preservar la privacidad de los datos utilizados. Un enfoque reciente utiliza conceptos matemáticos de la física cuántica para abordar este desafío.
En concreto, se trata de estudiar las simetrías que aparecen en los parámetros del modelo, es decir, en los números que lo configuran. Los algoritmos (o modelos) de inteligencia artificial son, después de todo, funciones complejas que procesan la información recibida para hacer una predicción. Estas funciones están definidas por números llamados parámetros (en el caso de ChatGPT, 220 mil millones) que determinan qué datos se procesan y con qué intensidad se procesan. Por ejemplo, un modelo que anticipa el riesgo de padecer una enfermedad, r, en función de la edad e, la altura a y el peso p de cada persona, podría ser r = (xe + ya) / zp. Este modelo tiene tres parámetros, x, y y z, que determinan la intensidad con la que cada una de las variables de entrada (edad, altura y peso) influye en el riesgo; Al ingresar los datos de un paciente específico, el algoritmo hará una predicción sobre la posibilidad de que una persona con esas características desarrolle la enfermedad.
El valor de los parámetros se establece utilizando grandes conjuntos de datos de referencia ya resueltos, de los cuales se conoce el resultado que se debe obtener. Este proceso se llama entrenamiento. En el ejemplo del modelo anterior, los datos de entrenamiento serían datos médicos de un gran número de pacientes, con su diagnóstico. Con ellos se ajustan los parámetros para maximizar las predicciones correctas en la referencia.
Resulta, por tanto, que la selección de parámetros para un modelo depende de los datos utilizados para entrenarlo. Y aunque, en teoría, el modelo sólo aprende patrones a partir de datos de entrenamiento, en la práctica aprenden mucho más. De hecho, varios científicos han advertido que los parámetros de estos algoritmos pueden indicar si un dato específico formaba parte de los datos utilizados para entrenarlo y, en algunos casos, incluso es posible extraer de él los datos de entrenamiento completos.
En estas situaciones, una solución es construir otro modelo, con otros parámetros y con otros datos de entrenamiento, pero para cada entrada de datos realiza exactamente la misma predicción que el original. Esta idea de “diferentes parámetros que describen un mismo modelo” corresponde a una entidad matemática precisa: es el concepto de simetría de Gauge.
Este término no es sólo de interés matemático, sino que es un elemento fundamental en varias áreas de la física, como la relatividad general, la física de partículas o la mecánica cuántica. Ahora, trabajos recientes han demostrado que, de hecho, si un algoritmo tiene una de estas simetrías de calibre, es posible construir otro que haga las mismas predicciones, cuyos parámetros no estén relacionados con los datos utilizados para entrenar el modelo inicial. De esta forma el estudio de los parámetros no podrá revelar información sobre los datos del entrenamiento.
Entonces, el desafío es encontrar algoritmos de IA que tengan simetrías de calibre. Esto no es fácil, porque en la inteligencia artificial las simetrías se consideran propiedades no deseadas de las que es necesario deshacerse. Sin embargo, en el campo de la física cuántica las simetrías de calibre están muy presentes y han sido ampliamente estudiadas. En concreto, las redes tensoriales, utilizadas en la simulación de sistemas cuánticos formados por muchas partículas, tienen este tipo de simetría. Además, estas redes permiten modelar sistemas muy complicados, similares a algoritmos de inteligencia artificial. Esto hizo que las redes tensoriales comenzaran a utilizarse como algoritmos de inteligencia artificial hace unos años.
Por el momento, el modelado realizado por redes tensoriales aún no compite, en términos de calidad global, con el de otros algoritmos modernos más difundidos, basados, por ejemplo, en redes neuronales profundas. Sin embargo, han demostrado importantes beneficios, como la capacidad de comprender qué factores impulsan una predicción específica. A estas virtudes se suma ahora otra, gracias a sus simetrías de calibre: la protección de la privacidad de los datos utilizados durante el entrenamiento. Esto posiciona a las redes tensoriales como candidatos muy prometedores para el desarrollo de la inteligencia artificial e ilustra muy claramente cómo las ideas fundamentales de las matemáticas y la física cuántica pueden afectar las tecnologías cotidianas.
Alessandro Pozas Es investigador postdoctoral en la Universidad de Ginebra, Suiza.
Café y teoremas es una sección dedicada a las matemáticas y el entorno en el que surgen, coordinada por el Instituto de Ciencias Matemáticas (ICMAT), en la que investigadores y miembros del centro describen los últimos avances de esta disciplina, comparten puntos de encuentro entre las matemáticas y otros ámbitos sociales y expresiones culturales y recordar a quienes marcaron su desarrollo y supieron transformar el café en teoremas. El nombre evoca la definición del matemático húngaro Alfred Rényi: “Un matemático es una máquina que transforma el café en teoremas”.
Edición, traducción y coordinación: Agata Timón García-Longoria. Ella es coordinadora de Unidad de Cultura Matemática del Instituto de Ciencias Matemáticas (ICMAT)
puedes seguir SUJETO En Facebook, incógnita Y Instagramo regístrate aquí para recibir nuestro boletín semanal.