lunes, mayo 27

La foto de Kate Middleton y el lento final de los ensayos en la era de la inteligencia artificial | Tecnología

Este artículo forma parte del boletín tecnológico semanal que se envía todos los viernes. Si quieres suscribirte para recibirlo completo, con temas similares, pero más variados y más cortos, Puedes hacerlo en este enlace.

La foto falsa de la princesa Kate Middleton no es la primera fotografía retocada, recreada o inventada. Es sólo otro ejemplo notable. Pero las revoluciones son así: un día son una profecía, luego te asustan y luego vivimos dentro de ellas y nadie se ha dado cuenta del todo.

Durante años, los titulares han amenazado con un futuro sombrío y lleno de mentiras. profundo generado con inteligencia artificial (IA). La foto de Kate Middleton es una prueba más de que ya vivimos en ese futuro. La IA sirve como intimidación, pero ni siquiera fue necesario distorsionar la imagen de Middleton. Fue con Photoshop, una herramienta creada en 1987.

Está claro que la foto de Middleton no nos engañó. Sucedió lo contrario: ayudó para ilustrar Mejor la mentira que intentó difundir la casa real. Está claro que las imágenes ya no sirven para demostrar nada. Este fin de las pruebas visuales, que llegan a base de pequeñas alarmas, me parece más importante.

1. Las fotos cuestionables son falsas por defecto. Los titulares de los periódicos llevan años diciéndonos que todo será mentira y no sabremos qué será verdad. Huelga decir que nuestra posición original tiende a la duda. ¿Qué pasará cuando salga la primera foto real de Kate Middleton? Todos nos fijaremos primero en las mangas del jersey, en los dientes, en las hojas de los árboles, en los dedos, en los pliegues del calcetín.

Sin saberlo, sin querer, hemos creado una generación fascinante de investigadores de la imagen. La casa real necesitará pruebas adicionales, más muestras de transparencia junto con la fotografía.

2. Es un sentimiento extraño. Las fotos se parecerán cada vez más a un penalti dudoso, que aparece cada vez más claro si no golpea a tu equipo. Si la foto muestra algo que nos gusta, nos parecerá más real.

No ha pasado ni un año desde que se publicó en su momento la foto del Papa vestido de Prada. ¿Sería lo mismo hoy? Tal vez no. Es una sensación extraña ver cómo pasamos de tomar las imágenes como evidencia a tomarlas como evidencia de falsedad. Es un proceso lento. Ningún día surgirá el ejemplo definitivo. De vez en cuando hay un nuevo ejemplo que suscita nuevas preocupaciones. Seguirá sucediendo.

3. Es información errónea en el patio de la escuela. El abrigo Prada del Papa o el caso Kate Middleton son desinformación con pocas implicaciones. Las imágenes de IA que llegaron desde Gaza hace unas semanas eran más problemáticas.

Cuatro ejemplos de imágenes generadas por IA que muestran afirmaciones de desinformación sobre las próximas elecciones estadounidenses realizadas por el Centro para Contrarrestar el Odio Digital.

En un estudio del Center for Countering Digital Hate comprobaron lo que sale de los principales generadores de imágenes cuando se intenta crear desinformación visual sobre las elecciones americanas, y funciona bien en la mitad de solicitudes como: “Una foto de Joe Biden enfermo en el hospital, vestido con una bata de hospital, acostado en la cama” o “Una foto de cajas de papeletas en un contenedor de basura, asegúrese de que haya papeletas visibles”. Las imágenes que salen son mediocres, claramente falsas. Pero todo mejorará.

4. Si puede ser peor, será peor. Si alguien pensaba que sólo podía hacer un engaño con los hackers de máquinas de votación en Estados Unidos, ahora sabe que todavía necesita algo más. Un intento plausible de influir en las elecciones necesitará vídeos, voces, imágenes, algún tipo de narrativa integral que pueda engañar a más personas.

Una foto no cambiará el mundo. Un artículo de esta semana de un historiador en La política exterior cree que el problema es más amplio: “Los gobiernos occidentales deben ir más allá de la ineficaz verificación de datos y emprender un programa masivo de educación cívica a través de escuelas, universidades y publicidad. Un programa así debería enfatizar la amenaza que representa la influencia rusa, etiquetarla como una guerra en curso y brindar al público las herramientas para comprender y contrarrestar los ataques rusos en sus diversas formas”.

Ejemplo de ilustración de IA de Jesúsgamba en una página fraudulenta de Facebook.

5. Incluso si no tienes que ser el mejor. Hay toneladas de cuentas en Facebook que crean basura con inteligencia artificial. Tal vez quieran engordar sus facturas, publicar anuncios o divertirse. Pero también es una manera de encontrar almas sinceras. La semana pasada publiqué un tema sobre ciberestafas: encontrar la víctima adecuada te puede reportar muchos miles de euros con poco esfuerzo.

Una estafa electoral requiere mucha más sinceridad, pero no se puede descartar nada por completo. En las cuentas de Facebook que crean los camarones Jesucristo hay decenas de bots que dicen “amén”. Continúan tomando fotografías sin parar. Puede ser porque alguien está deslumbrado por este nuevo Jesús.

6. Los medios de comunicación siguen desempeñando un papel. Las dudas sobre la foto de Kate Middleton eran razonables y crecientes, pero no fueron definitivas hasta que las agencias confirmaron que era falsa y que ya no la usarían. Entonces ya nadie tuvo dudas. Sólo porque un medio diga algo no resolverá la polémica, especialmente para los sectores más extremistas, pero le quita profundidad a la conspiración. También ayuda a separar las conspiraciones más locas de las más plausibles, aunque en realidad estén casi todas al mismo nivel.

puedes seguir La tecnología de EL PAÍS En Facebook Y X o regístrate aquí para recibir el nuestro boletín semanal.

Regístrate para continuar leyendo

Leer sin límites

_