sábado, septiembre 21

Cómo utilizar la IA contra las teorías de la conspiración: “No, la inmigración no aumenta la delincuencia” | Tecnología

Dos vecinos de El Hierro (Islas Canarias) observan a los inmigrantes llegados en canoa el 31 de agosto.Antonio Sempere (Europa Press)

La llegada a la localidad sevillana de Alcalá de Guadaíra (75.000 habitantes) de 85 solicitantes de asilo que huyen de la guerra en Mali ha desatado esta semana una campaña de odio, insultos e incitación a la violencia entre los coleccionistas de las redes sociales. «Habría que ahorcarla», postea un usuario entre decenas de mensajes humillantes, machistas y amenazantes contra la alcaldesa, la socialista Ana Isabel Jiménez, que pidió «responsabilidad» a los vecinos. La xenofobia, basada en mentiras y tergiversaciones, alimenta canales ávidos del tráfico, la controversia, los datos y el dinero que aporta. Dos investigaciones intentan frenar la avalancha de lodo digital: una del CCI europeo subraya que es más eficaz negar que prevenir y otra, que se publica el jueves Ciencia, Sostiene que hablar con una máquina de inteligencia artificial (IA) puede ayudar a combatir la desinformación y la manipulación. ¿La inmigración aumenta la delincuencia? La IA responde: “No, al contrario”.

El chat de inteligencia artificial especialmente entrenado para combatir teorías conspirativas y bulos (Debunkbot.com), desarrollado por investigadores del MIT (Massachusetts Institute of Technology) y la Universidad de Cornell, ya está operativo y puede responder en español, aunque la interfaz está en inglés. Cuando se le pregunta sobre la relación entre migración y delincuencia, primero responde con empatía (aprecia la pregunta y entiende que es un tema de actualidad) y luego “ofrece información que pueda aportar un punto de vista diferente”. Este es un resumen de la respuesta:

“Múltiples estudios (en la versión española cita Revista de etnicidad en la justicia penal.) han demostrado consistentemente que los inmigrantes tienen menos probabilidades de cometer delitos que los ciudadanos nativos. Por ejemplo, el Instituto Cato, que realiza investigaciones no partidistas, ha descubierto que tanto los inmigrantes legales (documentados) como los ilegales (indocumentados) tienen tasas de encarcelamiento mucho más bajas que los estadounidenses nativos.

Y añade: “Además, los datos sobre criminalidad del FBI indican que las áreas con mayor número de inmigrantes a menudo experimentan una disminución o una meseta en las tasas de criminalidad, en lugar de un aumento. Esto puede parecer contradictorio a primera vista, pero una posible explicación es que los inmigrantes a menudo contribuyen al crecimiento económico, inician nuevos negocios y aumentan la vitalidad de las comunidades, lo que puede conducir a menores tasas de criminalidad».

El diálogo es más complejo y más largo, pero la máquina no flaquea y responde con datos a cada prejuicio. Bulos, falsedades que se difunden, independientemente de que exista intención de engañar (desinformación) y la información intencionalmente distorsionada con la intención de manipular (desinformación) se encuentran, según el Foro Económico Mundial, entre las mayores amenazas globales. Lo mismo piensa el cofundador de Microsoft, Bill Gates, que considera especialmente vulnerables a los jóvenes, o el panel de expertos de decenas de universidades e instituciones que firmaron el informe sobre la ética de la inteligencia artificial (IA) para Google DeepMind, que pone cuidado con esto. , esta herramienta puede ser un arma que fomente la creación y difusión de mentiras.

Sin embargo, Thomas Costello, profesor de psicología de la American University (Washington) e investigador del MIT, cree que las conversaciones personalizadas con chat de IA son capaces de combatir los bulos y las teorías conspirativas de forma más eficaz que un tipo de desinformación que atribuye tácticas a un poderoso grupo malicioso para lograr un objetivo malicioso y oculto). “Los modelos de IA tienen acceso a mucha información sobre diversos temas, han sido entrenados y, por lo tanto, tienen la capacidad de contrarrestar con hechos teorías particulares en las que la gente cree”, afirma tras refutar que las falsedades generalizadas son “impermeables”. cambiar.»

«En contraste con la visión pesimista, una conversación relativamente corta con un modelo de IA generativa puede producir disminuciones significativas y consistentes en las creencias, incluso entre personas con creencias profundamente arraigadas», dice.

Según explica el estudio, hasta el 50% de la población estadounidense ha llegado a creer algunas de estas falsedades, a pesar de la evidencia, “debido a procesos socio-psicológicos” que satisfacen y sostienen prejuicios, así como mantienen su pertenencia a un determinado grupo. grupo de ideas similares.

Los resultados del experimento, aún abierto, revelaron una reducción de las creencias erróneas del 20% y que el beneficio del diálogo persiste, al menos, durante los dos meses siguientes a la conversación en todas las mentiras analizadas y en todas las categorías demográficas, según David Rand, investigador del MIT en ciencias cognitivas y coautor del estudio.

“Descubrimos que el chat hacía que las personas fueran menos teóricas de la conspiración en general y también aumentaba sus intenciones de ignorar, bloquear cuentas de redes sociales, dejar de compartir conspiraciones o evitar el diálogo con personas que defienden esas teorías. Funciona”, señala Rand.

Gordon Pennycook, profesor de psicología de la Universidad de Cornell y también coautor de la investigación, coincide, aunque admite que queda trabajo por hacer: “Podemos utilizar estas herramientas (de IA) para ayudar a mejorar las cosas, pero realmente necesitamos comprender la psicología subyacente.»

En el chat participaron 2.190 personas y un verificador independiente confirmó que el 99,2% de las respuestas automáticas eran “verdaderas”, frente al 0,8% clasificadas como “engañosas”. Ninguno fue considerado “falso” o con un sesgo progresista o conservador.

Bence Bago, profesor de ciencias sociales y del comportamiento en la Universidad de Tilburg (Países Bajos) y Jean-François Bonnefon, jefe del programa IA y Sociedad de la Escuela de Economía de Toulouse (Francia), defienden la propuesta (en la que participaron) en una evaluación conjunta: “Para bien o para mal, la inteligencia artificial está destinada a cambiar profundamente nuestra cultura. Aunque ha sido ampliamente criticado como un multiplicador de fuerza para la desinformación, el estudio demuestra una posible aplicación positiva del poder de persuasión de la IA generativa.

La inteligencia artificial como amenaza

Esta capacidad “persuasiva” contrasta con las amenazas que los investigadores que participaron en el informe de ética de Google detectan en desarrollos impulsados ​​por grandes modelos de lenguaje y destinados a un uso general. Según los autores, “los asistentes avanzados de IA plantean cuatro riesgos principales para el ecosistema de la información. En primer lugar, pueden hacer que los usuarios sean más susceptibles a la desinformación si las personas desarrollan relaciones de confianza con estos sistemas y recurren a ellos acríticamente como fuentes confiables de información. En segundo lugar, pueden proporcionar a los usuarios información ideológicamente sesgada en un intento de alinearse con sus expectativas y reforzar ideologías y sesgos específicos, lo que a su vez socavará un debate político saludable. En tercer lugar, los asistentes de IA pueden erosionar la confianza de la sociedad en el conocimiento compartido al contribuir a la difusión de grandes volúmenes de información que parece plausible, pero de baja calidad. Finalmente, pueden facilitar campañas de desinformación muy específicas al ofrecer a los propagandistas formas nuevas y encubiertas de manipular la opinión pública”.

Este grupo de expertos, liderado por la investigadora Nahema Marchal, de Google DeepMind, propone varias soluciones. En el ámbito técnico, limitar las capacidades de los asistentes de IA, desarrollar mecanismos robustos de detección de falsedades, como el recientemente creado Debunkbot, y promover resultados basados ​​en el “pensamiento crítico” y los “hechos verificados”.

En el ámbito político, el grupo sugiere limitar las aplicaciones que violan la ética, implementar mecanismos de transparencia y desarrollar fórmulas educativas.

es mejor negarlo

A raíz de la charla contra los bulos, un grupo de investigadores del Centro Común de Investigación (JRC) de la Comisión Europea sugirió otra línea de acción verificando «la eficacia relativa de diferentes tipos de intervenciones para contrarrestar la desinformación».

Un estudio publicado en Informes científicos muestra los resultados de un experimento con 5.228 participantes de Alemania, Grecia, Irlanda y Polonia. Los participantes estuvieron expuestos a información errónea sobre el cambio climático o Covid. Un grupo recibió los datos “preventivamente” (antes de la litera), antes de toparse con información falsa, y se le advirtió sobre “estrategias engañosas de uso común”. A otros participantes se les proporcionó “una intervención de seguimiento para desmentir (mentiras)” después de que se difundiera la mentira.

Los resultados confirman la vulnerabilidad a la desinformación y demuestran que “las negaciones son ligeramente más efectivas que las preliteras”, concluye el estudio.

Revelar la fuente de las intervenciones no influyó significativamente en su eficacia global, pero se constató que «las desmentidas con fuentes reveladas (en este caso se identificó a la Comisión Europea como garantía de veracidad) fueron menos efectivas» cuando se trataba de desacreditar información incorrecta. entre los participantes “con bajos niveles de confianza en la Unión Europea”.

puedes seguir La tecnología de EL PAÍS En Facebook Y incógnita o regístrate aquí para recibir el nuestro boletín semanal.