domingo, mayo 26

El «hermano» malvado de ChatGPT y otras amenazas a la IA generativa | Tecnología

FraudeGPT es el Hermano Chat malvadoGPT. Es ascendido en red oscura y puedes escribir un mensaje haciéndote pasar por un banco, crear malware o mostrar sitios web que puedan ser estafados, según la plataforma de análisis de datos Netenrich. Otras herramientas como WormGPT también prometen facilitar el trabajo de los ciberdelincuentes. La IA generativa se puede utilizar con fines maliciosos: desde generar estafas sofisticadas hasta crear pornografía no consensuada, campañas de desinformación e incluso armas bioquímicas.

“A pesar de ser algo relativamente nuevo, los delincuentes no han tardado en explotar las capacidades de la inteligencia artificial generativa para conseguir sus objetivos”, afirma Josep Albors, director de investigación y divulgación de la empresa de ciberseguridad ESET en España. El experto ofrece algunos ejemplos: del desarrollo de suplantación de identidad cada vez más perfeccionados –sin errores ortográficos, además de estar muy bien segmentados y abordados– hasta el punto de generar desinformación y profundo. Es decir, vídeos manipulados con inteligencia artificial para alterar o sustituir el rostro, el cuerpo o la voz de una persona.

Para Fernando Anaya, responsable del pais En Proofpoint, se ha demostrado que la IA generativa es «un paso evolutivo más que revolucionario». «Atrás quedaron los días en que se aconsejaba a los usuarios que buscaran errores gramaticales, de contexto y de sintaxis obvios para detectar correos electrónicos maliciosos», afirma. Ahora es más fácil para los atacantes. Simplemente solicite una de estas herramientas para generar un correo electrónico urgente y convincente sobre la actualización de su cuenta y la información de enrutamiento.

Además, pueden crear fácilmente correos electrónicos en muchos idiomas. “Es posible que un LLM (un modelo de lenguaje colosal, que utiliza aprendizaje profundo y se entrena con grandes cantidades de datos) lea primero todos los perfiles de LinkedIn de una organización y luego redacte un correo electrónico muy específico para cada empleado. Todo en impecable inglés u holandés, adaptado a los intereses específicos del destinatario”, advierte el Centro Holandés de Seguridad Cibernética.

Philipp Hacker, profesor de derecho y ética de la sociedad digital en la Nueva Escuela Europea de Estudios Digitales, explica que la inteligencia artificial generativa se puede utilizar para crear malware más eficaz, más difícil de detectar y capaz de atacar sistemas o vulnerabilidades específicas: “Si bien es probable que todavía se necesite una amplia experiencia humana para desarrollar virus avanzados, la IA puede ayudar en las primeras etapas de la creación malware”.

La implementación de este tipo de técnicas “está todavía lejos de ser generalizada”, según Albors. Pero herramientas como FraudGPT o WormGPT pueden representar un “grave problema para el futuro”. «Con su ayuda, los delincuentes sin ningún conocimiento técnico pueden preparar campañas maliciosas de todo tipo con una probabilidad considerable de éxito, lo que significa que los usuarios y las empresas tienen que hacer frente a aún más amenazas».

Genera audio, imágenes y vídeos.

Cuanto más convincente sea una estafa, más probabilidades habrá de que alguien se convierta en víctima. Hay quienes utilizan la inteligencia artificial para sintetizar audio. “Las estafas como la de la “matanza de cerdos” algún día podrían pasar de los mensajes de texto a las llamadas, aumentando aún más la capacidad de persuasión de esta técnica”, dice Anaya. Esta estafa, traducida al español como “matanza de cerdos”, se llama así porque los atacantes “engordan” a las víctimas y se ganan su confianza, para luego quitarles todo lo que tienen. Si bien suele estar relacionado con las criptomonedas, también puede implicar otros intercambios financieros.

Los investigadores de Proofpoint ya han visto a ciberdelincuentes utilizar esta tecnología para engañar a funcionarios gubernamentales. Así lo demuestra su investigación sobre el grupo TA499, que utiliza esta técnica contra políticos, empresarios o famosos. “Hacen videollamadas en las que intentan parecerse lo máximo posible a las personas suplantadas con inteligencia artificial y otras técnicas para que las víctimas compartan información o las ridiculicen, para luego subir la grabación a las redes sociales”, explica Anaya.

La IA generativa también se utiliza para ejecutar campañas con imágenes editadas e incluso vídeos. Se ha clonado el audio de presentadores de televisión o personajes importantes como Ana Botín, Elon Musk o incluso Alberto Núñez Feijóo. Así lo explica Albors: “Estos deepfakes se utilizan principalmente para promover inversiones en criptomonedas que suelen acabar en la pérdida del dinero invertido”.

De la pornografía a las armas bioquímicas

Los piratas informáticos dicen que el uso de IA generativa para crear pornografía es particularmente «alarmante». “Esta forma de abuso se dirige casi exclusivamente a las mujeres y provoca graves daños personales y profesionales”, señala. Hace unos meses, decenas de menores en Extremadura denunciaron que circulaban fotografías falsas de ellos desnudos, creadas mediante inteligencia artificial. Algunas celebridades como Rosalía o Laura Escanes han sufrido ataques similares.

La misma tecnología se ha utilizado “para crear imágenes falsas que representan inmigrantes amenazantes, con el objetivo de influir en la opinión pública y los resultados electorales, y para crear campañas de desinformación a gran escala más sofisticadas y convincentes”, como señala Hacker. Después de los incendios que devastaron la isla de Maui en agosto, algunas publicaciones indicaron, sin ninguna evidencia, que fueron causados ​​por un “arma climática” secreta que estaba siendo probada por Estados Unidos. Estos mensajes formaban parte de una campaña liderada por China e incluían imágenes aparentemente creadas con inteligencia artificial. Los New York Times.

El potencial del uso de la inteligencia artificial generativa no termina aquí. Un artículo publicado en la revista. Inteligencia artificial de la naturaleza indica que los modelos avanzados de inteligencia artificial podrían ayudar en la creación de armas bioquímicas. Algo que, para Hacker, representa un peligro global. Además, según el experto, los algoritmos pueden infiltrarse en el software de infraestructura crítica: «Estas amenazas híbridas desdibujan los límites entre los escenarios de ataque tradicionales, lo que hace que sea difícil predecirlos y contrarrestarlos con las leyes y regulaciones existentes».

El desafío de prevenir los riesgos del FraudeGPT y otras herramientas

Existen soluciones que utilizan el aprendizaje automático y otras técnicas para detectar y bloquear los ataques más sofisticados. Sin embargo, Anaya pone énfasis en educar y concientizar a los usuarios para que puedan reconocer correos electrónicos de phishing y otras amenazas. Para Hacker, mitigar los riesgos asociados al uso malicioso de la IA generativa requiere un enfoque que combine medidas regulatorias, soluciones tecnológicas y directrices éticas.

Las posibles medidas incluyen la implementación obligatoria de equipos independientes que prueben este tipo de herramientas para identificar vulnerabilidades y posibles abusos o la prohibición de ciertos modelos de código abierto. “Abordar estos riesgos es complejo, ya que existen importantes compensaciones entre los diversos objetivos éticos de la IA y la viabilidad de implementar ciertas medidas”, concluye.

puedes seguir La tecnología de EL PAÍS En Facebook Y X o regístrate aquí para recibir el nuestro boletín semanal.