sábado, julio 27

El riesgo de confiar secretos personales a ChatGPT | Tecnología

Si le pregunta a ChatGPT qué hace con los datos personales que alguien aporta a la conversación, esta es su respuesta: «Como modelo de lenguaje desarrollado por OpenAI, no tengo la capacidad de procesar, almacenar o utilizar la información personal de los usuarios, a menos que se proporcione». conmigo durante una conversación uno a uno.» Sin embargo, OpenAI, empresa propietaria de ChatGPT, puede utilizar esa información en determinados casos, según la política de privacidad de la empresa.

Son un tipo de datos específico y sólo para algunos casos. Deben ser datos de la cuenta OpenAI, como el nombre del usuario o los datos de la tarjeta de pago, información personal que el usuario intercambia con ChatGPT o la empresa, información del usuario al interactuar con cuentas OpenAI en redes sociales, como Instagram, Facebook, Medium, Twitter, YouTube y LinkedIn o datos que proporciones a la empresa en sus encuestas o eventos. Con esta información, la empresa puede mejorar sus productos y servicios, crear nuevos desarrollos, realizar investigaciones, establecer comunicación directa con los usuarios, cumplir con obligaciones legales a favor de la empresa y prevenir fraudes, mal uso del servicio y actividades delictivas.

Esta delicada cuestión no concierne sólo a la nueva IA generativa. Enviar un correo electrónico a través de Gmail a un amigo, o compartir fotografías o documentos en espacios en la nube como OneDrive, son actos cotidianos que autorizan a los proveedores de estos servicios a compartir información con terceros. Empresas como OpenAI, Microsoft y Google pueden revelar información a proveedores de servicios para satisfacer sus necesidades comerciales, como se indica en sus políticas de privacidad.

Sin embargo, salvo algunas excepciones, las empresas no pueden utilizar datos personales para otros fines. Ricard Martínez, catedrático de derecho constitucional de la Universitat de València, señala que está estrictamente prohibido por el Reglamento General de Protección de Datos (RGPD): “Se exponen a un riesgo regulatorio elevado. La empresa podría ser sancionada con una multa equivalente al 4% de su facturación anual global.» En estos casos, sólo podrán utilizarse con fines de interés público permitidos por la ley, como archivos o investigaciones históricas, estadísticas o científicas, o si se expresa un juicio de compatibilidad.

La IA generativa, como ChatGPT, se alimenta de un gran volumen de datos, algunos de los cuales son personales, y genera contenido original a partir de esa información. En España, según un estudio, estas herramientas reciben 377 millones de visitas al año. Analizan la información recogida, responden a las dudas de los usuarios y mejoran su servicio, aunque la herramienta «no incluye los documentos que se le facilitan», advierte Borja Adsuara, abogado experto en derecho digital.

Recomendación: Sea muy discreto con los chatbots

La Agencia Española de Protección de Datos (AEPD) aconseja a los usuarios no aceptar que la chatbots solicitar datos de registro innecesarios; que solicite el consentimiento sin definir la finalidad para la que serán tratados los datos y sin permitir su revocación en ningún momento, o que realice transferencias a países que no ofrezcan garantías suficientes. También recomienda «limitar los datos personales que se exponen, no facilitar datos personales de terceros si existen dudas de que el tratamiento trasciende el ámbito doméstico y tener en cuenta que no existen garantías de que la información proporcionada por el chatbot sea correcta». Las consecuencias son “daño emocional, información errónea o engañosa”.

Los expertos coinciden en el mismo consejo: no comparta información personal con la herramienta de inteligencia artificial. El propio ChatGPT también advierte: “Tenga en cuenta que si comparte información personal, sensible o confidencial durante la conversación, debe tener cuidado. “Se recomienda no proporcionar información sensible a través de plataformas en línea, ni siquiera en conversaciones con modelos de discurso como yo”.

Eliminar datos personales

Si, a pesar de estas recomendaciones, los datos personales ya han sido compartidos con una inteligencia artificial, puedes intentar eliminarlos. En el sitio OpenAI hay un formulario para eliminarlos: la mala noticia es que la empresa advierte que «enviar una solicitud no garantiza que su información será eliminada de los resultados de ChatGPT». Deberá cumplimentarse con los datos reales del interesado, quien deberá «jurar» por escrito la veracidad de lo declarado. Además, la información del formulario se puede verificar con otras fuentes para comprobar su veracidad. Microsoft también ofrece un panel de privacidad para acceder y eliminar datos personales.

A través de acciones legales, Martínez explica que el usuario “puede ejercitar el derecho de cancelación, si considera que los datos personales han sido tratados de forma ilícita, inexacta e inadecuada. Puedes darte de baja, revocar tu consentimiento, que es libre e incondicional, y la empresa está obligada a eliminar toda la información.” Este especialista también destaca que existe un derecho a la portabilidad: “Cada vez más aplicaciones permiten al usuario descargar todo su historial y llevárselo en un formato compatible. El reglamento también recomienda la anonimización de los datos personales.»

La anonimización, según la AEPD, es la conversión de datos personales en datos que no pueden utilizarse para identificar a ninguna persona. En sus orientaciones sobre el procesamiento de inteligencia artificial (IA), la agencia explica que la anonimización es una de las técnicas para minimizar el uso de datos, garantizando que solo se utilicen los datos necesarios para el fin indicado.

Nueva ley sobre inteligencia artificial

Las empresas que gestionen datos personales, tras la entrada en vigor de la nueva ley europea sobre inteligencia artificial, tendrán que tener en cuenta tres claves, tal y como explicó a este diario la consultora Entelgy: tendrán que desvelar cómo funciona el algoritmo y cómo contenidos que genera en un registro europeo; Aunque no es obligatorio, se recomienda establecer mecanismos de supervisión humana; Finalmente, los grandes modelos de lenguaje (LLM) tendrán que introducir sistemas de seguridad y los desarrolladores tendrán la obligación de ser transparentes sobre el material protegido por derechos de autor que utilizan.

Sin embargo, la nueva norma no es incompatible con el Reglamento General de Protección de Datos. Así lo explica Martínez: “La inteligencia artificial que procesa datos personales, o que generará datos personales en el futuro, nunca podrá llegar al mercado si no garantiza el cumplimiento del RGPD. Esto es particularmente evidente en los sistemas de alto riesgo, que deben implementar un modelo de gobernanza de datos, así como registros operativos y de uso que aseguren la trazabilidad”.

El siguiente paso de la inteligencia artificial, afirma Adsuara, es que la información personal recopilada pueda utilizarse en una especie de pool personal: “Un lugar donde cada uno tiene su propio archivo de documentos con datos personales, pero la información no sale de allí , no se utilizan para impulsar la inteligencia artificial generativa universal”, explica.

puedes seguir La tecnología de EL PAÍS En Facebook Y X o regístrate aquí para recibir el nuestro boletín semanal.