dimanche 21 juillet 2024

L'Intelligence Artificielle et le RGPD : Le Cas de Stephen Fry et les Défis de la Précision

 L'intelligence artificielle (IA) est devenue omniprésente, transformant divers aspects de notre vie quotidienne. 

Cependant, son utilisation soulève des questions cruciales en matière de protection des données, comme le montre le cas de l'acteur britannique Stephen Fry. Fry a découvert des erreurs dans la description de son profil générée par une IA et envisage de prendre des mesures légales en vertu du Règlement Général sur la Protection des Données (RGPD). 

Cet incident met en lumière les différences fondamentales entre les informations factuelles publiées sur le web et les productions spéculatives des IA.


Le Cas de Stephen Fry


Stephen Fry, qui s'était déjà plaint du vol de sa voix par une IA, a constaté que des informations incorrectes avaient été générées par une IA (ChatGPT d'OpenAI en l'occurrence) à son sujet. 

Ces erreurs, bien que potentiellement mineures, peuvent avoir des conséquences significatives sur la réputation et la vie privée des individus. Fry envisage de poursuivre en justice pour rectifier ces erreurs, en se basant sur les droits conférés par le RGPD, notamment le droit à la rectification et le droit à l'effacement.



Les Défis de l'IA et du RGPD


Le RGPD, entré en vigueur en mai 2018, vise à protéger les données personnelles des citoyens de l'UE. 

Il impose des obligations strictes en matière de collecte, de traitement et de stockage des données. Cependant, l'application de ces principes aux systèmes d'IA présente des défis uniques :


1. Précision des données : 

Le RGPD exige que les données personnelles soient exactes et, si nécessaire, mises à jour. Les IA, en raison de leur nature spéculative, peuvent générer des informations incorrectes ou biaisées, comme dans le cas de Stephen Fry.


2. Transparence et explication : 

Les systèmes d'IA sont souvent des "boîtes noires", rendant difficile la compréhension de leur fonctionnement et la vérification de l'exactitude des données qu'ils produisent.


3. Droits des individus : 

Le RGPD confère aux individus des droits spécifiques, tels que le droit d'accès, de rectification et d'effacement de leurs données. Assurer ces droits dans le contexte des IA, qui traitent des volumes massifs de données, est complexe.


Le Cas de Google Gemini


Un autre exemple illustratif est celui de Google et son IA générative, Gemini. 

Initialement, Gemini produisait des images majoritairement de personnes blanches, suscitant des accusations de biais raciaux. Pour corriger ce problème, Google a ajusté les paramètres de Gemini afin de promouvoir davantage la diversité ethnique.

Cependant, cette correction a engendré de nouvelles problématiques. 

L'IA a commencé à générer des images historiquement inexactes, comme des figures de la fondation des États-Unis ou des soldats nazis avec des couleurs de peau qui ne correspondaient pas à la réalité historique

Par exemple, des requêtes comme “sénateurs américains du XIXe siècle” ont retourné des images de femmes noires et amérindiennes, alors que la première femme sénateur, blanche, a été élue en 1922.

Face à ces erreurs, Google a mis en pause la génération d’images de personnes par Gemini et a promis de travailler sur une version améliorée de l’outil. 

Cette situation illustre les défis complexes de la gestion des biais dans les systèmes d’IA et la difficulté de trouver un équilibre entre la promotion de la diversité et la précision historique.


La double vérification : une première réponse de Google aux hallucinations et erreurs de son IA


Qu'est-ce que c'est ?

La double vérification du texte généré par IA est une nouvelle fonctionnalité de Google Bard qui permet de vérifier la véracité et la fiabilité des informations contenues dans un texte produit par l'IA. 

Comment ça marche ?


Lorsque Bard génère un texte, il propose à l'utilisateur de le vérifier en ligne en effectuant une recherche Google. 

Cela permet de comparer le texte généré avec des sources d'information fiables et de s'assurer qu'il est exact et cohérent.

Pourquoi est-ce utile ?


La double vérification est utile, car elle permet de :

  • Renforcer la confiance dans les informations générées par l'IA.
  • Identifier d'éventuelles erreurs ou biais dans le texte.
  • Obtenir des informations complémentaires sur le sujet traité.


Comment l'utiliser ?


La double vérification est très simple à utiliser, mais n'est, pour l'instant, disponible qu'en anglais et sur l'IA précédente de Google : Bard :


1. Générez un texte avec Bard (La double vérification n'est pas encore installée sur Gemini.
2. Cliquez sur le bouton "Revérifier" qui apparaît à côté du texte.
3. Bard effectuera une recherche Google et vous proposera des résultats pertinents.
4. Comparez le texte généré avec les résultats de la recherche pour vous assurer qu'il est exact.

Où est-elle disponible ?


La double vérification est actuellement disponible pour les recherches en anglais uniquement. 
Elle sera bientôt étendue à d'autres langues.

En résumé, la double vérification du texte généré par IA est un outil précieux pour s'assurer que les informations fournies par Bard sont fiables et exactes.

Peut-être pourra-t-elle être associée automatiquement à chaque requête pour contrôler les réponses données. 

Ce qui "coince" pour les IA en Europe


Les législations européennes commencent à protéger plus efficacement les données personnelles et les droits d'auteurs. Mieux encore, elles font des émules dans le monde, jusqu'aux USA ! 
Les GAFAM sont donc de plus en plus contraints de les prendre en compte.

Certaines IA comme Meta (anciennement Facebook) fuient, pour l'instant, l'Europe.  
Elles craignent des sanctions importantes ou des litiges juridiques s'il ne respecte pas ces réglementations européennes. Meta-Facebook s'est déjà illustré dans le scandale Cambridge Analytica dans les campagnes électorales pour le Brexit et celle de Trump. Voir l'article : "Qui est Cambridge Analytica ? l’aspirateur de données Facebook".

Des solutions partielles :


Cet accord permet à OpenAI d'utiliser les articles du journal pour entraîner ses modèles d'IA et fournir des réponses basées sur le contenu de "Le Monde" via des services comme ChatGPT.

Les références aux articles utilisés seront clairement identifiées avec un logo et un lien hypertexte.

Ce partenariat est le premier de ce type en France et vise à offrir une source de revenus supplémentaires pour "Le Monde", tout en intégrant des garde-fous pour éviter l'utilisation de l'IA générative pour la rédaction intégrale de contenu éditorial.

OpenAI a acheté des licences pour accéder aux archives de The New York Times afin d'entraîner ses modèles de traitement du langage naturel, comme GPT-3 et ChatGPT. 

Cela permet à l'IA de comprendre et de générer du texte en se basant sur un large corpus de données journalistiques.

Conclusions


L'incident de Stephen Fry et le cas de Google Gemini montrent clairement que les IA ne peuvent pas être utilisées comme des publications factuelles. 

Les informations générées par les IA sont par nature spéculatives et hypothétiques, ce qui les rend sujettes à des erreurs et des biais

Cela pose des défis uniques pour les législations comme le RGPD, conçues pour protéger les droits individuels dans un contexte de données factuelles et vérifiables.

Il est crucial de reconnaître ces différences et de travailler à l'élaboration de cadres réglementaires adaptés aux spécificités des technologies d'IA. 

Les entreprises doivent également être proactives dans la gestion des biais et des erreurs de leurs systèmes d'IA, tout en assurant la transparence et le respect des droits des individus.