Cependant, son utilisation soulève des questions cruciales en matière de protection des données, comme le montre le cas de l'acteur britannique Stephen Fry. Fry a découvert des erreurs dans la description de son profil générée par une IA et envisage de prendre des mesures légales en vertu du Règlement Général sur la Protection des Données (RGPD).
Cet incident met en lumière les différences fondamentales entre les informations factuelles publiées sur le web et les productions spéculatives des IA.
Le Cas de Stephen Fry
Stephen Fry, qui s'était déjà plaint du vol de sa voix par une IA, a constaté que des informations incorrectes avaient été générées par une IA (ChatGPT d'OpenAI en l'occurrence) à son sujet.
Ces erreurs, bien que potentiellement mineures, peuvent avoir des conséquences significatives sur la réputation et la vie privée des individus. Fry envisage de poursuivre en justice pour rectifier ces erreurs, en se basant sur les droits conférés par le RGPD, notamment le droit à la rectification et le droit à l'effacement.
Les Défis de l'IA et du RGPD
Le RGPD, entré en vigueur en mai 2018, vise à protéger les données personnelles des citoyens de l'UE.
Il impose des obligations strictes en matière de collecte, de traitement et de stockage des données. Cependant, l'application de ces principes aux systèmes d'IA présente des défis uniques :
1. Précision des données :
Le RGPD exige que les données personnelles soient exactes et, si nécessaire, mises à jour. Les IA, en raison de leur nature spéculative, peuvent générer des informations incorrectes ou biaisées, comme dans le cas de Stephen Fry.
2. Transparence et explication :
Les systèmes d'IA sont souvent des "boîtes noires", rendant difficile la compréhension de leur fonctionnement et la vérification de l'exactitude des données qu'ils produisent.
3. Droits des individus :
Le RGPD confère aux individus des droits spécifiques, tels que le droit d'accès, de rectification et d'effacement de leurs données. Assurer ces droits dans le contexte des IA, qui traitent des volumes massifs de données, est complexe.
Le Cas de Google Gemini
Un autre exemple illustratif est celui de Google et son IA générative, Gemini.
Initialement, Gemini produisait des images majoritairement de personnes blanches, suscitant des accusations de biais raciaux. Pour corriger ce problème, Google a ajusté les paramètres de Gemini afin de promouvoir davantage la diversité ethnique.
Cependant, cette correction a engendré de nouvelles problématiques.
L'IA a commencé à générer des images historiquement inexactes, comme des figures de la fondation des États-Unis ou des soldats nazis avec des couleurs de peau qui ne correspondaient pas à la réalité historique.
Par exemple, des requêtes comme “sénateurs américains du XIXe siècle” ont retourné des images de femmes noires et amérindiennes, alors que la première femme sénateur, blanche, a été élue en 1922.
Face à ces erreurs, Google a mis en pause la génération d’images de personnes par Gemini et a promis de travailler sur une version améliorée de l’outil.
Cette situation illustre les défis complexes de la gestion des biais dans les systèmes d’IA et la difficulté de trouver un équilibre entre la promotion de la diversité et la précision historique.
La double vérification : une première réponse de Google aux hallucinations et erreurs de son IA
Qu'est-ce que c'est ?
Comment ça marche ?
Pourquoi est-ce utile ?
- Renforcer la confiance dans les informations générées par l'IA.
- Identifier d'éventuelles erreurs ou biais dans le texte.
- Obtenir des informations complémentaires sur le sujet traité.
Comment l'utiliser ?
Où est-elle disponible ?
Ce qui "coince" pour les IA en Europe
Des solutions partielles :
Conclusions
L'incident de Stephen Fry et le cas de Google Gemini montrent clairement que les IA ne peuvent pas être utilisées comme des publications factuelles.
Les informations générées par les IA sont par nature spéculatives et hypothétiques, ce qui les rend sujettes à des erreurs et des biais.
Cela pose des défis uniques pour les législations comme le RGPD, conçues pour protéger les droits individuels dans un contexte de données factuelles et vérifiables.
Il est crucial de reconnaître ces différences et de travailler à l'élaboration de cadres réglementaires adaptés aux spécificités des technologies d'IA.
Les entreprises doivent également être proactives dans la gestion des biais et des erreurs de leurs systèmes d'IA, tout en assurant la transparence et le respect des droits des individus.