L'article publié précédemment : "Isabelle Armand, une histoire d'intelligence(s)" a été très apprécié et en même temps, critiqué pour sa vision "bisounours" (je cite. 😕).
D'abord, je veux que ce soit clair. L'histoire d'Hervé et d'Isabelle Armand est une "histoire qui finit bien", même si, en accéléré, Hervé a dû passer par des phases de rejet, de révolte, de combat pour enfin se dépasser dans la transformation de son poste et de lui-même.
Sous beaucoup d'autres aspects, la réalité est plus dure, on ne peut l'ignorer.
Ces transformations vont être profondes et se font à une vitesse inhumaine.
Abordons d’abord les . Ces inquiétudes, souvent nourries par des , méritent d’être écoutées et prises au sérieux.
Mais ne nous arrêtons pas là. Engageons-nous aussi, avec détermination et optimisme, à cultiver les opportunités offertes par les IA — tout en œuvrant activement à .
L'émergence rapide des Intelligences Artificielles génératives, modèles de langage (LLM) comme ChatGPT (OpenAI), Gémini (Google), Perplexity, Claude (Anthropic), Le Chat (Mistral) a suscité autant d'enthousiasme que d'anxiété.
Ces technologies ne sont pas neutres ; elles bouleversent des normes établies depuis des décennies.
Nous revenons ici sur les principales peurs, critiques et oppositions dans le débat public et professionnel.
1. La menace sur l'emploi et le déclassement professionnel
C'est sans doute la peur la plus viscérale et la plus répandue. Contrairement aux révolutions industrielles précédentes qui automatisaient les tâches manuelles, l'IA générative s'attaque aux tâches cognitives et créatives.
L'automatisation des "cols blancs" : les traducteurs, rédacteurs, codeurs juniors, et assistants juridiques craignent d'être remplacés par des outils moins coûteux et plus rapides.
La dévaluation des compétences : la critique majeure est que l'IA pourrait réduire la valeur de l'expertise humaine. Si "tout le monde" peut écrire un code ou un article correct avec un prompt, que vaut l'expert ?
Le monde artistique : les illustrateurs et graphistes sont particulièrement opposés aux IA génératrices d'images (comme Midjourney), estimant que ces outils volent leur style et leur marché.
2. L’exploitation des travailleurs du Sud pour entraîner les IA : une réalité cachée
L’intelligence artificielle dépend souvent d’une main-d’œuvre sous-payée, principalement dans les pays du Sud. Annotation de données, modération de contenus, correction de chatbots : ces tâches fastidieuses sont externalisées vers des plateformes comme Amazon Mechanical Turk ou Scale AI, où des travailleurs en Inde, aux Philippines ou au Kenya gagnent parfois moins de 2 dollars de l’heure.
Exemples marquants :
- Des employés en Inde modèrent des contenus violents pour Facebook, sans protection psychologique.
- Des annotateurs en Afrique étiquettent des images pour les voitures autonomes de Tesla, pour 0,50 à 1,50 dollar de l’heure.
- Des correcteurs en Afrique de l’Est améliorent les réponses de ChatGPT, dans l’ombre et pour des salaires de misère.
Ce modèle n’est pas nouveau : le textile (Bangladesh), l’électronique (Foxconn pour Apple en Chine) ou les centres d’appels (Philippines) reposent sur la même logique d’exploitation. Le progrès technologique peut-il se construire sur l’injustice sociale ? On voit qu'en plus du chamboulement social dans les pays industrialisés, les tâches "externalisées" sont aussi problématiques.
3. La propriété intellectuelle et le "vol" de données
Cette opposition est principalement juridique et éthique. Pour fonctionner, les IA LLM doivent être "entraînés" sur des quantités massives de données (textes, images, codes) aspirées sur Internet.
Violation du droit d'auteur : de nombreux auteurs (comme George R.R. Martin) et médias (comme le New York Times : procès puis accord) ont attaqué OpenAI en justice. L'argument est simple : les IA ingèrent des œuvres protégées sans consentement ni compensation pour ensuite générer du contenu concurrent.
Le problème du "Fair Use" : les entreprises d'IA arguent que l'apprentissage machine relève de l'usage équitable (fair use), une position vivement contestée par les créateurs qui parlent de "pillage".
4. La fiabilité : hallucinations et désinformation
Une critique technique majeure concerne l'incapacité des modèles actuels à distinguer le vrai du faux.
Les hallucinations : les LLM sont des machines probabilistes, pas des bases de données de vérité. Ils inventent parfois des faits, des citations juridiques ou des biographies avec une assurance déconcertante. Il me faut aussi reconnaitre que, dans mes formations où les IA sont pilotées avec rigueur, je n'ai pas rencontré d'hallucinations. Tout au plus des informations obsolètes car trop anciennes.
L'industrialisation de la désinformation : les critiques redoutent que ces outils ne facilitent la création massive de "Fake News", de propagande politique ciblée ou d'arnaques sophistiquées, rendant l'internet de moins en moins fiable.
Biais, discrimination et éthique
Les modèles reflètent les données sur lesquelles ils ont été entraînés. Or, Internet contient des biais historiques et sociaux.
Reproduction des stéréotypes : On reproche aux IA d'amplifier les biais racistes, sexistes ou culturels présents dans leurs données d'entraînement (par exemple, associer certains métiers uniquement aux hommes).
Propagande extrémiste ou désinformation de la cyberguerre : Quand c'est voulu comme le réseau social X et l'IA "Grok" d'Elon Musk.
Le problème de la "Boîte Noire" : L'opacité des algorithmes inquiète. Il est difficile de savoir pourquoi une IA a donné telle réponse, ce qui pose problème lorsqu'elle est utilisée pour trier des CV ou accorder des prêts bancaires.
5. Confidentialité et sécurité des données
L'utilisation des IA en entreprise soulève des oppositions liées à la protection du secret des affaires et de la vie privée.
Fuite de données sensibles : Samsung, par exemple, a vu des employés copier du code confidentiel dans ChatGPT pour le corriger, envoyant ainsi ce code sur les serveurs d'OpenAI.
Conformité RGPD : en Europe, les critiques soulignent la difficulté pour ces modèles de respecter le "Droit à l'oubli". Comment effacer les données personnelles d'un individu si elles sont fondues dans les paramètres neuronaux du modèle ?
6. L'impact environnemental
Une critique grandissante concerne le coût écologique de ces technologies, souvent invisibilisé par l'aspect "virtuel" du produit. Alors que les couts environnementaux concernaient surtout la construction des matériels informatiques, s'ajoutent aujourd'hui avec les IA leurs couts d'entrainement puis de fonctionnement dans les datacenters (énergie, chaleur dissipée, eau).
Note : L'entraînement d'un grand modèle génère autant de carbone que plusieurs vols transatlantiques, sans compter la consommation d'eau massive nécessaire au refroidissement des serveurs lors de chaque requête.
