samedi 27 décembre 2025

Peurs, critiques et oppositions aux IA : les risques réels à surmonter

 L'article publié précédemment : "Isabelle Armand, une histoire d'intelligence(s)" a été très apprécié et en même temps, critiqué pour sa vision "bisounours" (je cite. 😕).

D'abord, je veux que ce soit clair. L'histoire d'Hervé et d'Isabelle Armand est une "histoire qui finit bien", même si, en accéléré, Hervé a dû passer par des phases de rejet, de révolte, de combat pour enfin se dépasser dans la transformation de son poste et de lui-même.

Sous beaucoup d'autres aspects, la réalité est plus dure, on ne peut l'ignorer.

Ces transformations vont être profondes et se font à une vitesse inhumaine.

Abordons d’abord les . Ces inquiétudes, souvent nourries par des , méritent d’être écoutées et prises au sérieux.

Mais ne nous arrêtons pas là. Engageons-nous aussi, avec détermination et optimisme, à cultiver les opportunités offertes par les IA — tout en œuvrant activement à .


L'émergence rapide des Intelligences Artificielles génératives, modèles de langage (LLM) comme ChatGPT (OpenAI), Gémini (Google), Perplexity, Claude (Anthropic), Le Chat (Mistral) a suscité autant d'enthousiasme que d'anxiété.

Ces technologies ne sont pas neutres ; elles bouleversent des normes établies depuis des décennies.

Nous revenons ici sur les principales peurs, critiques et oppositions dans le débat public et professionnel.


1. La menace sur l'emploi et le déclassement professionnel


C'est sans doute la peur la plus viscérale et la plus répandue. Contrairement aux révolutions industrielles précédentes qui automatisaient les tâches manuelles, l'IA générative s'attaque aux tâches cognitives et créatives.

  • L'automatisation des "cols blancs" : les traducteurs, rédacteurs, codeurs juniors, et assistants juridiques craignent d'être remplacés par des outils moins coûteux et plus rapides.

  • La dévaluation des compétences : la critique majeure est que l'IA pourrait réduire la valeur de l'expertise humaine. Si "tout le monde" peut écrire un code ou un article correct avec un prompt, que vaut l'expert ?

  • Le monde artistique : les illustrateurs et graphistes sont particulièrement opposés aux IA génératrices d'images (comme Midjourney), estimant que ces outils volent leur style et leur marché.


2. L’exploitation des travailleurs du Sud pour entraîner les IA : une réalité cachée

L’intelligence artificielle dépend souvent d’une main-d’œuvre sous-payée, principalement dans les pays du Sud. Annotation de données, modération de contenus, correction de chatbots : ces tâches fastidieuses sont externalisées vers des plateformes comme Amazon Mechanical Turk ou Scale AI, où des travailleurs en Inde, aux Philippines ou au Kenya gagnent parfois moins de 2 dollars de l’heure.

Exemples marquants :

  • Des employés en Inde modèrent des contenus violents pour Facebook, sans protection psychologique.
  • Des annotateurs en Afrique étiquettent des images pour les voitures autonomes de Tesla, pour 0,50 à 1,50 dollar de l’heure.
  • Des correcteurs en Afrique de l’Est améliorent les réponses de ChatGPT, dans l’ombre et pour des salaires de misère.

Ce modèle n’est pas nouveau : le textile (Bangladesh), l’électronique (Foxconn pour Apple en Chine) ou les centres d’appels (Philippines) reposent sur la même logique d’exploitation. Le progrès technologique peut-il se construire sur l’injustice sociale ? On voit qu'en plus du chamboulement social dans les pays industrialisés, les tâches "externalisées" sont aussi problématiques.


3. La propriété intellectuelle et le "vol" de données


Cette opposition est principalement juridique et éthique. Pour fonctionner, les IA LLM doivent être "entraînés" sur des quantités massives de données (textes, images, codes) aspirées sur Internet.

  • Violation du droit d'auteur : de nombreux auteurs (comme George R.R. Martin) et médias (comme le New York Times : procès puis accord) ont attaqué OpenAI en justice. L'argument est simple : les IA ingèrent des œuvres protégées sans consentement ni compensation pour ensuite générer du contenu concurrent.

  • Le problème du "Fair Use" : les entreprises d'IA arguent que l'apprentissage machine relève de l'usage équitable (fair use), une position vivement contestée par les créateurs qui parlent de "pillage".


4. La fiabilité : hallucinations et désinformation


Une critique technique majeure concerne l'incapacité des modèles actuels à distinguer le vrai du faux.

  • Les hallucinations : les LLM sont des machines probabilistes, pas des bases de données de vérité. Ils inventent parfois des faits, des citations juridiques ou des biographies avec une assurance déconcertante. Il me faut aussi reconnaitre que, dans mes formations où les IA sont pilotées avec rigueur, je n'ai pas rencontré d'hallucinations. Tout au plus des informations obsolètes car trop anciennes.

  • L'industrialisation de la désinformation : les critiques redoutent que ces outils ne facilitent la création massive de "Fake News", de propagande politique ciblée ou d'arnaques sophistiquées, rendant l'internet de moins en moins fiable.

Biais, discrimination et éthique

Les modèles reflètent les données sur lesquelles ils ont été entraînés. Or, Internet contient des biais historiques et sociaux.

  • Reproduction des stéréotypes : On reproche aux IA d'amplifier les biais racistes, sexistes ou culturels présents dans leurs données d'entraînement (par exemple, associer certains métiers uniquement aux hommes).

  • Propagande extrémiste ou désinformation de la cyberguerre : Quand c'est voulu comme le réseau social X et l'IA "Grok" d'Elon Musk.

  • Le problème de la "Boîte Noire" : L'opacité des algorithmes inquiète. Il est difficile de savoir pourquoi une IA a donné telle réponse, ce qui pose problème lorsqu'elle est utilisée pour trier des CV ou accorder des prêts bancaires.


5. Confidentialité et sécurité des données


L'utilisation des IA en entreprise soulève des oppositions liées à la protection du secret des affaires et de la vie privée.

  • Fuite de données sensibles : Samsung, par exemple, a vu des employés copier du code confidentiel dans ChatGPT pour le corriger, envoyant ainsi ce code sur les serveurs d'OpenAI.

  • Conformité RGPD : en Europe, les critiques soulignent la difficulté pour ces modèles de respecter le "Droit à l'oubli". Comment effacer les données personnelles d'un individu si elles sont fondues dans les paramètres neuronaux du modèle ?


6. L'impact environnemental


Une critique grandissante concerne le coût écologique de ces technologies, souvent invisibilisé par l'aspect "virtuel" du produit. Alors que les couts environnementaux concernaient surtout la construction des matériels informatiques, s'ajoutent aujourd'hui avec les IA leurs couts d'entrainement puis de fonctionnement dans les datacenters (énergie, chaleur dissipée, eau).

Note : L'entraînement d'un grand modèle génère autant de carbone que plusieurs vols transatlantiques, sans compter la consommation d'eau massive nécessaire au refroidissement des serveurs lors de chaque requête.

7. Vers une intelligence augmentée et responsable


Pourtant, dresser ce constat lucide ne doit pas nous conduire au fatalisme.

Si les risques sont réels, ils ne sont pas insurmontables.


L'histoire prouve que l'humanité a toujours payé un lourd "prix d'entrée" avant de maîtriser ses inventions, transformant des innovations destructrices en progrès régulés.
Pour preuve, nos conforts actuels sont nés de crises violentes que nous avons fini par surmonter : Le prix social et physique : la révolution industrielle a d'abord broyé des générations d'enfants (les galibots) et mutilé les ouvriers du textile avant que la société n'impose le droit du travail et la sécurité. Le prix de l'information : l'imprimerie a d'abord servi de vecteur à la haine religieuse et à la guerre civile avant de donner naissance à l'éthique journalistique et à la vérification des sources. Le prix de l'économie : la mécanisation a jeté les artisans qualifiés dans la misère et la violence des révoltes luddites avant que l'économie ne se restructure autour de nouveaux métiers. Le prix environnemental : l'automobile a sacrifié la santé des citadins (plomb, pollution) et détruit les centres-villes avant que ne s'éveille la conscience écologique et sanitaire. En somme : les risques de l'IA (désinformation, déclassement, éthique, écologique) sont les équivalents modernes de ces crises passées.

Ils ne sont pas insurmontables car, tout comme nous avons fini par interdire le travail des enfants et réguler la pollution (tellement insuffisant !), il faudra construire les garde-fous nécessaires pour domestiquer cette nouvelle technologie.

L'enjeu est désormais collectif : régulateurs, développeurs et utilisateurs doivent œuvrer pour encadrer ces technologies.

En plaçant l'humain au centre, en exigeant la transparence et en formant chacun à ces nouveaux outils, nous pouvons espérer que cette transition ne soit pas une soustraction, mais une addition.

L'objectif est de faire de l'IA un levier qui nous libère des tâches aliénantes pour nous permettre de nous concentrer sur ce qui nous rend irremplaçables : notre empathie, notre jugement et notre créativité.

L'enjeu est que ce changement immense soit synonyme de progrès partagé.

Autre article sur les approfondissements et les conséquences de l'usage des IA :

de Flavien Chervet est un entrepreneur, conférencier et “philo-poète” français, spécialiste reconnu des Intelligences Artificielles et de leurs impacts sur la société, la création et l’entreprise :