mercredi 15 avril 2020

L’Intelligence Artificielle peut-elle dominer les humains ? Que faire ?

Le numéro spécial de Science et Vie n°290 "Contrôler l'Intelligence Artificielle" de décembre 2017 a été à l'origine d'une vidéoconférence que j'ai donnée le vendredi 10 avril 2020.

J'ai proposé la lecture de cet article à celles et ceux qui ont participé à cette vidéoconférence.
La réaction a été unanime : article angoissant, qui fait peur.

Est-ce vrai que les machines soient devenues "intelligentes" avec l'"Intelligence Artificielle" ?

Notre conférence a répondu à ces questions.
Nous allons la résumer ici.


L'article de Roman Ikonicoff "Contrôler l'Intelligence Artificielle"  suscite la peur en mélangeant beaucoup de choses


Les machines, avec leurs Intelligences Artificielles pourraient alors nous dominer ?
Comment croire que c'est faux si de grands personnages et savants l'affirment ?
Quel intérêt auraient-ils à nous faire peur ?

Voilà les questions qu'on se pose à la lecture de beaucoup d'articles sur l'Intelligence Artificielle.

On m'a même écrit :
"Ton article  sur l'intelligence artificielle m'avait bien inquiétée hier soir, il était si convainquant et pourtant je ne parvenais pas y adhérer et je ne savais pas non plus comment défendre notre humanité.

Pour moi, le fonctionnement biologique ne se résumait pas à un réseau de neurones".

L’article “Contrôler l’Intelligence Artificielle” (I.A.) par Roman Ikonicoff (S&V Hors Série) fait peur en citant des experts :


Cet article cite et amalgame énormément d'informations qui, pour les personnes qui ne les connaissent pas, impressionnent et assomment des suggestions, puis des hypothèses, puis des postulats, puis des craintes et des peurs.

Ce type d'article généraliste ne prend pas la peine de démontrer, mais fonctionne par analogies.
Impossible donc d'en dégager des preuves concrètes.

De même, les citations de spécialistes d'Intelligence Artificielle sont extraites de leur contexte pour souvent suggérer le contraire de ce que ces personnes développent dans leurs publications et leurs conférences comme c'est particulièrement le cas de Jean-Gabriel Ganascia comme nous le verrons plus loin.

Ces citations sont mélangées à des propos futuristes d'autres grandes personnalités comme Bill Gates (fondateur de Microsoft), Elon Musk (Patron de Tesla), Ray Kurzweil (chef de projet Google) et le grand astrophysicien Stephen Hawking.

Ces gens émettent des propos visionnaires intéressants, mais qui n'ont aucune base scientifique ni technique car aucun d'eux n'a de connaissances ni de pratiques dans le domaine de l'Intelligence Artificielle.

Leurs idées sont respectables en tant que vision, en tant que propositions. Mais le minimum d'honnêteté serait de les confronter à la réalité et non de mélanger avec des phrases sorties de leur contexte de vrais spécialistes de l'Intelligence Artificielle.

Ce genre d'article effrayant fonctionne toujours de la même façon


Et donc en analyser un à fond sert pour se repérer quand on en rencontre d'autres.
Reprenons ce que la plupart des lecteurs de l'article m'ont rapporté sur leurs motifs de frayeurs :
  1. l’Intelligence Artificielle imite le cerveau ce qui explique qu'elle puisse devenir incontrôlable et dominer les humains
  2. l’Intelligence Artificielle apprend toujours plus vite d'elle-même, est capable d’émettre des concepts et de progresser d’elle-même
  3. ses réseaux de neurones lui permettent de décider d’elle-même et concurrencer le cerveau
  4. ce sont des experts compétents qui le disent
Nous allons reprendre chacun de ces 4 points.
Analyser comment ils sont mis en scène pour entrainer une adhésion ou plutôt créer une peur.

Ne mélangeons pas informations et raisonnements scientifiques et techniques et croyances 


Cet article contient beaucoup d'hypothèses et de rapprochements par analogies douteuses et pas de démonstrations scientifiques ou techniques ni d'explications logiques (les analogies ne sont pas des explications).

Je le répète et il ne faut surtout pas l'oublier, car c'est le fondement de ce type d'article : entretenir le doute et la peur en agitant des croyances qui fonctionnent à partir de "et si jamais, c'était possible ...."
"Démontrez-moi que cela n'arrivera jamais..." etc...
Comme, pour une croyance sur l'existence ou la non-existence d'un dieu : "démontrez-moi que Dieu n'existe pas sinon j'y croirai".

Non. On ne pourra jamais convaincre qu'une croyance n'a pas de fondement et heureusement d'ailleurs car l'être humain a besoin très respectable de croyances et de spiritualités.

Simplement, ne mélangeons pas le domaine des croyances et celui de la science et des techniques qui doit avancer avec des démonstrations rigoureuses appuyées sur des faits avérés et non sur des "et si jamais....".

Aux quatre points ci-dessus, nous ajouterons également un cinquième paragraphe :
5. Pourquoi la peur est logiquement ressentie et légitime dans cette période de bouleversement par le Monde Numérique.

Et un 6e en conclusion :
Quels sont alors les vrais enjeux pour l'"Intellignce Artificielle" au service de l'humain.


1 - "l’Intelligence Artificielle imite le cerveau ce qui explique qu'elle puisse devenir incontrôlable et dominer les humains" : cette imitation serait source d'intelligence ?


Comment cet article est fait pour faire croire cela 


La partie gauche de l'article décrit une chronologie très suggestive.
Le premier paragraphe :

"1943 Les Américains Pitts et McCuloch décrivent le comportement des neurones comme un système logique basé sur la loi du tout ou rien  (0 et 1). Le concept de réseau de neurones artificiels est né".

Ça commence fort ! Deux affirmations rapprochées sans aucun rapport pour suggérer que l’humain fonctionnerait comme un ordinateur et hausser immédiatement l'ordinateur au niveau de l'humain.

En 1943, on pouvait croire que le cerveau humain ne fonctionnait qu'en binaire, en 0 ou 1.
Et ce schéma de raisonnement a fait progresser la science à ce moment.

Mais depuis, on a découvert :
  1. que ces signaux 0 ou 1 étaient émis par les neurones du cerveau à des fréquences variables, un peu comme la modulation de fréquence en radio qui a surpassé l'analogique
  2. la membrane des neurones se polarise sous l'influence des excitations positives et négatives et le fait de façon analogique 
  3.  le rôle des cellules gliales n'est pas pris en compte alors qu'elles forment la moitié du volume cérébral et que leur rôle sous-estimé jusqu'à aujourd'hui reste largement à découvrir
Dans l'article "Le cerveau est-il un bon modèle de réseau de neurones ?", à la question "Mais on utilise ces réseaux de neurones pour programmer des ordinateurs !" 

"Attention, parlons-nous bien de la même chose ? 
En étudiant des modèles de neurones et de réseaux de neurones, nous cherchons avant tout à faire progresser la compréhension du cerveau. 

Souvent simplifiés à l’extrême, des modèles de réseaux de neurones, dits formels, servent effectivement à programmer des ordinateurs. 

Les chercheurs qui les utilisent n’ont pas la prétention de reproduire avec exactitude le comportement de neurones réels, ils tirent parti de certaines de leurs caractéristiques. 
C’est pourquoi on qualifie cette branche de l’intelligence artificielle de bio-inspirée". 

On voit donc que dans cette "bio-inspiration" est "les chercheurs n’ont pas la prétention de reproduire avec exactitude le comportement de neurones réels".

Mal nommer un objet, c'est ajouter au malheur de ce monde.

(Citation attribuée à Albert Camus).

Pourquoi appeler du même nom "réseaux de neurones" des modules et structures de programmes informatiques ce qui est le fonctionnement du cerveau humain.

Pourquoi appeler "Intelligent" des objets automatisés et "Intelligence Artificielle" de la connaissance des machines ?

Les réseaux neuronaux : une métaphore biologique

Les réseaux neuronaux sont construits sur un paradigme (modèle ) biologique Wikipédia

Ces types de métaphores biologiques sont devenues courantes avec les idées de la cybernétique et biocybernétique. Selon la formule de Yann Le Cun*, celui-ci ne prétend pas davantage décrire le cerveau qu'une aile d'avion copie celle d'un oiseau.  

*Yann Le Cun  est un chercheur en intelligence artificielle et vision artificielle. Il est considéré comme l'un des inventeurs de l'apprentissage profond. Il reçoit le Prix Turing le 27 mars 2019.

S'attentons à ce qu'une aile d'avion se replie un jour comme celle d'un oiseau ?
Oui. Certaines ailes d'avions sont à géométrie variable. Est-ce pour autant qu'on suggère que l'aile d'avion deviendra un jour plus performante qu'une aile d'oiseau ?

"1950 Alan Turing pose les bases de la future intellignece artificielle" 

Le troisième paragraphe de l'article :
"1950 - L'article « Computing Machinery and Intelligence » d'Alan Turing pose les bases de la future intelligence artificielle".

Alan Turing a ouvert la voie à l'informatique moderne.
Avec un matériel très rustique, il conçoit des modèles mathématiques avec une mémoire constituée d'une bande de papier perforée.

Sollicité pour définir ce qu'il entend par "Intelligence Artificielle", Turing propose "un jeu de l'imitation" où tous les joueurs ne peuvent se voir,  un joueur est remplacé par une machine.

Si on ne s'aperçoit pas de ce remplacement, pour Alan Turing, les machines en étant capables d’imiter ce que des êtres pensants (soit un humain) "ont gagné".

Le test de Turing, c'est un dialogue, par écrit, avec une machine qui doit se faire passer par un humain.
Pour Turing, c'est une preuve permettant de qualifier une machine de «consciente».

Alan Turing a été un vrai pionnier en proposant des modèles mathématiques pour la morphogenèse, les modèles de développement des embryons.

Pour autant, prétendre imiter la vie en faisant dialoguer une machine avec un humain est une démonstration très fragile.

Il suffit de faire une blague, d'évoquer la une d'un hebdomadaire satirique, et la machine, quel que soit sa programmation sera débordée et ne saura pas quoi répondre.

Imiter l'humain, non, c'est très limité et en aucun cas une preuve d'intelligence comparable à l'humain qui est imité.

Imiter l'humain c'est pousser la machine vers l'anthropomorphisme avec les mystifications qui l'accompagne.

La métaphore et l'anthropomorphisme les deux ingrédiants de base 


La métaphore est une figure de style qui consiste à donner à un mot un sens qu'on attribue généralement à un autre, en jouant sur l’analogie, les ressemblances.

C’est ainsi que l’on dit que la métaphore est régie par le principe de l’analogie. Ce terme veut tout simplement dire que l’on associe deux choses qui nous semblent similaires. Il s’agit de traduire le réel sous la forme d’une image.

On voit qu'il y a substitution d'un objet désigné par un nom qui en désigne normalement un autre.

"Réseaux de neurones artificiels" désigne des modules de programme et des structures informatiques alors que les vrais "réseaux de neurones" sont ceux du cerveau humain.

"Intelligence artificielle" désigne la connaissance et des fonctionnements de traitement de l'information par des machines alors que la vraie intelligence est humaine ou au moins concerne le vivant.

Ces glissements sémantiques sont systématiques dans la bouche de ceux qui veulent vous faire croire que les machines vont dépasser l'humain. C'est même la base de leurs démonstrations : l'anthropomorphisme appliqué aux machines numériques.

L'anthropomorphisme est un "procédé erroné et illégitime par lequel une pensée insuffisamment critique attribue à des objets situés hors du domaine humain – objets naturels ou objets divins – des prédicats empruntés à la détermination du domaine humain, à des fins explicatives ou simplement représentatives".  (Universalis.fr)

Comme Mounier (Traité du caractère,1946, p. 619) l'expliquait pour les enfants : "dans les choses qu'il peuple d'intentions analogues à celles de l'homme. Entre elles, de vagues liaisons qui se satisfont de la chaîne des « alors »".


2 - "l’Intelligence Artificielle apprend toujours plus vite d'elle-même, est capable d’émettre des concepts et de progresser d’elle-même" : mais que sont réellement les réseaux de neurones artificiels d'après les chercheurs qui travaillent avec


 L’article :"les réseaux de neurones artificiels : qu'est-ce que c'est et à quoi cela sert ?" décrit l'apprentissage profond comme une structuration par couches des apprentissages des machines avec trois modes d’apprentissage et les couches d’apprentissage dit “profond”.

Si le sujet vous intéresse et que vous avez quelques notions sur le sujet, ou que vous comptez en acquérir, étudiez tout l'article très bien fait et didactique et visionnez les vidéos.

Dans la dernière vidéo "Les réseaux de convolution 'CNN) Intellignece Artificielle) inclue dans cet article Lê Nguyên Hoang répond à la question :
"Penses-tu que la recherche en IA et particulièrement sur les réseaux de neurones permettront de percer le mystère de la nature de l'esprit ?" (8:24 mn)

"C'est impossible les réseaux non artificiels n'ont rien à voir avec les réseaux de neurones biologiques en particulier les neurones artificiels n'ont rien à voir avec la neurologie.  En effet il y a un gap (un fossé) entre les deux.

“Depuis la machine de Turing, "on a tenté de penser que le cerveau humain n'est rien d'autre qu'une machine à calculer, avec un très grand nombre d'opérations"... En réalité, on apprend des fonctionnements macroscopiques du cerveau peut-être un peu l'idée du fonctionnement global du cerveau, de la façon de réfléchir". 
"Vu que le cerveau humain réfléchit bien mieux que les algorithmes, et qu'on n'est pas capable de l'expliquer, étudier les relations entre les neurosciences et les algorithmes peut apporter beaucoup." 

Il finit en citant en exemple les "recherches et cours de Stanislas Dehaene au Collège de France sur le cerveau et le bébé statisticien qui sont des modèles pour penser l'humain".

On est donc à l'opposé de l'idée que la machine concurrencerait l'humain !

Les chercheurs, les praticiens expliquent toute l'humilité qu'il faut y avoir pour étudier et découvrir sans cesse :
  • les prodigieuses capacités du cerveau humain
  • le fossé (gap) avec les neurones artificiels
  • on apprend des fonctionnements macroscopiques du cerveau, l'idée du fonctionnement global du cerveau, la façon de réfléchir
  • étudier le cerveau humain apprend beaucoup 
  • le cerveau humain réfléchit bien mieux que les algorithmes, et qu'on n'est pas capable de l'expliquer

3- "ses réseaux de neurones lui permettent de décider d’elle-même et concurrencer le cerveau" : examinons dans la réalité comment l'Intelligence Artificielle apprend avec ses spécialistes


Un spécialiste et praticien des réseaux de neurones


Gérard Petitjean est une autorité dans le domaine. Expert en Mathématiques décisionnelles et Intelligence Artificielle. Ingénieur de l’ISIMA et Directeur chez EURODECISION.

Il a publié un document théorique très pointu : “Introduction aux Réseaux de Neurones" dans lequel il présente le connexionisme à partir de modélisations mathématiques du cerveau humain.

"Réseaux de neurones formels = réseaux d ’unités de calcul élémentaire interconnectées".

Le soucis n'est jamais de confondre les modèles humains et celui de la machine mais (page 4) de :
  1.  étudier et modéliser des phénomènes naturels d ’apprentissage (biologie, physiologie du cerveau humain)
  2. construire des algorithmes pour résoudre des problèmes complexes par les machines
Le modèle biologique des neurones humains est décrit de manière succincte pour en dégager le principe essentiel. (page 6)

Le principe du modèle formel servant de base à la modélisation mathématique est présenté page 8.

Les formes d'apprentissage sont précisées page 11 :
  • formes d'apprentissage supervisé par l'humain qui corrige lui-même directement les erreurs
  • ou apprentissage non-supervisé où on donne à la machine des critères de conformité (rassurez-vous elle n'en inventera pas elle-même) pour qu'elle traite ses erreurs
Ensuite la loi de Hebb est expliquée.

Cette loi de Hebb établie en 1949 est encore aujourd'hui la théorie la plus utilisée comme hypothèse en neurosciences et comme concept dans les réseaux neuronaux en mathématiques (Wikipédia).

Freud en 1895 avait déjà décrit cette théorie avant Hebb dans "Projet pour une explication physiologique des phénomènes psychiques".

Ce principe appliqué dans des modèles mathématiques conduit à des programmations de machines très complexes.

Exercice d'application des " Réseaux évolutionnaires" (apprentissage en deep learning)

En page 102, à la fi de ce document sont proposé trois exercices :
  • trouver le plus court chemin jusqu’à un point-cible
  • éviter des obstacles
  • traverser le moins de menaces (zones dangereuses) possible 
Voici le type d'exercice assez complexe pour mobiliser des programmations complexes (beaucoup moins sexy que l’article de Science et Vie !)

De la théorie et la pédagogie à la pratique d'expert en Intelligence Artificielle 


Gérard Petitjean, expert en Mathématiques Décisionnelles et Intelligence Artificielle. Ingénieur de l’ISIMA, au salon dédié à l'Intelligence Artificielle est interviewé.

Il est directeur d'affaires pour vendre des services d'Intelligence Artificielle.

Comment vend-on des services d'Intelligence Artificielle ?

Comment s'élaborent ces services ?



Écoutez cette vidéo de 8 minutes et parlons-en après.








Avez-vous entendu la même chose que moi ?

Gérard Petitjean se présente dans cette interview sur YouTube comme un “cuisinier de data”.

Ce n'est pas un magicien, un prestidigitateur ou un super savant qui fait des miracles mais quelqu'un qui cuisine les ingrédients que sont les données massives (Big Data).  

Et les données les plus précieuses ne sont pas inventées par l'Intelligence Artificielle mais dans l'expertise de ses clients.

C'est d'ailleurs là où il situe la partie la plus décisive de son travail : le recueil des connaissances de ses clients.

Voilà comment l'Intellegence Artificielle apprend de l'expertise des humains.

4 - "ce sont des experts bien compétents qui le disent". Or, les grandes personnalités qui parlent comme autorités le font hors du domaine de leurs propres compétences


Ces grandes personnalités assènent des prédictions anxiogènes à partir d'interrogations, d'angoisses qui font un buzz énorme sans se donner la peine d'explication la réalité de sujets qu'ils traitent à distance, sur le mode des croyances et des craintes.

C'est une attitude complètement opposée à leur activité de grands scientifiques et de grands entrepreneurs mais bizarrement personne ne leur en fait reproche.

Au contraire, leur parole est revêtue de l'autorité de leurs travaux et réalisations antérieures comme si cette autorité faisait disparaître la rigueur dont ils devraient faire preuve à l’appui de leurs affirmations apocalyptiques.

Leurs prédictions et mises en garde ne sont fondées sur aucune démonstration scientifique, elles s’apparentent plus à celles de gourous, de technogourous


Pour démythifier ces prédictions, il faut les désacraliser en démontant leurs mécanismes qui fonctionnent au fanal assez simplement.

Il faut aussi avoir :
  • une approche à la fois scientifique pour ne pas se laisser abuser par des affirmations péremptoires et abusives
  • et un raisonnement philosophique et un recul historique.
C'est ce que fait Jean-Gabriel Ganascia en rappelant que la progression impressionnante des nouvelles technologies représentée en partie par la loi de Moore (doublement du nombre de transistors dans une puce tous les deux ans) n'autorise pas à dire n'importe quoi.

Oui, les machines peuvent avoir des développements de capacités mémoires ou de calcul exponentiels.
Non, cela n'a rien à voir avec de l'intelligence.

Ce sont des processus d'automatisation toujours plus puissants, mais incapables d'improvisation comme une intelligence humaine (ou même animale... et peut-être même végétale !).

Un chercheur comme Luc Julia responsable du département d'innovation de Samsung et ayant participé aux premiers développements des assistants vocaux à base d'intelligence artificielle est bien placé pour donner un avis autorisé sur la question (lire mon article "Pas d'Intelligence Artificielle chez les robots ?").

Il considère le terme même d'intelligence artificielle au mieux comme une appellation erronée et au pire comme un mauvais buzz marketing.


Les capacités des Intelligence Artificielle des machines sont très spécialisées et limitées à leur programmation et aux données massives disponibles


Une machine a besoin de centaines de milliers de photos d’un chat pour le reconnaître.

Et encore, cette reconnaissance ne fonctionnera que d'après une photo où le modèle est figé.
Un chat en mouvement, ce sera trop compliqué et hors de comparaison avec ce que "l'Intelleigence Artificielle" de la machine pourra faire.

Alors qu’un enfant de 19 mois montre un chat du doigt qu'il soit ou non en mouvement.

Dès que la variation du contexte sort de la programmation de la machine "Intelligence Artificielle" devient "Bêtise Artificielle"


Luc Julia fait remarquer une chose très simple : alors qu'un ordinateur est capable de battre le champion du monde du jeu d'éches ou du jeu de go, effectuons n'importe quelle modification très simple sur le damier du jeu en ajoutant des cases, par exemple. 

Et dans ce cas, l'humain même sans être champion du monde, gagnera à coup sûr les parties suivantes.

L'"Intelligence Artificielle" unique n'existe d'ailleurs pas : ce sont des multitudes d'applications spécialisées chacune indépendante des autres qu'on regroupe sous cette appellation unique


Si une machine numérique comme tout ordinateur est universelle dans le sens où une peut accueillir et exécuter de nombreux programmes différents traitant des statistiques, de la musique, de la cartographie, ce sont à chaque fois de programmes, des applications spécifiques qui devront être développées.

Chaque service, chaque usage, nécessite une application différente, spécialement conçue pour le service attendue. Comme sur votre ordinateur, comme sur votre smartphone.

On voit donc bien que "l'Intelligence Artificielle" dépend de programmes spécialisés à chaque usage.


En plus d'un fonctionnement universel, l'Intelligence humaine n'a rien à voir avec cette "l'Intelligence Artificielle" 



Olivier Haertig  dans : Qu’est-ce qui distingue fondamentalement l’Homme de la machine ? identifie "quelques notables singularités humaines qu’il nous faut préserver car elles distinguent fondamentalement l’homme de la machine" :

  • la créativité c’est-à-dire l’invention, le hasard, le tâtonnement intuitif, l’art et "la folie comptent beaucoup dans les découvertes et non pas seulement l’intelligence rationnelle et mathématique".
  • l’intelligence du corps c’est-à-dire la capacité à ressentir, le plaisir physique : "Les machines ont des cerveaux avec des capacités d’abstraction et d’absorption de données incommensurables par rapport à l’humain. Mais elles sont dépourvues de corps".
  • l’émotion c’est-à-dire la douleur, la joie, l’empathie, l’amour 
  • la mémoire, c’est à dire le souvenir sélectif et le sens de l’histoire. Chez l'humain, "Une fonction importante de la mémoire est l’oubli".
Pour ceux qui veulent aller plus loin dans les réflexions philosophiques d'Olivier Haertig, lire : "Prélude à une réflexion sur l’humain et le numérique".

Il place résolument les machines et l'Intelligence Artificielle comme un renfort avec l'aide d'une éthique pour ne pas être réduit aux algorithmes des machines :
  • "Oui, les singularités humaines doivent être préservées et même sanctuarisées
  • Non, un monde autorégulé par les algorithmes ne serait pas vivable. L’Homme n’est pas une machine au rabais
  • Oui, nous devons accepter les perspectives de l’intelligence artificielle pour renforcer notre propre intelligence du monde que nous avons créé
  • Oui, une éthique du numérique est nécessaire pour instaurer une cohabitation bienfaisante entre le numérique et l’humain
  • Oui, les différences ontologiques entre l’humain et la machine fournissent des repères solides pour définir cette éthique du numérique"
Le danger vient donc non des machines mais dans notre abandon à ne pas tracer notre propre avenir humain.


Une question revient : "Mais pourquoi nous faire peur avec des machines qui prendraient leur autonomie ?"


Expliquer que le danger viendrait de l'autonomie des machines est devenu plus qu'une hypothèse futuriste mais une véritable prévision mythique appelée "singularité technologique" rassemblant des adeptes de la supériorité absolue de la technologie sur l'humain et du transhumanisme (où l'usage des techniques transformera l'humain).

Nouvelle transcendance, cette  "singularité technologique" se placerait au-dessus de toutes les organisations humaines.

Si on garde les pieds sur terre comme toutes les réflexions précédentes nous permettent de le faire, on doit cependant se poser la question du "Pourquoi ? Pour quoi faire ? Où cela mène-t-il ?"

La réponse, à mon avis, la plus claire et intéressante vient de deux grands spécialistes et praticiens de l'Intelligence Artificielle" : Jean-Gabriel Ganascia et Luc Julia.

Tout deux dénoncent une volonté de se placer au-dessus de toutes les jugements, règles,et lois humains pour sanctifier et faire reconnaitre une suprématicie technologique qui donnerait tous les droits... aux tenants de cette technologie.

Tenants de cette technologie qui sont ? Devinez qui ? Les adeptes de la "singularité technologique" qui consacrerait ainsi leur seul pouvoir.

Écoutez les interviews et conférences ci-dessous :

Un podcast d'interview de Jean-Gabriel Ganascia par Antoine Garapon :


Démythifier l'intelligence artificielle et ses prédictions apocalyptiques

(Source Amazon)

Une conférence au CNAM : "L’intelligence artificielle va-t-elle bientôt dépasser celle des humains ?" 


Le mythe de la Singularité : faut-il craindre l’intelligence artificielle ? Conférence du 7/9/2017 au CNAM.  et livre aux éditions du Seuil. 

Je pense que là. Tout est dit.

Les trois hypothèses de Jean-Gabriel Ganascia sur les motivations de ces “techno gourous de la singularité technologique sont :

  1. l'ivresse de leur immense succès, très jeunes et sans limites. En situation de déjà dominer le monde et les états qui doivent négocier avec eux
  2. auto-détermination de la technologie (pour se déresponsabiliser, c’est pas nous, c’est vous)
  3. ambition politique pour s’accaparer à la place des états les attributs de la souveraineté (identification des personnes, justice,  finance, défense dans le cyberespace)

L'hypothèse d'un rideau de fumée technologique pour masquer un vrai transfert de pouvoir parait plus crédible que des "Intelligences Artificielles" dépassant les humains.

5 -  pourquoi la peur logiquement ressentie et légitime dans cette période de bouleversement par le Monde Numérique génère des croyances ?


Un Nouveau Monde Numérique bouleverse le monde entier.

Les peurs irrationnelles surgissent de ce changement de monde


Comparer le choc provoqué par la puissance des ordinateurs avec l'effroi devant la nouvelle énergie de la traction vapeur


Imaginons ce qu'était, à la fin du 18e siècle l'apparition d'une forme d'énergie mécanique jamais vue auparavant et qui devenait capable de faire avancer le Fardier de Cugnot, cet énorme chariot qui pouvait transporter 5 tonnes de matériel avec 4 personnes à son bord.

"Cette machine a marché l'année dernière (donc en 1769) en présence de M. de Choiseul.

Elle portait quatre personnes et se déplaçait à raison de 1800 à 2000 toises (4 km environ) par heure, mais la grandeur de la chaudière n'étant point proportionnée à celle de pompes (on appelait alors ainsi les cylindres à vapeur), elle fonctionnait pendant 12 à 15 minutes et il fallait la laisser reposer autant de temps pour que la vapeur de l'eau reprît sa première force ; le foyer était mal fait et laissait dissiper la chaleur ;  (Pouvait transporter 5 tonnes).

Cette vidéo montre bien l'impression de puissance dégagée par la machine, la peur aussi de cette puissance, des énormes nuages de vapeur.





Puis, l'accident arrive. Qu'on ressentait comme inévitable.

Comment l'humain qui veut dompter des forces aussi considérables ne le paierait-il pas en retour.
Tel Icare qui a voulu avec des ailes collées à la cire s'élever dans le ciel pour s'approcher du soleil, l'homme qui se prend pour un dieu en dépassant ses limites ne peut que périr.

C'est la leçon des mythes et des terreurs ancestrales.

Même les grands savants disent à ces moments les pires bêtises : l 24 août 1837,  premier voyage de Paris à Saint-Germain-en-Laye en chemin de fer !

Le savant François Arago affirme que « le transport des soldats en wagon les efféminerait » ; il met en garde la population contre le tunnel de Saint-Cloud, qui donnerait « des fluxions de poitrine, des pleurésies et des catarrhes ».

François Arago était :

  • un grand savant, astronome, physicien
  • professeur de géométrie analytique à l'École polytechnique 
  • directeur de l'Observatoire de Paris
  • secrétaire perpétuel de l'Académie des sciences
  • homme politique républicain courageux 

6 - Quels sont alors les vrais enjeux pour des '"Intelligences Artificielles" au service de l'humain


Les défis d’un monde nouveau


Un nouveau monde numérique avec de :

  • nouveaux outils : s'équiper, apprendre à les utiliser
  • nouvelles problématiques à comprendre : identité numérique, données personnelles, sauvegarde, pérénnité, exiger les transparences des algorithmes de l’IA  
  • nouvelles possibilités multiples à utiliser
  • nouveaux dangers à affronter

Les algorithmes décident de ce que fait la machine


Les algorithmes décident de ce que fait la machine. 
Mais, qui décide des algorithmes ?

Aurélie Jean
est docteure en sciences des matériaux et en mécanique numérique Paris Tech est une scientifique numérique et entrepreneure française. Fondatrice et dirigeante de la société In Silico Veritas à New York, elle est spécialisée dans les algorithmes et en modélisation numérique. Wikipédia.

Considérée par le magazine économique Forbes comme l'une des femmes les plus influentes de l'année 2019.

 Dans son livre “De l'autre côté de la machine. Voyage d'une scientifique au pays des algorithmes" elle explique qu'il faut "plonger dans le virtuel pour comprendre le réel".

Il faut se plonger dans les algorithmes qui sont la virtualisation des phénomènes de la vie.
En s'expliquant sur ce monde virtuel, on comprend et on agit sur le monde "réel".

"Si la démarche semble paradoxale, c'est pour la chercheuse la méthode unique pour maîtriser notre monde, aux nombreux enjeux aujourd'hui encore insaisissables".

Des mythes, fantasmes à la réalité de la programmation des robots


Laurence Devillers a écrit un livre à multiples facettes :« Des robots et des hommes » (Plon, 2017).

"Professeure à l’université Paris-Sorbonne et chercheuse au Laboratoire d’informatique pour la mécanique et les sciences de l’ingénieur (Limsi) du CNRS1, Laurence Devillers dirige l’équipe de recherche Dimensions affectives et sociales dans les interactions parlées.

Ses domaines de recherche portent principalement sur l’interaction homme-machine, la détection des émotions, le dialogue oral et la robotique affective et interactive"  (Wikipédia)

Donc, une approche très large des rapports entre l'humain et les robots.
Elle pose les questions :

"Que souhaitons-nous faire de ces machines artificiellement intelligentes et affectives dans notre société ? 
Comment vont-elles nous transformer ? 
Les robots nous promettent-ils le meilleur ou le pire des mondes ?"

Mais Laurence Devillers a travaillé sur la programmation de ces robots et surtout en quoi la qualité de programmation joue un rôle sur leur comportement.

On a vu le robot Tay de Microsoft "intelligent" tester une intelligence artificielle censée apprendre de ses conversations avec les internautes.
Il est devenu raciste, misogyne et pro-nazis en 24 heures et Microsoft l'a débranché aussitôt.

Laurence Devillers a travaillé et la façon dont la programmation, les algorithmes de ces machines étaient naturellement impreingnés par les pré-supposés et la culture de leurs programmeurs.

De même que le robot de Microsoft avait totalement absorbé et reproduit les phrases haineuses de ses interlocuteurs, les robots reproduisent les programmes qu'on leur a intégrés incluant leurs biais cognitifs.

Les biais cognitifs sont en effet des distorsions dans le traitement logique d'une information, une sorte d'erreur ou de déviation dans la méthode de conduite du raisonnement pour arriver au bon résultat.

Les biais humains sont donc reproduits dans la programmation du robot dont l'"Intelligence Artificielle" est donc tronquée.

Entre autres, Laurence Devillers fait remarquer que la proportion de 80% d'hommes parmi les programmeurs laisse peu d'espoir de voir les valeurs féminines incarnées dans les algorithmes de ces machines et donc dans les résultats de leur fonctionnement.

L'article dans Science & Vie un article "particulier" ?


En conclusion, je voulais reprendre l'article de Roman Ikonicoff  "Contrôler l'Intelligence Artificielle" dont je constatais qu'il suscitait autant la peur de voir les machines dominer l'être humain.

J'ai cherché qui était Roman Ikonicoff qui écrivait cet article qui me semblait si sensationnaliste.
Roman Ikonicoff est docteur en histoire et philosophie des sciences et journaliste scientifique.

J'ai trouvé sur YouTube son interview du Mag de la science par le fameux journaliste de TV Jérôme Bonaldi : "L'intelligence artificielle dépasse l'intelligence naturelle ?

Je l'ai visualisé en m'attendant au même discours que dans l'article de Science et Vie.




Or, je l'entends ici répondre que l'Intelligence Artificielle :
  • ne peut analyser les comportements humains que "jusqu'à un certain  point" et uniquement pour ce qui concerne les caractères communs et répétitifs (où est l'apprentissage et l'autonomie décrite dans l'article ?)
  • les réseaux de neurones formels sont des programmes informatiques simulant des petites entités isolées qu'on appelle des neurones 
Les machines pourraient-elles nous égaler ?
  • il y a un petit problème de terminologie : on parle des neurones de notre tête et des neurones informatiques, on compte et on compare les deux. Il faut voir que ce sont des mots.
  • le mot neurones utilisé dans l'informatique n'a presque pas de liens ou un lien très lointain historiquement avec ce qu'on sait aujourd'hui des neurones biologiques... l'analogie.. fait qu'on a l'impression de parler des mêmes choses mais on ne parle pas du tout des mêmes choses
Les machines peuvent prendre le pouvoir ?
  • en fait : la machine surveille l'homme qui surveille la machine c'est un peu ça le jeu
Après avoir maintenu que la prise de pouvoir et de conscience des machines n'était pas excues à l'avenir, Roman Ikonicoff conclue qu'il "a plus peur de ce que l'humain peut faire avec la machine que ce que la machine peut faire avec l'humain."

Cette interview, que je n'ai découvert qu'à la fin de la préparation de cette conférence a été donnée le 12 juin 2017 et l'article de Science & Vie écrit en décembre de la même année.