Les films comme Terminator ont popularisé cette peur.
Si la planète des Singes n'a fait croire à personne que les singes pourraient un jour nous dominer, il n'en n'est pas de même pour les machines et les robots.
Les progressions impressionnantes de leurs capacités et les chamboulements qu'ils provoquent dans la société ont effectivement de quoi inquiéter.
Mais qu'en est-il réellement ?
Quelles qualités sont propres à ces machines ? Dépassent-elles les capacités humaines ?
Oui. Indéniablement, les machines sont plus performantes que les humains.
Mais, est-ce bien nouveau ?
L'automobile, depuis longtemps, ne dépasse-t-elle pas l'humain en vitesse et en endurance ?
Elle n'effraie plus aujourd'hui malgré le nombre incroyable de morts qu'elle a causé depuis son invention. Elle est maintenant intégrée avec ses qualités et ses défauts dans la vie quotidienne même si sa place peut être contestée et modifiée.
Le robot remplace l'homme ? Cauchemar crédible ?
Le mot "robot" est bourré de fantasmes de science-fiction.
Il part du postulat anthropomorphique d'une capacité polyvalente et universelle comme celle de l'humain. Elle sous-entend que le robot est un homme en développement dont l'accroissement des possibilités deviendrait évidemment menaçant.
En fait, chaque machine est bien plus spécialisée que voudrait le faire croire une vision anthropomorphique du robot polyvalent.
Le robot universel n’existe pas et n'est pas près d'exister.
Même les machines les plus performantes devraient être plutôt vues comme des outils que comme des copies d’humains.
Un algorithme est-il plus fiable qu'un humain ? est-il sûr à 100% ?
D'où vient le danger ?
Les pannes de matériel non seulement sont très rares, mais elles peuvent être compensées par l'algorithme pourvu que la machine ait été équipée de matériel redondant (en double).
L'algorithme comme tout automatisme est très fiable. Bien plus qu'un être humain.
Mais c'est dans son développement "apprenant", dans les nouvelles configurations et les extrapolations qu'il fait que les erreurs peuvent se produisent.
Les voitures autonomes aujourd'hui sont déjà bien plus fiables que les humains.
Elles auraient beaucoup moins d'accidents qu'eux.
Par contre, les erreurs qu'elles font sont très différentes de celles des humains.
La plupart des accidents des humains sont créés par des pertes d'attention ou des comportements à risque. Ce que jamais une machine ne ferait.
Par contre la machine peut être prise de cours par une situation nouvelle qu'elle ne "comprend" pas.
Mais les autres dangers bien plus nombreux et conséquents des algorithmes et de l'Intelligence Artificielle proviennent de l'utilisation qui en est faite. Et là, ce sont des décisions et des intérêts humains qui sont à l'origine des décisions.
Comment définir un algorithme "bon" et un algorithme "mauvais" ?
Un algorithme bon est celui qui apporte le résultat attendu.
Peut-on vraiment adopter cette définition ?
Le résultat attendu pour certaines personnes sera-t-il le même que celui attendu pour d'autres ?
Et puis, si le résultat est différent de celui qu'on attend doit-on pour autant le rejeter ou s'en servir pour découvrir de nouvelles problématiques ?
On voit donc que définir un algorithme bon est impossible sans subjectivité humaine.
Subjectivité qu'il faut assumer : en bien comme en mal.
L'Intelligence Artificielle apprend en "bien" et en "mal"
L'Intelligence Artificielle Tay de Microsoft a vécu une expérience mémorable : "Malheureusement, dans les 24 premières heures où elle était en ligne, nous avons constaté un effort coordonné par certains utilisateurs pour maltraiter Tay et son habilité à communiquer afin qu’elle réponde de manière inappropriée », s’est excusé Microsoft dans un communiqué."
(Microsoft débranche son robot intelligent devenu raciste et pro-nazis en 24 heures)
Raciste, misogyne, pro-nazis, le robot qui adore les humains a été retourné en 24 heures pour adopter le discours le plus haineux.
Toute caricaturale qu'elle soit cette expérience en grandeur réelle donne à réfléchir.
On ne peut pas faire n'importe quoi.
Des chercheurs veulent faire apprendre à des robots par imitation de l'humain et leur insuffler du "bon sens"
Ils s'inspirent de la façon d'apprendre à un enfant la façon d'empiler des cubes.
Le robot équipé d'une camera reconnaîtra les cubes.
(Il a appris à reconnaître préalablement des dizaines de milliers de cubes)
Une deuxième couche d’Intelligence Artificielle analysera leur position et comment les saisir pour les positionner comme il le faut.
L'expérimentation consiste à montrer une seule fois au robot comment empiler les cubes.
Ensuite, le robot assimile la démonstration et l'interprète pour refaire lui-même la tâche avec des dispositions différentes des objets.
Ces recherches sont faites dans le centre OpenAI d'Elon Musk où "ces chercheurs ont appris à un robot à empiler des cubes… en lui montrant, comme à un enfant"
Des chercheurs du MIT, eux "essaient d'inculquer le bon sens aux voitures autonomes".
En constatant que l'apprentissage par l'expérience (le deep learning) permet d'accumuler beaucoup de connaissances, mais jamais assez pour prévoir l'imprévisible.
Alors qu'un humain devine l'apparition de problème comme l'approche d'une voiture qui s'insère dans un flux de circulation ou un camion qui coupe des voies de circulation (Crash mortel: Mais comment les capteurs de Tesla ont-ils pu rater un semi-remorque ?), l'Intelligence Artificielle d'une voiture autonome peut ne pas les voir ni même se douter que cela puisse arriver.
Pour anticiper, les chercheurs veulent ajouter des raisonnements probabilistes à la machine.