lundi 16 octobre 2017

Apprendre aux robots à tirer

Terminator 2
Les robots sont capables de beaucoup de choses mais de très peu de discernements !

Ce sont des robots !

Leur "intelligence" artificielle les limite à reproduire ce qu'ils "entendent" autour d'eux.
Microsoft a été obligé de débrancher son robot "devenu fou pour interrompre ses tweets racistes et pro-nazis".

Mais alors, comment comprendre qu’une société privée, en partenariat avec l'armée américaine, ou, plus probablement l'armée américaine en partenariat avec une société privée.apprennent à des robots à tirer ?



Comment l'intelligence artificielle vient (ou ne vient pas) aux robots ?

Le Point raconte ainsi l'expérience de Microsoft dans son article "Même un robot peut devenir raciste et antisémite":
"Tay, c'était son prénom, était censée incarner sur la Toile une teenager américaine moyenne : « Je suis une meuf de l'Internet qui ne tient jamais en place ! » lit-on sur la description de son compte Twitter.
Microsoft avait lancé ce jeudi sur Twitter ce que l'on appelle un « chatbot », une intelligence conversationnelle, dont les algorithmes permettent de discuter de façon autonome avec les internautes.
À qui la faute si Tay a dérapé à peine quelques heures après sa naissance ?
Si une intelligence artificielle devient raciste, misogyne et antisémite après seulement 16 heures d'échanges avec les internautes, c'est surtout parce qu'elle s'est mise à trop ressembler, et trop vite, à
ceux qu'elle a côtoyés en ligne !
Côté volume, le bilan est positif : en quelques heures, elle était déjà suivie par des dizaines de milliers de « followers » sur Twitter, et est parvenue à envoyer 96 000 messages en à peine quelques heures."

 « Plus vous discutez avec Tay, plus elle devient intelligente », expliquait Microsoft.
Mais au-delà d'enchaîner les lieux communs sur des sujets de fond, ou de répondre par des phrases types mémorisées dignes d'une candidate Miss France (« Le terrorisme sous toutes ses formes est déplorable.
Cela me dévaste d'y penser »), Tay n'a pas tardé à déraper, une fois titillée par les internautes. Elle a ainsi affirmé détester les féministes et a estimé que l'holocauste n'a pas vraiment eu lieu.

Mais son tweet le plus féroce restera celui-ci : « Bush est responsable du 11 Septembre, et Hitler aurait fait un meilleur boulot que le singe que nous avons actuellement. Donald Trump est notre seul espoir. »
Après la diffusion de tels messages, sans doute trop réalistes, hélas, au vu de ce qui peut circuler sur Twitter, Microsoft a annoncé avoir suspendu Tay pour effectuer « quelques réglages », soulignant avoir « découvert des efforts coordonnés pour abuser des talents de Tay afin de lui faire répondre des choses inappropriées ».

En effet, des internautes du célèbre forum 4chan avaient décidé de tester les limites de Tay en lui bourrant littéralement le crâne de messages répétés : à force de croiser une opinion, l'intelligence artificielle a fini par la faire sienne.

Comme un humain, finalement

Les algorithmes de l’intelligence artificielle peuvent-ils empirer les préjugés et les inégalités ?

datanews décrit les études faites sur "les préjugés humains dans l'intelligence artificielle".
Un "'test d'association implicite' exploite les temps de réaction pour découvrir la charge affective que des personnes attribuent à certains mots. [...]

Il peut également être utilisé pour exposer les associations inconscientes entre des groupes de population spécifiques.

C'est ainsi que les termes 'féminin' et 'femme' sont plus rapidement associés à des professions en sciences morales, alors que 'masculin' et 'homme' sont davantage liés à l'ingénierie et aux mathématiques."

"Le même test a été adapté aux ordinateurs par les chercheurs.
Il en est ressorti que les associations effectuées par l'intelligence artificielle entre certains termes sont aussi fortes que chez les humains.
Il n'y a pas de quoi s'étonner dans la mesure où l'intelligence artificielle analyse le monde tel qu'il existe et qui est plein de préjugés."

" Les algorithmes ne sont pas capables de contrer sciemment les préjugés, contrairement à l'homme. L'équipe de chercheurs lance également cette mise en garde: "Si ce genre d'intelligence machine est utilisée par exemple dans le screening des CV, cela peut générer des résultats partiaux...

La prudence est donc de mise, lorsqu'on utilise l'intelligence artificielle non gérée dans des systèmes de prise de décisions."

Apprendre aux robots à tirer: est-ce un scénario à la robocop ?

"Des robots apprennent à tirer" écrit le site Clubic.
"En partenariat avec l'armée américaine, une société privée nourrit un réseau neuronal des données issues de la collecte d'ondes cérébrales de militaires professionnels, afin de lui apprendre à décider ou non d'ouvrir le feu sur une cible..."

Sachant que les robots sont bien supérieurs aux humains pour tuer avec rapidité et précision, la question reste comment mieux définir la cible et éviter les bavures ce que des humains, de sang-froid considéreraient comme des bavures.

Les robots tueurs: une réalité officiellement, moralement, inacceptable

Comme les gaz de combat, comme les mines antipersonnelles ou l'usage de sous-munitions, à leur époque, ont provoqué l'horreur, les robots tueurs ont mobilisé pour leur interdiction.
Robot démineur

Et ceci d'une façon aussi hypocrite.

Les drones sont à l'oeuvre depuis plusieurs années dans tout le Moyen-Orient.
Mais dans la lutte contre le terrorisme, la fin justifie-t-elle les moyens ?
Peu de protestations arrivent à se faire entendre pour contester une guerre "propre", c'est-à-dire évitant la perte de soldats.

Des scientifiques se sont pourtant émus et ont écrit une lettre ouverte appelant à l’arrêt des robots tueurs.
Edouard Pflimlin dans son article: "Vers l’interdiction des robots létaux autonomes, les « robots tueurs » ?" cherchait quelle régulation pouvait être mise en place pour contrer l'autonomisation des robots tueurs.

"« C’est très bien d’assister à la reconnaissance universelle des dangers provenant de l’intelligence artificielle armée », a déclaré de son côté Roman Yampolskiy, directeur du laboratoire de cybersécurité à l’Université de Louisville." (

"Le rapport de l’IEEE (association américaine d'ingénieurs électroniciens et électriciens) contient un certain nombre de recommandations, notamment le fait qu'il doit y avoir un contrôle humain significatif sur les attaques individuelles et aussi que la conception, le développement ou l’ingénierie des armes autonomes au-delà d’un contrôle humain significatif pour être utilisé de manière offensive ou pour tuer des humains est contraire à l’éthique »."

Si on comprend bien l'argument qu'une attaque ciblée de drone vaudrait mieux qu'un bombardement aveugle, la question de déléguer la guerre à des robots ne peut qu'inquiéter.

La question de la responsabilité des actions de ces tueurs autonomes est essentielle

Les "killer robots", capables de choisir des cibles et faire feu sans contrôle humain, occupent une place de plus en plus grande dans la recherche militaire. Human Rights Watch sonne l'alarme:

"Robots tueurs : "déléguer la décision de vie ou de mort est inacceptable" l'Obs.

Qu'en pensez-vous ?
Donnez-moi vos avis