Quand l’intelligence artificielle rencontre la bêtise humaine

Charlie Hebdo – 11/04/2018 – Antonio Fischetti –
Plus la machine avance, plus l’homme recule. De nouvelle questions éthiques se posent avec le développement des armes dites « autonomes », qui peuvent prendre toutes seules la « décision » de tuer.
Je ne sais pas s’il est moins désagréable d’être tué par une machine ou par un être humain. Pour cela qui en fait les frais, ça ne change sûrement pas grand chose. Mais globalement, on peut se demander de quelle manière l’art de la guerre sera modifié par l’invasion de l’intelligence artificielle (si tant est que l’on puisse associer le mot intelligence à une action meurtrière). C’est la question que pose le développement de ce que l’on appelle les « robots » tueurs », ou, dans un langage plus officiel, les Sala, pour « systèmes d’armes létales autonomes ». pour l’instant, il ne semble pas qu’elles soient déjà utilisées sur le terrain, mais c’est en bonne voie.

Il existe déjà des machines tueuses, par exemple des drones équipés de caméras de télévision, mais c’est c’est toujours à un être humain, même situé à des milliers de kilomètres, que revient la décision d’appuyer sur la détente. La Corée du Sud dispose aussi de robots placés le long de sa frontière avec son voisin de Nord : ils sont capables de détecter une présence humaine et de l’arroser de balles ou de grenades, mais là encore, c’est un soldat derrière son écran de contrôle qui décide de tirer.  Avec les sala, c’est différent, puisque ces armes sont programmées pour tuer toutes seules, sans intervention humaine. Dans l’exemple précédent, il suffit ‘équiper le robot d’un détecteur de mouvement et de le programmer pour déclenche sa mitrailleuse au moindre mouvement.

« Je désobéis, va te faire foutre »
Plusieurs scientifiques, personnalités ou organisations (comme l’ONG Campaign to Stop Killer Robots) ont demandé l’interdiction des Sala. C’est vrai qu’i y a des règles dans l’art de trucider son prochain. Une machine, même dite « intelligente », cela reste toujours un peu con.  Pourtant, quand on y réfléchit, une machine tueuse pourrait s’avérer plus éthique qu’un soldat humain. Elle ne va pas se mettre en colère, péter les plombs ou se bourrer la gueule.  Elle se limitera à ce pourquoi elle a été programmée. On peut, par exemple, lui apprendre à ne jamais tirer sur un enfant (il est facile, par la taille, à distinguer d’un adulte, sauf s’il s’agit d’un nain) ou dans le dos d’un manifestant (ce que ne font pas les soldats israéliens comme on l’a vue encore récemment à Gaza).
Cependant il y a d’autres cas où les sala peuvent gravement contrevenir à l’éthique militaire, comme le souligne Jean-Gabriel Ganascia, chercheur en intelligence artificielle : « Il y a deux règles principales dans la guerre. Savoir différencier les civils des militaires. Mais ce n’est pas évident de faire la différence entre un militaire désarmé et un civil qui prend part au combat. L’autre règle est d’avoir une réponse proportionnée à la menace, ce qu’une machine se saura pas forcément apprécier. » On peut apprendre à un robot à distinguer un lance-pierres d’un lance-roquettes, mais s’il ne dispose que d’une mitrailleuse dans son équipement, il ne fera certes pas la nuance.
Si l’on veut absolument fabriquer des robots-soldats, la moindre des choses serait de leur imposer d’obéir aux lois militaires. Et il se trouve que parmi ces lois, il y a le devoir de désobéissance qui stipule que  :« le subordonné doit refuser d’exécuter un ordre prescrivant d’accomplir un acte  manifestement illégal » (Bulletin officiel des armées – décembre 2005). On pourrait donc apprendre à une machine de désobéir à un ordre. De la même façon que la commande vocale de mon téléphone me répond « mais pourquoi est-il si méchant » que je lui dis « connard« , on pourrait apprendre à un robot tueur à reconnaître un ordre illégal et à y répondre par un « je désobéis, va te faire foutre« . Quad les robots-tueurs seront programmés pour être capables de se mutiner, à ce moment-là seulement, on pourra parler d »‘armes intelligentes ».

Le propre de la machine
A la question « quelle est la différence entre une machine et un être humain ? », la réponse n’a pas cesser d’évoluer. On a commencé par dire que les machines ne pouvaient effectuer que des tâches répétitives et qu’elles étaient incapables de s’adapter à de nouvelles situations. Mais ce critère est devenu caduc depuis la fabrication de voitures sans pilotes et d’ordinateurs champions d’échecs ou de jeu de go. On a également dit que la création artistique était le propre de l’homme. pourtant il existe aujourd’hui des musiques et des poèmes produits pas des logiciels.
On a ensuite prétendu que la spécificité humaine résidait dans les interactions sociales. Jusqu’à ce que l’on fabrique des machines capables de reconnaître les émotions de la voix ou les expressions du visage, et de réagir en conséquence. Les robots seront bientôt plus aimables que certains humains ! Il est difficile de dire ce qu’une machine ne pourra pas faire, mais on pourra être certain qu’il y a une chose qu’elle pourra toujours produire : des chômeurs. En effet, le Conseil d’orientation pour l’emploi a estimé que 10 % des emplois seront menacés de disparition et 50 % seront potentiellement automatisés par l »intelligence artificielle. Il vaut mieux parfois que les machines restent bêtes mais au service de l’homme, plutôt qu’elles deviennent intelligentes pour lui piquer son boulot.

A propos werdna01

Hors des paradigmes anciens et obsolètes, libérer la parole à propos de la domination et de l’avidité dans les domaines de la politique, de la religion, de l’économie, de l’éducation et de la guérison, étant donné que tout cela est devenu commercial. Notre idée est que ces domaines manquent de générosité et de collaboration.
Cet article, publié dans Défense, Science, est tagué , . Ajoutez ce permalien à vos favoris.