L’avion autonome X-47L’avion autonome X-47B de l’armée américaine. (DR) |
Robots mortiferos - que limites?
Bannir à tout prix les «robots
tueurs»
Le déploiement d’armes autonomes dans les zones de conflits est imminent.
Les experts en intelligence artifielle se mobilisent, ils ont lancé
officiellement lundi une lettre ouverte pour bannir les robots tueurs
A Bueno Aires, la grande conférence internationale de la recherche sur
l’intelligence artificielle (IJCAI 2015 en anglais) a
été inaugurée lundi au son d’un cri d’alarme. Des centaines de chercheurs en
robotique et intelligence artificielle (IA) venant du monde entier et soutenus
par des sommités – comme l’entrepreneur Elon Musk, directeur général de Tesla,
le cofondateur d’Apple Steve Wozniak et l’astrophysicien Stephen Hawking – ont
annoncé avoirSIGNÉ une lettre ouverte appelant à bannir les armes offensives
autonomes.
Ce n’est pas la première lettre ouverte du genre en 2015. En début d’année,
les mêmes personnalités lançaient une alerte contre l’émergence de robots dotés
d’une intelligence artificielle qui leur permettrait de surpasser leur créateur
et de le menacer. Cette annonce très médiatisée aurait au final desservi la
cause. «Ils ont lancé un débat infini qui a occulté le problème plus urgent du
déploiement imminent de robots tueurs utilisés à des fins militaires», commente Jean-Baptiste Mouret, chercheur en robotique à
l’Institut national de recherche dédié au numérique (Inria)
à Nancy, et cosignataire de la lettre ouverte de Bueno Aires.
Les «robots tueurs», ou «systèmes d’armes létaux autonomes» (SALA),
désignent des armes à la technologie très avancée qui sont programmées, grâce à
des algorithmes, pour identifier une cible prédéfinie et la tuer de manière
complètement autonome, c’est-à-dire sans intervention humaine. Seule l’étape
initiale de programmation de la tâche est contrôlée par un être humain.
A ce jour, aucune de ces machines «intelligentes» n’est officiellement
déployée sur le terrain. Cependant, il existe des systèmes précurseurs semi-autonomes,
qui détectent et mettent en joue la cible à abattre, mais où l’opérateur humain
donne le feu vert ultime pour tirer. Par exemple, la Corée du Sud aINSTALLÉ sur
sa ligne de frontière avec la Corée du Nord des robots fixes armés, fabriqués par
l’entreprise Samsung sous le nom de SGR1, dans le but de tirer sur des soldats
nord-coréens qui tenteraient une incursion. Le but étant de remplacer par ces
robots les militaires qui surveillent la frontière qui fait plus de 250
kilomètres de long. D’autres systèmes de tirs semi-autonomes ont été mis en
place par certains Etats, comme les bases antimissiles du «dôme de fer»
israélien ou des bateaux de l’armée américaine.
Des machines quasi-autonomes aux robots qui décideraient seuls d’ouvrir le
feu, il n’y a qu’un petit pas. «Les SALA ne sont pas encore déployés, mais il
n’y a pas d’obstacle technologique. Ils pourraient entrer en action demain,
mais pas avec un taux de succès de 100%. A ce jour, un robot peut faire la
distinction entre un soldat ennemi et un civil dans certains cas, mais on ne
pourra jamais être sûr qu’il arrivera à le faire dans toutes les situations»,
précise Jean-Baptiste Mouret, qui a récemment créé avec ses collègues
un robot capable de s’adapter à un dommage pour exécuter sa tâche (Lire LT du
28.05.2015). Mais, selon l’expert, il ne faudra que quelques années
pour que des robots armés puissent être déployés par les pays qui le
souhaitent.
L’appel des chercheurs pour interdire les robots tueurs n’est pas isolé. Il
s’inscrit dans une série de discussions sur le plan international,commencée en 2013 par l’organisation non
gouvernementale Human Rights Watch. APARTIR de
2014, une coalition de 51 organisations et d’une vingtaine de pays s’est réunie
à plusieurs reprises – la dernière fois en avril (Lire LT du 20.04.2015) – pour
débattre du bannissement des SALA. D’autres groupes ont aussi prévenu la
société des risques des robots tueurs: 20 Prix Nobel ont
émis une déclaration conjointe en mai 2014 pour les interdire, à laquelle a
succédé une déclaration interreligieuse contre
les SALA, signée par 70 chefs religieux.
Les robots tueurs ne seraient pas les premières armes à être bannies
préventivement. L’arme chimique, les mines antipersonnel et les armes laser à
effet aveuglant l’ont été par le passé. «C’est de la responsabilité de nos
sociétés de faire le choix de bannir les robots tueurs comme on l’a fait, trop
tard, pour la bombe nucléaire», affirme Jean-Baptiste Mouret.
Les chercheurs cosignataires de la lettre ouverte craignent qu’aucune
décision ne soit prise avant que ne commence une course à l’armement autonome,
qui, selon les auteurs de la lettre, deviendra «la Kalachnikov de demain.
Contrairement à l’arme nucléaire, [ces armes] se trouveront partout et pourront
être fabriquées à bas coût par tous les Etats. Ce n’est qu’une question de
temps avant qu’un marché noir ne se crée et qu’elles ne terminent entre les
mains de terroristes, de dictateurs qui veulent mieux contrôler leurs peuples
ou de chefs de guerre pour un nettoyage ethnique…» peut-on lire dans la lettre.
A ces avertissements, les opposants à la solution du bannissement
rétorquent que les SALA, contrairement aux autres armes, peuvent être
programmés pour respecter la convention internationale des droits humains. Pour
eux, les robots tueurs, programmés par leurs opérateurs et dépourvus
d’émotions, seront moins cruels et plus contrôlables que les humains. Un
argument rejeté par les partisans de l’interdiction. «On n’est pas capable de
garantir que les robots ne soient pas volés, affirme le chercheur français. Ce
serait facile pour un pirate informatique de contourner toutes les protections,
de craquer le logiciel du robot tueur et de changer ses algorithmes.»
Les signataires de la lettre ouverte souhaitent par leur mobilisation
alerter les médias et le grand public sur le sujet, mais aussi faire réagir
leur propre communauté de chercheurs en robotique et intelligence artificielle.
«Les têtes pensantes de la discipline doivent mettre en place un code éthique
pour poser des garde-fous, commente Martin Vetterli,président du Fonds national suisse pour la recherche (FNS)
et professeur à l’Ecole polytechnique fédérale de Lausanne, qui a lui aussiSIGNÉ la
lettre. Les gouvernements ne connaissent pas assez le domaine et réagiront trop
lentement.»
Enfin, pour Jean-Baptiste Mouret, le risque de mauvaises applications des
connaissances sur l’intelligence artificielle ne doit pas empêcher la recherche
de continuer. «Il serait absurde de se passer d’avancées technologiques qui
pourraient servir la création de robots non armés qui PROTÉGERAIENT les
civils. C’est à la société tout entière de décider de ce qu’elle veut faire de
ces technologies.»
Le Temps
SCIENCES
& ENVIRONNEMENT
ÉTHIQUE Mercredi 29 juillet 2015
par Aurélie Coulon
Lola
Sem comentários:
Enviar um comentário