Robots mortiferos - que limites?
Stephen Hawking et Elon Musk
réclament l’interdiction des « robots tueurs »
C’est une nouvelle
charge portée contre les dangers potentiels de l’intelligence artificielle
(IA). Dans une lettre ouverte publiée lundi
27 juillet, plus d’un millier de personnalités, dont une majorité de
chercheurs en IA et en robotique, ont réclamé l’interdiction des armes
autonomes, capables « de sélectionner et de combattre des cibles sans
intervention humaine ».
Parmi les signataires,
on retrouve Elon Musk, le célèbre PDG du constructeur de voitures électriques
Tesla et de SpaceX, et l’astrophysicien britannique Stephen Hawking, qui avaient déjà fait
part publiquement de leurs inquiétudes concernant l’IA. Mais aussi le
cofondateur d’Apple Steve Wozniak, le linguiste américain Noam Chomsky ou
encore Demis Hassabis, le fondateur de DeepMind, une entreprise consacrée à
l’intelligence artificielle rachetée par Google.
« Une course à l’armement »
Publiée à l’occasion de
l’IJCAI, une conférence internationale sur l’intelligence artificielle, qui se
tient du 25 au 31 juillet à Buenos Aires, la lettre dénonce un danger
imminent :
« L’intelligence artificielle a atteint un point où le déploiement de tels
systèmes sera – matériellement, si pas légalement – faisable d’ici quelques
années, et non décennies, et les enjeux sont importants : les armes autonomes
ont été décrites comme la troisième révolution dans les techniques de guerre,
après la poudre àCANON
Leur crainte : que les
Etats se lancent dans « une course à l’armement », justifiée
par le fait que « remplacer des hommes par des machines permet de
limiter le nombre de victimes du côté de celui qui les possède ». Pour
eux, « la question clé de l’humanité, aujourd’hui, est de savoir s’il
faut démarrer une course à l’armement doté d’IA ou l’empêcher de
commencer ».
Selon les signataires,
une telle escalade serait « inévitable » si une puissance
militaire se lançait dans ce domaine et, « contrairement aux armes
nucléaires, [ces armes] ne nécessitent aucun matériel de base coûteux ou
difficile à obtenir ». Par conséquent, préviennent-ils, « ce
ne sera qu’une question de temps avant qu’elles n’apparaissent sur le marché
noir et dans les mains de terroristes, de dictateurs souhaitant contrôler
davantage leur population et de seigneurs de guerre souhaitant perpétrer un
nettoyage ethnique ».
Cette lettre a été
publiée par le Future of Life Institute (FLI), un organisme américain à but non
lucratif qui se focalise, peut-on lire sur son site, sur « les risques potentiels du
développement d’une intelligence artificielle de niveau humain » et
qui « travaille à atténuer les risques existentiels auxquels doit faire
face l’humanité ». Il avait récemment fait parler de lui en annoncant
au début du mois le financement de
37 projets visant à prévenir les risques liés à l’intelligence
artificielle, grâce à un don d’Elon Musk.
L’IA pourrait en pâtir
Mais ce texte ne se veut
pas une charge contre l’intelligence artificielle. Les chercheurs qui l’ontSIGNÉ
La question de
l’interdiction des « armes létales autonomes » a fait l’objet d’une
réunion de l’ONU en avril. Le rapporteur spécial de l’ONU Christof Heyns plaide
depuis plus de deux ans pour un moratoire sur le développement de ces systèmes,
en attendant la définition d’un cadre juridique adapté. L’ONG Human Rights
Watch a quant à elle dénoncé, dans un rapport publié en
avril, « l’absence de responsabilité légale » s’appliquant aux
actes de ces « robots tueurs ».
Le tout dans un contexte
où l’interdiction de ces armes ne semble pas acquise pour tout le monde : en
octobre dernier, la ministre de la défense norvégienne Ine Eriksen
Søreide s’y était opposée. « Il serait
inopportun d’interdire le développement des robots tueurs. Il est aujourd’hui
difficile de savoir ce que recouvre cette notion. Il n’y a actuellement aucune
technologie qui puisse vraiment recevoir ce qualificatif », avait-elle
argué.
En savoir plus sur http://www.lemonde.fr/pixels/article/2015/07/27/intelligence-artificielle-hawking-musk-et-chomsky-reclament-l-interdiction-des-armes-autonomes_4701102_4408996.html#YuSOeOpksHaHSsLO.99
Le Monde.fr | 27.07.2015 à 19h02 •
Lola
Sem comentários:
Enviar um comentário