Bienvenue dans l’ère des armes autonomes

Rédigé le 13 septembre 2017 par | Nouvelles technologies Imprimer

Nous terminons aujourd’hui cette série consacrée à l’intelligence artificielle (IA) et aux conséquences de ses erreurs inévitables. Dans cette Quotidienne, nous abordons l’épineux sujet des armes autonomes et les risques qu’elles représentent.

Pourquoi s’engager dans cette voie ?

Comme toujours, l’argent est la première justification de la recherche sur les armes autonomes.

Faire la guerre est, au niveau économique, une activité comme une autre : remplacer un être humain cher, fragile, et sujet à la fatigue par un automate représente un avantage substantiel.

Dans le contexte de conflit larvé entre Corée du Sud et Corée du Nord, les tourelles autonomes dont nous parlions hier ont permis de libérer des ressources et de cesser d’épuiser les soldats en patrouilles rébarbatives. Seoul a pu maintenir le niveau de protection de ses frontières tout en baissant son budget alloué à la surveillance.

Lors d’une guerre plus offensive, des robots totalement autonomes pourraient faire disparaître quasi-totalement la présence humaine sur le terrain. Comme le dit l’adage : « une bataille se gagne par la stratégie, une guerre grâce à la logistique ».

Ne plus avoir de soldats à acheminer, ravitailler, soigner et héberger sur le théâtre des opérations représenterait un avantage décisif pour une armée dotée de robots-soldats. Outre le coût direct économisé pour chaque soldat non déployé, c’est toute la chaîne logistique qui se retrouverait optimisée.

Au niveau de la suprématie purement militaire, les performances des robots-tueurs seront bien supérieures à celle d’un homme. Dotées d’un temps de réaction quasi-instantané et d’une puissance mécanique incomparable, ces robots seront difficilement maîtrisables par des opposants humains.

Enfin, dans le cas de guerres d’occupation comme en connaît depuis des décennies l’armée américaine, maintenir une présence sur le terrain sans mobiliser de troupes humaines serait le rêve de l’état-major.

Même pour la nation à l’origine de l’offensive, rien n’est plus impopulaire qu’un conflit qui s’éternise avec des pertes humaines en constante augmentation. En remplaçant les patrouilles de soldats par des robots-tueurs, l’armée occupante pourrait assurer une présence ininterrompue sans prendre d’autres risques que financiers.

Pas étonnant, donc, que les armées lorgnent sur ces nouvelles armes. L’armée russe annonce avoir pour objectif d’automatiser le tiers de ses armements à horizon 2025 – autant dire demain.

L’armée américaine ne donne pas de prévisions aussi précises, mais ses sous-traitants ne cachent pas leur effort de R&D dans le domaine. Comme pour les drones Predator, le grand public découvrira probablement l’existence de ces dispositifs lors du déclenchement d’un prochain conflit.

Vers une nouvelle manière de faire la guerre

Le fossé entre les armées disposant d’armes autonomes et les autres se creusera rapidement. L’issue d’un conflit entre deux armées aux capacités technologiques trop différentes ne fera aucun doute.

L’armée qui ne possède pas d’armes autonomes devra épuiser ses forces vives dans une bataille perdue d’avance, ou capituler.

Si les deux armées qui s’opposent possèdent toutes deux des robots tueurs, les spécialistes prévoient que les conflits débuteront par une première phase durant laquelle les armes autonomes seront mises en opposition. C’est seulement une fois la guerre technologique achevée que les conflits traditionnels débuteront.

En un sens, la suprématie au niveau des armes autonomes jouera un rôle équivalent à celui de la suprématie aérienne aujourd’hui.

Nous avons évoqué le cas des tourelles de protection autonomes qui sécurisent des zones normalement interdites aux populations civiles. Elles n’ont pas fait beaucoup parler d’elles car, n’ayant pas à gérer de cohabitation avec les populations, leur utilisation ne présente pas de grands risques.

Le problème sera tout autre dans le cas de systèmes offensifs.

Quand les armes pourront se retourner contre leur créateur

Lorsque l’IA contrôlera des armes mobiles, le risque de dysfonctionnement deviendra majeur.

Qu’ils ressemblent à des tanks sans conducteurs ou à des humanoïdes façon Terminator, les robots tueurs évolueront dans des endroits où combattants et civils sont mêlés.

Ils devront être capable de décider en un instant quand et sur qui ouvrir le feu. Nous avons vu avant-hier qu’il arrive que l’IA se trompe. Il est inévitable que ces armes automatiques finissent par tirer sur des soldats de leur propre camp ou des civils.

Même si les armes autonomes arrivent à se tromper suffisamment rarement pour que le risque de bavure soit acceptable, il reste la possibilité qu’elles soient détournées de leur fonctionnement normal.

Si vous nous lisez régulièrement, vous savez que tous les systèmes informatiques ouverts présentent des failles. Les robots tueurs seront connectés en permanence avec leur Quartier Général qui récupèrera de précieuses informations du terrain et pourra éventuellement prendre le contrôle.

Qui dit contrôle à distance dit possibilité de piratage. Le scénario d’un détournement de l’arme aux dépens de son armée d’origine n’est pas de la science-fiction. En 2009, les Iraquiens utilisaient des logiciels informatiques grand-public pour pirater les drones Predator. Ces fleurons de la technologie militaire de l’Oncle Sam étaient piratés avec des logiciels à… 26 $.

La manipulation ne permettait que l’interception des données et non le détournement des appareils, mais elle a permis de réaliser que les armes les plus sophistiquées restent des systèmes informatiques intrinsèquement fragiles.

Les signataires de la lettre ouverte dont je vous parlais hier, bien conscients de ces problèmes inhérents aux armes autonomes, militent pour une interdiction pure et simple de ces dernières.

Pour eux, le risque est trop grand de voir à terme déambuler dans nos rues des robots tueurs prenant pour cible d’innocents civils.

Peut-on accepter la fabrication de telles armes ?

Les armées sont toujours réticentes lorsqu’il s’agit de limiter leurs capacités opérationnelles.

Comme l’arme atomique, les armes autonomes fabriquées en grand nombre ont le potentiel de détruire l’humanité. Il n’est pas interdit d’imaginer une « dissuasion cyborg » qui viendrait succéder à la dissuasion nucléaire… mais les armées qui en auront le contrôle devront en assumer l’entière responsabilité.

Pour les Etats, tout le problème est là. La guerre reste soumise au droit international, qui n’a pas encore statué sur la responsabilité mise en oeuvre lors de l’utilisation de ces armes. Lorsqu’un robot tueur tue un civil, qui est responsable ? Le chef des armées ? Le parlement qui a voté l’entrée en guerre ? La division qui a placé le robot sur le théâtre d’opérations ? Le fabricant qui l’a conçu ?

L’éthique (et les lois internationales) ne permettent pas aujourd’hui de répondre à cette question.

Comme pour les accidents dus aux voitures autonomes, il est impératif de décider d’une grille de lecture commune face aux dérapages qui seront inévitables.

Des discussions ont déjà eu lieu sous la houlette de l’ONU ; elles sont pour l’instant restées informelles. Un rapport de 2013 appelle à l’interdiction temporaire des armes autonomes en attendant que les pays membres produisent une charte internationale réglementant leur utilisation.

Alors que l’industrie de l’armement avance à grands pas, le cadre législatif n’est toujours pas prêt.

Outre Elon Musk, que l’on ne peut pas qualifier de technophobe, Ryan Gariepy, le fondateur de Clearpath Robotics fait partie des signataires de la lettre ouverte à l’ONU. Si ce spécialiste des robots autonomes milite pour leur interdiction en tant qu’armes, c’est que le problème est réel.

Au vu des enjeux, une interdiction totale reste peu probable. Même si l’ONU se prononce en faveur d’une prohibition, les chances d’un respect à l’échelle de la planète sont minces.

Il faudra donc s’en remettre à l’équilibre de la force et au sens moral des armées qui en seront dotées. En espérant que, comme pour la dissuasion nucléaire, les nations qui élaborent de manière plus ou moins publique de ces armes arrivent à s’auto-réguler dans l’usage qu’elles en feront.

Mots clé : - - -

Etienne Henri
Etienne Henri
Il sélectionne les dossiers d’investissement en financement participatif du service Profits Réels.

Etienne Henri est titulaire d’un diplôme d’Ingénieur des Mines. Il débute sa carrière dans la recherche et développement pour l’industrie pétrolière, puis l’électronique grand public. Aujourd’hui dirigeant d’entreprise dans le secteur high-tech, il analyse de l’intérieur les opportunités d’investissement offertes par les entreprises innovantes et les grandes tendances du marché des nouvelles technologies.

Laissez un commentaire