L'IA sur le champs de bataille et dans les conflits armés

Les machines armées et télécommandées ont investi les champs de bataille. Aujourd’hui aux ordres des humains, ces robots soldats deviendront de plus en plus autonomes. Jusqu’à prendre un jour la décision de tuer ?

Février 2020, sur le flanc d’une montagne afghane. Un détachement américain fait face à un bataillon de talibans. 20 minutes de déluge de feu et d’acier, puis le silence revient sur un spectacle de désolation : les islamistes gisent dans des marées de sang. Ils ont tous été tués. Tous ? Non, voila que l’un d’entre eux, qui s’était réfugié derrière un monticule se relève, quitte son abri et s’avance vers l’adversaire. Il brandit un drapeau blanc. Soudain, un claquement sec… L’homme s’écroule. Il a été abattu par un des soldats américains. Un soldat ? Un robot, pour être exact. Une machine incapable de comprendre que l’ennemi voulait se rendre… Pareil bavure est, à notre connaissance, impossible aujourd’hui. Certes, des machines armées ont déjà envahi les champs de bataille. Et elles sont déjà partiellement indépendantes : l’homme leur dit où aller, et quoi faire, mais elles adaptent seules leur déplacement en fonction des conditions extérieurs. En revanche, dès qu’il est question de faire parler les armes, c’et toujours à l’homme que revient la décision finale. Prenez les impressionnantes Talon Maars, de petits tanks télécommandés et dotés d’une puissante artillerie. Les soldats les dirigent à distance, en, regardant à travers les yeux des Talon, des caméras embarquées. Si l’une de ces machines se trouve soudain nez à nez avec des combattants ennemis, le pilote du Talon peut décider, à distance, de faire feu. Le pilote, pas la machine ! Est-ce qu’il en sera toujours ainsi ? Non ! Car bientôt, les robots armés décideront du moment où il faut tirer : d’ailleurs, il existe déjà un monstre de ce genre : un robot sentinelle répondant au doux nom de SGR-A1. Il tire sur les intrus qui osent se glisser dans la zone tampon, séparant Corée du Sud et Corée du Nord.

Pourquoi diable laisser ces têtes de fer prendre d’aussi terribles décisions ? Quand on pose la question aux chercheurs, leur réponse peut surprendre. A l’instar de Ronald Arkin (chercheur à l’Institut des Technologies de Georgie à Atlanta, aux Etats-Unis), certains d’entre eux estiment que ces créatures synthétiques pourraient avoir des réactions… plus responsables que les humains ! Car le jugement des machines n’est pas pollué par le stress ou la colère. En d’autres termes, les robots intelligents peuvent prendre des décisions en gardant la tête froide, ce qui n’est pas le cas, loin de là, des êtres humains. Eux peuvent déraper et se laisser aller, par pure vengeance ou simple hostilité, à des actes terribles… Ainsi, selon une étude menée auprès des troupes américaines en Irak, 10% des militaires avouent avoir maltraité un non-combattant  dans des situations où rien ne les obligeait. Et plus de la moitié des soldats ne comprennent pas pourquoi il faudrait traiter les non-combattants avec respect et dignité !  Faut-il voir dans cette absence de considération pour la vie de l’ennemi une explication, au moins partielle, des nombreux « dérapages » qui surviennent en temps de guerre ? Comme lorsqu’en aout dernier, l’aviation américaine, en voulant atteindre des rebelles, bombarda le village afghan d’Azizabad et fit, selon certains observateurs, plus de 90 morts civils, dont une soixantaine d’enfants ? Ces débordements dramatiques, les machines, elles, en seraient bien incapables. En tout cas, si elles sont programmées correctement… Et c’est bien là le problème à résoudre. Car avant de lancer un robot militaire autonome sur le champ de bataille, il faudra être sûr, qu’il sera capable de différencier les ennemis et les civils. Ou de faire la distinction entre un adversaire prêt à en découdre et un soldat qui cherche a se rendre. Bref, adapter l’intelligence artificielle des robots aux règles de la guerre … C’est précisément ce qui fait actuellement phosphore des chercheurs comme Arkin. Et leurs premiers résultats sont prometteurs. Ils sont en effet parvenus à simuler, sur ordinateur, le comportement de robots militaires, en s’inspirant de faits de guerre réels. En septembre 2006, un jour de patrouille, un Predator avait détecté, au Sud de l’Afghanistan, un groupe de 190 talibans. S’il avait été programmé simplement pour abattre l’ennemi, le predator aurait foudroyé de ses missiles les hommes rassemblés. Mais ce n’est pas ce qui s’est passé.  Car les équipes au sol qui télécommandaient la mise à feu, ont vu que les talibans étaient réunis dans un cimetière, et qu’ils assistaient à des funérailles. Une circonstance qui, selon le droit international humanitaire, interdit toute intervention armée. Eh bien, ce scénario, Arkin l’a reproduit sur ordinateur, ce qui n’était pas facile à programmer…il fallait que la machine reconnaisse le cimetière, en s’aidant notamment des coordonnées GPS du lieu. Mais aussi plus délicat qu’elle interprète la position des hommes à l’intérieur du site. Étaient-ils éparpillés, planqués, furetant ça et là, cachés derrière les stèles ? Ou bien statiques, et donc probablement plongés dans le calme et la prière ? C’est en tout cas ce qu’a déduit de la situation la simulation informatique d’Arkin : le programme a donc décidé de ne pas tirer ! ce genre de réussite laisse penser que l’arrivée de robots autonomes dans nos armées n’est qu’une question de temps. Dans quinze ou vingt ans tout au plus ? Ils seront là.

 

Attention au risque d’escalade !

Cette évolution devrait a priori, recueillir l’assentiment des citoyens. Car le pays qui pourra s'appuyer sur une armée high-tech saura qu’il peut mener des guerres sans risquer la vie des ses soldats. Précieux quand on sait combien l’opinion publique, notamment aux Etats-Unis, est sensible aux photos des soldats revenant au pays dans des cercueils. Reste que la médaille a son revers. Qui sait si , dans l’avenir, les pays les plus puissants ne seront pas tentés de régler le moindre conflit avec leurs soldats mécaniques : «  des pirates dans nos eaux territoriales ? Qu’à cela ne tiennent, envoyons des robots-tueurs faire le ménage. » Une perspective inquiétante… D’autant plus qu’en face , un jour ou l’autre, l’adversaire finira bien par s’équiper lui aussi de machines ! On peut craindre alors une escalade à la Terminator. Et ça, ça fait froid dans le dos.

 

 

 

 

10 votes. Moyenne 4.50 sur 5.

Créer un site gratuit avec e-monsite - Signaler un contenu illicite sur ce site

×