Dernières nouvelles de la robotique militaire
Satory, l'équivalent du salon aéronautique du Bourget pour l'armement militaire vient de s'achever. Pour la première fois, la robotique est devenue une préoccupation à la fois tactique, stratégique mais aussi industrielle.
Il faut noter que les entreprises militaires françaises sont reconnues et mise à l'honneur. Toutefois, il y a encore peu de production réellement industrielle. Il y a des prototypes et des préséries qui sont achetées par toutes les armées, mais pas encore d'équipement standardisé. Ce qui montre à la fois que les robots militaires ne sont pas encore tout à fait au point, mais aussi que les doctrines d'utilisations ne sont pas encore finalisées.
Il faut noter que si les récents déploiement soviétiques de robot de combat en Syrie ont surpris, ils n'ont pas non plus impressionnés les forces armées. Les robots sont utiles, mais ils se révèlent aussi apporter autant de contraintes (financières, mais aussi logistiques) que d'avantages.
Les petits drones de reconnaissances (aériens) et de lutte contre les mines et IED (terrestres à chenilles) sont maintenant indispensables. Mais les besoins en fréquences radio sont contraignantes et se révèlent à la fois sensible au brouillage, mais aussi piratable. Ces vulnérabilités réservent leur emploi en arrière ou à la lutte para-militaire et non contre des armées correctement équipées. De fait, la mise en avant de système de brouillage, de cryptage et de contre-mesure révèle que cette vulnérabilité est non seulement reconnue, mais se révèle être une extension importante du champ de bataille électronique.
Les robots de combats militaires, qui ressemblent de plus en plus à des blindés légers sont dotés d'IA indépendantes. Cela les libères des problèmes cités précédemment. Mais outre des problèmes éthique et juridique, cela les mais les libère de fait de tout contrôle humain. A l'heure où on apprend que les IA ne se révèlent pas aussi fiable qu'on le croyait alors qu'il est reconnu que les intelligences artificielles (IA) peuvent être manipulées et transformées par des opérateurs extérieurs. En plus de cette vulnérabilités que les armées redoutent, les risques d'erreur et d'interprétation des IA semblent être très important. Par exemple: reconnaître un panneau semble maîtrisé pour toute IA. C'est du moins ce que l'on pensait. Mais en fait, une simple variation de quelques pixels fait que les IA actuelles vont le confondre avec un autre. Le pire étant que les industriels ne semblent pas comprendre pourquoi. En effet, les IA ont une programmation de base, et sont ensuite finalisée grâce à des algorithmes de "Deep learning". Les IA "apprennent" à partir des bases de données existantes de manière autonome. Mais en fait ... on ne sait pas comment et on ne comprend pas du tout cette "programmation finale". Et si on ne comprend pas pourquoi, on ne peut pas y remédier. Cette information est devenue publique récemment.
Les risques d'utilisation par une armée risquent de se révéler problématiques. Sauf si une armée accepte d’emblée des pertes humaines et collatérales potentielles. Malgré tous les avantages, les IA semblent ne se révéler pertinents qu'en soutien d'une intelligence humaine et non de manière indépendante. Ce qui expliquerait que les armées US, mais aussi Israélienne ne tentent pas d'utiliser leurs drones et leurs robots en première ligne, mais les réservent à des applications de seconde ligne (surveillance) ou de soutien (ravitaillement).
Ce "bug", qui semble toucher toutes les IA semble avoir été detecté depuis quelques années. Ce qui pose un soucis alors que de nombreux industriels proposent et utilisent des IA pour de nombreuses applications. A l'heure actuelle, il est impossible de savoir si un bureau d'étude a trouvé l'importance et la raison de ce bug et si une solution pour y remedier peut être mis en place sur les IA existants.