Peut-on tromper les robots ?
Alors que l’Intelligence artificielle devient un enjeu majeur technologique, industriel, économique et militaire. Il est temps de se poser une question simple, mais d’un enjeu majeur. Les robots sont ils fiables ? Je ne parles pas vis à vis de leur capacité à rester en état de fonctionner, mais en terme de confiance que l’on peut apporter à ces engins.
On pense confier à des Intelligences artificielles le contrôle d’aéronefs, de voitures et de navires (sans compter les armes ). Si les industriels ne cessent de vanter les avantes de ces robots autonomes, car ce sont des robots autonomes, ils ne parlent pas souvent de leur difficulté.
Ainsi, on apprend que les robots sont meilleurs que les pilotes. Peut être dans un espace simulé. Dans le monde réel, c’est une bien autre histoire.
Ainsi, les voitures autonomes sont incapables de faire la différence entre un panneau « stop » et un panneau de limitation de vitesse… si il y a un autocollant posé sur le panneau « stop ». Les marquages au sol deviennent source d’erreur si ils sont à moiité effacé… Bref, sans supervision humaine, les robots autonomes ne fonctionnent pas. Ce qui est un comble. Il est amusant de constater que les industriels tels Tesla n’ont pas hésité à réclamer la refonte immédiate de la signalisation routière pour leur voiture fonctionne mieux ! De la même façon, la demande d’une infrastructure électronique de signalisation routière (service qu’ils sont près à fournir si on investi quelques milliards d’euro) leur permettrait de vendre de nouveau services… mais pas forcement localisé chez nous d’ailleurs.
Le gros problème des Intelligences artificielles actuelles, c’est qu’elles se trompent facilement car elles ne comprennent pas ce qu’implique leur environnement extérieur. Statistiquement, je dis bien statistiquement, telle route devrait permettre d’aller vers la destination programmée. Statistiquement, tel signalisation implique telle manœuvre… Mais, il y a un gouffre en probabilité et possibilité. Ainsi, il est probable que ce petit cours d’eau ne soit pas si profond. Mais, il reste possible qu’il y ait un trou là où je veux passer.
Si les humains vont faire des choix rapidement, et apprendre de leurs erreurs. Les Intelligences artificielles actuelles vont choisir en fonction de leur programmation (sous programme de sécurité) ou de ce qu’elles ont apprie grâce aux bases de données fournies.
Ainsi, on a vu en Syrie des robots de combat autonomes russes refuser de franchir des fossés ou des cours d’eau insignifiant parce qu’ils étaient incapables d’estimer la profondeur de ceux-ci. Or ce type de problème est impossible à résoudre : on ne sait pas comment les intelligences artificielles apprennent leur leçon. On est donc incapable de savoir si c’est leur programmation, leur apprentissage ou les bases de données qui sont inadaptées. De ce fait, on est incapable de corriger ce défaut.
Ce premier constat est déjà en soit édifiant, ce n’est pas pour rien si la DARPA US investit dans des intelligences artificielles dont le mode de fonctionnement et d’apprentissage est compréhensible et surtout paramétrable.
Au-delà du fonctionnement aléatoire des intelligences artificielles, on voit aussi apparaître des moyens de tromper celles-ci. Ces techniques sont nommées par les armées US le « spoofing ». Elles consistent à induire en erreur les intelligences artificielles en les induisant en erreur grâce à de faux signaux, de fausses informations ou repères ou en modifiant ceux dont elles ont besoins. Ces moyens, qui ne sont pas forcément hautement technologiques ou très chers, se sont avérés particulièrement efficaces pour tromper les intelligences artificielles. Seuls les intelligences artificielles guidées par les humains s’en sortaient bien. Un comble pour concevoir des engins autonomes.
Il semble donc que l’on s’oriente non plus pour le remplacement pur et simple de l’humain par la machine, mais par l’augmentation de l’humain par le biais de la machine. Une décision qui me rassure surtout si il s’agit de robots militaires.