Malgré les formidables avancées de l’intelligence artificielle ces dernières années et le vif intérêt qu’elle suscite dans le monde de la sécurité, Eric Mboudou, chef des opérations sûreté et sécurité de l’Unesco, alerte des limites de cette technologie, encore loin de pouvoir s’affranchir de l’intelligence humaine. « Il convient de rappeler, que la notion de risque, au cœur des problématiques actuelles de sûreté, n’a pas toujours existé telle qu’on la comprend aujourd’hui », rappelle-t-il au cours d’une interview exclusive accordée à En Toute Sécurité.
Ainsi, jusqu’au Moyen-âge on ne pouvait s’en remettre qu’aux prières ou aux superstitions pour le conjurer. Entre le XIIe et le XXe siècle, l’introduction en Occident du chiffre zéro, puis l’invention des probabilités par Blaise Pascal et Pierre de Fermat et enfin la collecte massive des données dans les sociétés bureaucratiques sont des développements, qui combinés, vont accoucher de la notion de risque telle qu’on l’entend aujourd’hui. A savoir, bâtir des stratégies sécuritaires basées sur des calculs de plus en plus complexes afin de le minimiser.
Deep Blue contre Kasparov
C’est alors qu’en 1956, apparaît une nouvelle expression qui nourrit tous les espoirs des experts de la sécurité du monde entier en quête d’automatisation de leurs systèmes de prévention : l’intelligence artificielle. « A l’époque, les chercheurs ont la conviction qu’ils pourraient arriver à développer une intelligence de niveau humain, sur un support non biologique. Le jeu d’échec a été leur terrain d’expérimentation privilégié. Il était alors considéré comme une activité rendant le mieux compte de l’intelligence humaine : seule une machine douée d’une intelligence générale pourrait parvenir à battre des champions humains », explique Eric Mboudou. Le miracle se produit il y a 25 ans quasiment jour pour jour. Le 11 mai 1997, Deep Blue, le supercalculateur d’IBM, bat Garry Kasparov en 19 coups seulement lors de la 6e partie du match qui l’opposait au champion russe…
Ce n’est que le début d’une confrontation homme/machine. Le 12 mars 2016, le Sud-Coréen Lee Sedol, n° 3 mondial du jeu de Go, se fait « atomisé » (4 parties à 1) par le programme AlphaGo, conçu par Deep Mind, une société britannique rachetée par Google en 2014. Il ne s’agit plus cette fois de puissance de calcul brut : pour réussir ce pari insensé, les informaticiens ont dû faire appel à des « astuces algorithmiques », aux méthodes d’apprentissage par renforcement.
Nombreux cas d’usage dans la sécurité
« Ce succès, qui est une avancée majeure en termes de capacité machine, ne nous a pas pour autant fait remettre en question la supériorité de l’intelligence humaine sur la machine. Alors qu’un simple amateur d’échec est capable de transférer les compétences acquises dans d’autres domaines que le jeu, AlphaGo ne sait que jouer au Go, ses compétences n’étant pas généralisables », relativise Eric Mboudou.
Il y a cependant des domaines dans lesquels l’IA basée sur les réseaux de neurones et les systèmes d’apprentissage trouvent des applications dans le monde réel. La vision par ordinateur, un des domaines les plus dynamiques de l’IA a de nombreux cas d’usage dans le domaine de la sécurité, avec notamment les systèmes d’analyse d’images, de lecture automatique de plaque d’immatriculation ou en encore de reconnaissance faciale.
Revers de la médaille : les algorithmes utilisés dans ces cas d’usages n’étant pas explicitement programmés, leur fonctionnement interne n’est pas explicable. En cas de dysfonctionnement, il est très difficile d’identifier la source du problème. Ce phénomène de boite noire pose de réelles questions en termes de robustesse, de fiabilité, de confiance ou encore d’éthique.
Conserver l’humain dans la boucle de décision
« Ce constat nous amène également à nous questionner sur la place à accorder à l’IA dans le cadre des processus de décision et sur la nécessité de conserver l’humain “dans la boucle” du cycle de décision. Face à cette technologie, nous devons être des utilisateurs éduqués, et pas de simples consommateurs », insiste alerte Eric Mboudou. Il rappelle l’histoire de Stanislas Petrov, un officier de la Voyska PVO, la force de défense anti-aérienne de l’Armée soviétique. Lors d’une alerte déclenchée par les satellites de surveillance soviétiques en septembre 1983, Petrov prit la décision d’informer sa hiérarchie qu’il pouvait s’agir d’une fausse alerte, et non d’un tir de missiles contre l’Union Soviétique, comme l’indiquait le système informatique d’alerte. Sa hiérarchie a donc décidé de ne pas riposter. Pourtant, cette crise intervint à un moment d’extrême tension avec les États-Unis, seulement trois semaines après la destruction du vol 007 Korean Air Lines par des chasseurs soviétiques et aurait pu conduire à une escalade nucléaire.
Eric Mboudou : des commandos à l’Unesco
Titulaire d’un diplôme universitaire « Coopération juridique et commerciale avec le monde arabe », d’un autre « Acteur de la défense et facteurs de sécurité intérieure et extérieure », d’un Master 2 en négociation internationale et interculturelle parcours monde arabe, de l’Université d’Aix-Marseille, d’un certificat d’atomicien appliqué aux armements nucléaires, Eric Mboudou a été cadre de l’armée de l’air et de l’espace de 2001 à 2018. Il a notamment été chef des opérations sécurité et sûreté pour l’Organisation des Nations Unies pour l’éducation, la science et la culture durant 4 ans, avant de prendre la direction des opérations sûreté et sécurité de l’Unesco.
Il est membre du groupe de réflexion IEESSE.
Pierre-Olivier Lauvige