Quelle que soit sa catégorie [descriptive, prédictive, prescriptive ou générative], une intelligence artificielle [IA] doit être « nourrie » avec des données fiables pour être digne de confiance, et donc efficace.
Une fausse information dans un tel système d’IA pouvant être utiliser pour accélérer la prise de décision d’un poste de commandement, par exemple, pourrait avoir des conséquences fâcheuses.
D’où la nécessité de développer des solutions afin de garantir l’intégrité des systèmes militaires ayant recours à l’intelligence artificielle.
À cette fin, l’Agence de l’innovation de défense [AID] et le Commandement de la cyberdéfense [COMCYBER] ont organisé le défi « Sécurisation de l’IA », avec l’objectif de solliciter les entreprises et les laboratoires de recherche susceptibles de proposer des technologies permettant de protéger des systèmes incluant une intelligence artificielle et de détecter des attaques pouvant affecter leur bon fonctionnement.
Visant à « assurer l’intégrité des systèmes tout au long de leur vie opérationnelle », ce défi a intéressé une dizaines de structures spécialisées [laboratoire, entreprises innovantes, grands groupes, etc.] Et, a fait savoir le ministère des Armées, le 30 avril, deux ont été primées par un jury comprenant des représentants du COMCYBER, de l’AID, de l’Agence ministérielle pour l’intelligence artificielle de défense [AMIAD] et de la Direction générale de l’armement [DGA].
Ainsi, proposée par PRISM EVAL, la suite BET EVAL permet de sécuriser ce que l’on appelle les LLMs [large language models ou « modèle massif de langage »], c’est-à-dire des réseaux de « neurones profonds » fonctionnant par apprentissage auto ou semi supervisé. Ils sont notamment utilisés pour les agents conversationnels, et donc par l’IA générative.
Dans le détail, BET Eval a été conçue pour « tester la robustesse des LLMs, en s’appuyant sur une approche innovante à base de combinaison de primitives comportementales d’attaques, qui permet d’adresser un large panel d’attaques », explique le ministère des Armées. Les essais de cette suite ont porté sur la génération de contenus malveillants et/ou dangereux, l’extraction non autorisée de données et le « contournement » des garde-fous.
Mise au point par CEA-List [du Commissariat à l’Énergie Atomique et aux Énergies Alternatives], la seconde solution lauréate de ce défi permet de contrer les attaques visant à corrompre des données afin d’induire en erreur une intelligence artificielle. Elle repose sur deux outils.
Le premier, appelé PyRAT, « assure une vérification formelle de la sécurité d’un réseau de neurones apportant des garanties mathématiques fortes, pour se prémunir de modifications imperceptibles des données par l’attaquant », précise le ministère. Quant au second, baptisé PARTICUL, il détecte « les parties récurrentes d’un ensemble de données pour calculer un score de confiance sur de nouvelles données, et permet de se prémunir de modifications plus visibles tels que l’ajout de patchs ».
Source : Opex360
01/05/2025