Le Pentagone étudie actuellement les utilisations militaires des grands modèles de langage (LLM) afin de soutenir et potentiellement perturber la planification et la prise de décision militaires. Le Bureau en chef de l’intelligence numérique et artificielle (CDAO) a demandé à une entreprise de créer un cadre fiable de test et d’évaluation pour l’IA générative au sein du ministère de la Défense.
Cet accord vise à mesurer les performances des modèles, à fournir des commentaires en temps réel aux combattants et à créer des ensembles d’évaluation spécialisés pour tester les modèles d’IA pour les applications militaires, notamment l’organisation des résultats des rapports après action. Les modèles de langage et l’IA générative sont des technologies émergentes capables de générer du texte, du code logiciel, des images et d’autres médias, sur la base d’instructions données par l’homme.
Ces nouveaux modèles sont très prometteurs pour le ministère de la Défense, mais posent également des défis potentiels inconnus et sérieux. Les test et les évaluations (T&E) permettront d’évaluer et de garantir que ces systèmes fonctionnent de manière sécurisée et fiable avant d’être entièrement mis en service.
Le cadre en cours de développement vise à créer des ensembles de données pour évaluer différents modèles de langage, en les comparant à la « vérité fondamentale » et en mesurant leurs performances. L’objectif ultime est de déployer ces modèles de manière responsable, en comprenant à la fois leurs forces et leurs limites.
Enfin, un certain nombre de partenariats ont été établis pour soutenir ce travail, notamment avec des entreprises technologiques de premier plan et l’armée américaine. Il s’agit d’une étape importante dans la prise en compte de l’IA générative dans les environnements sécurisés, et elle pourrait avoir un impact significatif sur les futures opérations militaires.
Pensez-vous que cet accord est crédible ou pertinent ? Quelle est votre opinion sur le sujet ?