À l'heure d'une utilisation croissante de l'Intelligence artificielle et où les centres de recherche, écoles et état-majors réfléchissent à l'innovation de défense et à l'intégration de l'IA dans les systèmes de défense, Léo Facca et Denis Lemaître (École navale) s'interrogent sur les biais cognitifs propres à ces technologies et à leur utilisation, sous le prisme des systèmes navals de défense.
Uses of AI and cognitive biases: the case of naval defense systems
At a time of increasing use of Artificial Intelligence and where research centers, schools and general staff are thinking about defense innovation and the integration of AI into defense systems, Léo Facca and Denis Lemaître (École Navale) are questioning the cognitive biases specific to these technologies and their use, through the prism of naval defense systems.
Le développement de l’Intelligence artificielle (IA) dans les systèmes de défense offre de nombreuses perspectives opérationnelles mais pose de nouvelles questions en ce qui concerne la coopération entre humains et machines, et son efficacité. Les nouvelles compétences techniques attendues transforment les pratiques professionnelles des militaires en ce qui concerne le rapport au terrain et à l’information, les modes de raisonnement et la prise de décision, à l’échelle individuelle et collective. Un point important réside dans l’activité cognitive des opérateurs, qui sont amenés à confier à la machine un certain nombre d’opérations mentales dans l’ordre de la production, de la mise en forme et du traitement des données issues de l’observation directe ou de senseurs. Cette activité cognitive, dans ce domaine comme dans bien d’autres, est sujette à de nombreux phénomènes perturbateurs, à commencer par les facteurs de stress, de fatigue, ou de conditionnement par la routine par exemple (1).
Devant l’arrivée progressive et la montée en puissance prévisible de l’IA au sein des systèmes navals, la Direction de la recherche et de l’innovation de l’École navale s’est emparée de la question, afin d’identifier les problèmes liés aux usages et de fournir aux concepteurs des recommandations pour la configuration des systèmes. Au sein de la chaire Naiade (Navalisation de l’IA pour l’aide à la décision), créée en 2023, et du projet COMAIA (Coopération multi-agents dans les systèmes agis par l’IA, financé par l’AID), les chercheurs en psychologie sociale se sont donné pour mission, entre autres, d’étudier les processus socio-cognitifs à l’œuvre dans des systèmes instrumentés par l’IA. La Marine nationale, qui met en œuvre des systèmes sociotechniques particulièrement complexes (ex. : le groupe aéronaval et tous les systèmes d’armes qu’il recouvre), offre des cas d’usage exemplaires en ce qui concerne la détection et la classification des menaces. Lors d’une campagne d’enquête auprès de différents acteurs du secteur naval (marins, opérateurs système, ingénieurs…), ont été mis en évidence certains biais cognitifs présentant des risques particuliers pour l’interaction entre l’utilisateur et l’intelligence artificielle. L’objectif du présent article est de recenser les plus saillants et de commencer la réflexion sur les manières de contrer leurs effets.
Les biais cognitifs et les deux vitesses de la pensée
Tels que décrits par les chercheurs en psychologie Amos Tversky et Daniel Kahneman (1974) dans un article fondateur (2), les biais cognitifs désignent des schémas systématiques de déviation par rapport à la norme ou à la rationalité, dans le processus de prise de décision. Ils peuvent altérer la perception, le jugement, la mémoire et influencer la façon dont les individus évaluent ou interprètent les informations. Dans le rapport que l’opérateur humain entretient avec un système d’informations agi par l’IA, ces biais peuvent apparaître à différents niveaux, dans le degré d’acceptation des données fournies, la focalisation sur certains aspects, le choix des critères pour la décision. Dans l’usage des systèmes navals agis par l’IA, quels sont les biais cognitifs les plus présents, comment les repérer et les contrer ?
Il reste 86 % de l'article à lire