Connexion
  • Mon espace
RDN Association loi 1904, fondée en 1939 RDN Le débat stratégique depuis 1939
  • Panier - 0 article
  • La Revue
  • e-RDN
    • Tribune
    • e-Recensions
    • Cahiers de la RDN
    • Débats stratégiques
    • Florilège historique
    • Repères
    • Brèves
  • Boutique
    • Abonnements
    • Crédits articles
    • Points de vente
    • Conditions générales de vente
  • Bibliothèque
    • Recherche
    • Auteurs
    • Anciens numéros
  • La RDN
    • Présentation
    • Comité d'études
    • L'équipe
    • Contact
    • Lettre d'infos
    • Agenda
  • Liens utiles
  • Mon espace
  • Connexion
  • Connexion

    Email :

    Mot de passe :

  • La Revue
  • e-RDN
    • Tribune
    • e-Recensions
    • Cahiers de la RDN
    • Débats stratégiques
    • Florilège historique
    • Repères
    • Brèves
  • Boutique
    • Abonnements
    • Crédits articles
    • Points de vente
    • Conditions générales de vente
  • Bibliothèque
    • Recherche
    • Auteurs
    • Anciens numéros
  • La RDN
    • Présentation
    • Comité d'études
    • L'équipe
    • Contact
    • Lettre d'infos
    • Agenda
  • Liens utiles
  • Accueil
  • e-RDN
  • Europe : fin de l'innocence stratégique – Regards du CHEM - 74e session
  • Face au développement de l’Intelligence artificielle, sommes-nous prêts ?

Face au développement de l’Intelligence artificielle, sommes-nous prêts ?

Christophe Le Neindre, "Face au développement de l’Intelligence artificielle, sommes-nous prêts ? " Europe : fin de l'innocence stratégique – Regards du CHEM - 74e session

L’Intelligence artificielle (IA) a franchi une étape en 2022 en permettant de générer aisément des contenus de plus en plus réalistes rendant difficile de faire la différence entre le généré et l’authentique. Au-delà des perspectives positives identifiées dans divers domaines, cette évolution peut être employée au service de délinquants pour développer leurs activités criminelles. Elle peut également avoir un impact considérable sur notre relation à la preuve numérique dont la falsification pourrait être facilitée par l’IA. Si nous n’y prenons pas garde, il est à craindre pour la confiance dans notre système judiciaire et in fine dans nos sociétés établies sur le droit.

Depuis trente ans, le monde a été inondé par l’Intelligence artificielle (IA). La lecture des codes postaux sur le courrier, la gestion des dépôts de chèques en banque, la recommandation de vidéos sur YouTube ou Facebook, les correcteurs orthographiques, les messages suggérés dans les messageries instantanées… c’est de l’IA ! Et qu’un ordinateur puisse un jour nous parler dans un langage naturel (1) a longtemps été un fantasme de la science-fiction. Pourtant, en 2022, avec OpenAI, l’IA a franchi un palier. ChatGPT4, en lisant et en écrivant, a révélé les capacités nouvelles qu’apporte l’IA générative. À tel point que le monde entier l’a adopté et a fait de cette nouvelle technologie une réalité indispensable de notre époque. Depuis, elle nourrit son lot d’espérances, de promesses, de développement en tout genre et de possibles jusqu’alors inenvisageables. En un mot, l’IA est devenue la nouvelle source de progrès de l’humanité.

Cependant, l’IA questionne. Bien vite, derrière des promesses de lendemains meilleurs, les premières inquiétudes ont émergé. Comment l’IA allait affecter nos métiers et nos vies ? Ces progrès allaient-ils tous bénéficier à toutes et à tous ? D’ores et déjà, des bouleversements s’opèrent et transforment le monde du travail et pas toujours positivement. Beaucoup de métiers, notamment dans l’industrie, les services administratifs, la comptabilité, la traduction ou même le journalisme, voient avec l’arrivée de l’IA une capacité d’automatisation des tâches et donc une destruction d’emplois. Certaines compétences humaines telles que la création de contenus, le service client, etc., sont de plus en plus concurrencés par l’IA. Ainsi, des défis inédits se posent en même temps que progresse cette technologie. Faute d’être identifiés et relevés à temps, ils entraînent des conséquences potentiellement néfastes pour nos sociétés dont les dégâts sont irrémédiables.

Un de ces défis concerne l’appropriation de l’IA par la délinquance. Il n’est pas incongru de penser qu’au même titre que l’IA permet d’accélérer, d’amplifier, de transformer certains pans de notre société, la délinquance ne sera pas en reste. Mais quelles évolutions peuvent être attendues avec l’appropriation de cette nouvelle technologie par les réseaux criminels ? Et finalement, quel impact peut-on craindre sur la confiance dans la charge de la preuve et plus globalement dans la justice ?

Aussi, et avant toute chose, il est nécessaire de revenir à ce que sont réellement l’IA et ses évolutions afin de bien comprendre ses capacités et ce qu’elle apporte de nouveau. Ensuite, nous verrons l’impact de son utilisation à des fins criminelles et les risques que cela fait peser sur la charge de la preuve. Enfin, nous tenterons d’en tirer les conséquences et d’émettre quelques propositions visant à mieux anticiper et s’adapter à ce nouvel état de fait qui va s’imposer au système judiciaire.

L’intelligence artificielle (IA)

Beaucoup sont dits et écrits à son sujet entre engouement et peur, entre justesse et exagérations. Alors, de quoi parlons-nous exactement ? En quoi, les modèles génératifs constituent autant une avancée majeure qu’une plongée dans l’inconnu ?

L’IA, une idée pas si moderne

L’idée d’une machine capable de penser remonte à l’Antiquité. Dans la Grèce antique, Aristote (2) formalise les premiers principes de la logique, qui poseront les bases du raisonnement automatisé.

Avec la révolution industrielle et les progrès des mathématiques, la question du calcul mécanique prend une importance croissante. Au XIXe siècle, le mathématicien et inventeur britannique Charles Babbage conçoit la première machine programmable, l’Analytical Engine. Considérée comme le premier concept d’ordinateur programmable, elle était conçue pour exécuter une série d’instructions générales, ce qui en faisait une machine programmable et non limitée à un type de calcul spécifique.

Avec l’avènement de l’informatique au XXe siècle, l’IA prend une tournure scientifique. Le mathématicien et cryptologue britannique Alan Turing, en 1936, jette les bases théoriques de la computation avec sa célèbre machine éponyme, un modèle abstrait capable d’exécuter n’importe quel algorithme. Pendant la Seconde Guerre mondiale, il participe au déchiffrement d’Enigma (3), illustrant la puissance des machines pour résoudre des problèmes logiques complexes.

Cependant, l’acte de naissance de l’IA n’interviendra qu’en 1956 avec la toute première apparition des termes « intelligence artificielle ». Celle-ci est à porter au crédit de John McCarthy (4) lors d’une conférence qui regroupait des scientifiques étudiant la théorie des automates introduite par Alan Turing, au Dartmouth College de cette même année. McCarthy forge l’expression « Artificial Intelligence » en posant que la pensée humaine pouvait être « décrite avec une telle précision qu’une machine pourrait la simuler ». Les résultats obtenus furent bien loin des ambitions annoncées mais posèrent le désir d’essayer de copier le fonctionnement du cerveau humain, début d’une nouvelle aventure scientifique.

Une évolution au rythme d’étés et d’hivers

Les décennies suivantes (1956-1990) sont marquées par une alternance d’enthousiasme et de déception, respectivement plus connues sous le nom « d’étés et d’hivers de l’IA ».

Dans les années 1960 et 1970, les premiers programmes d’IA voient le jour. Des systèmes comme ELIZA (1966), capable de simuler une conversation psycho-thérapeutique, et SHRDLU (1972), un programme de compréhension du langage naturel, montrent des progrès prometteurs. Cependant, ces IA restent limitées et les chercheurs butent sur des problèmes comme le manque de puissance de calcul, restreignant la complexité des algorithmes, ainsi que la quantité de données que les programmes peuvent traiter et la gestion de la connaissance, ne pouvant pas facilement intégrer de nouvelles informations ou adapter leurs connaissances à des contextes variés.

Les années 1980 voient un regain d’intérêt avec l’essor des systèmes experts, capables de « raisonner » dans des domaines spécialisés. Ces systèmes fonctionnent selon un ensemble de règles explicites codées par des experts humains. Ils utilisent ainsi une base de connaissances et un moteur d’inférence pour « raisonner ». Par exemple, le système médical expert MYCIN (années 1970) fonctionne selon des règles du type : « Si un patient a une forte fièvre et des globules blancs élevés, alors il est possible qu’il ait une infection bactérienne et donc recommander un antibiotique spécifique ». Ces systèmes sont conçus sous forme de chaînes de règles logiques, souvent exprimées en logique propositionnelle ou logique floue, mais ils restent rigides, nécessitant une lourde ingénierie des connaissances.

L’enthousiasme retombe à la fin des années 1980 avec un nouvel hiver de l’IA, causé par les limites des approches basées sur des règles.

L’autoapprentissage des machines (1990-2010) : toute une révolution !

L’IA rebondit dans les années 1990 grâce aux progrès du machine learning. Plutôt que de programmer des règles explicites, les chercheurs développent des algorithmes capables d’apprendre à partir des données, de détecter des motifs et de faire des prédictions basées sur les données d’entraînement. Inspirés par le fonctionnement du cerveau humain, des réseaux de neurones artificiels sont utilisés pour résoudre des problèmes complexes comme la reconnaissance d’images et de la parole. Ces algorithmes apprennent à partir de données étiquetées, où chaque exemple d’entraînement est associé à une sortie désirée. Cela permet de créer des modèles capables de généraliser à partir des données d’entraînement. Un tournant majeur est le match entre Deep Blue et Garry Kasparov en 1997 : pour la première fois, un ordinateur bat un champion du monde d’échecs, illustrant la puissance des algorithmes d’IA combinés à une force brute de calcul.

Dans les années 2000, la combinaison de trois facteurs provoque des avancées spectaculaires. L’emploi des Graphics Processing Unit (GPU) augmente la puissance de calcul et permet de traiter de plus grandes quantités de données et d’entraîner des modèles plus complexes. Le développement exponentiel des données disponibles, dû à la numérisation croissante des informations et à l’avènement des big data, améliore l’entraînement des modèles de machine learning. Enfin, les réseaux neuronaux artificiels connaissent à cette époque un essor remarquable avec le deep learning (5) permettant un apprentissage automatique à partir de données. Ils rendent possibles des progrès spectaculaires en reconnaissance d’images (comme sur Instagram), en traduction (comme Google Translate), en reconnaissance vocale (comme Siri ou Alexa) par exemple.

La rupture de l’IA générative (2010 à aujourd’hui)

Depuis les années 2010, nous assistons à une véritable révolution des capacités de l’IA, notamment à travers l’emploi des Réseaux antagonistes génératifs (GANs (6)) et l’adoption d’une nouvelle architecture des réseaux de neurones profonds (Transformers). En effet, l’avènement des GANs en 2014 permet la génération d’images réalistes tandis que les Transformers ouvrent la voie aux grands modèles de langage en 2017. Ces évolutions transforment l’IA en surclassant les approches précédentes grâce au traitement parallèle des données et à l’auto-attention. L’IA identifie les dépendances complexes entre les mots dans une phrase améliorant ainsi ses capacités de compréhension et d’élaboration des interactions en langage naturel.

L’IA émerge et marque une véritable rupture : elle ne se contente plus d’analyser des données (classification, détection d’anomalies) ou de réaliser des prédictions, mais se distingue en créant de nouveaux contenus à partir de données existantes que ce soit du texte, des images, du son, du code et même des vidéos. À partir de là, tout s’accélère.

Entre 2018 et 2020, les modèles BERT (7) de Google ainsi que GPT-2 et GPT-3 (8) d’OpenAI révolutionnent le traitement du langage naturel. Les progrès des GANs permettent la création d’images et de vidéos ultra-réalistes. Les années 2022-2023 voient ainsi l’explosion des capacités des IA. Les Large Language Models (LLM) sont capables de comprendre, générer et manipuler du langage naturel à un niveau très avancé. GPT-4, Claude, Gemini, Llama ou Mistral comptent parmi les modèles les plus connus pour produire du texte notamment.

Depuis 2024-2025, les Large Action Models (LAM) complètent les modèles existants en proposant de planifier et d’exécuter des actions dans des environnements complexes. Nous parlons d’IA « autonomes » qui sont employées pour trier des CV ou pour gérer des patrouilles de drones par exemple. Ne nous y trompons pas : l’IA n’est cependant qu’une machine puisant ses connaissances dans des données, basée sur un algorithme et une puissance de calcul. Luc Julia (9) préfère parler d’« intelligence augmentée » estimant que le terme « intelligence artificielle » prête à confusion. L’IA donne plus de capacités aux hommes et leur permet d’être meilleurs dans des domaines spécifiques. Ils en gardent le contrôle. Ce sont eux qui définissent l’algorithme et l’entraînent selon des règles définies sur une base de données sélectionnée. L’IA n’est donc pas un problème en soi, c’est son utilisation par l’homme qui peut être pour le meilleur… comme pour le pire.

L’Intelligence artificielle générative et les risques pour le système judiciaire

La création de contenus à la portée de tous

La combinaison des LLM et des LAM apporte une évolution dans la manière de générer des contenus. Désormais, un LAM peut utiliser un LLM pour formuler et comprendre des objectifs exprimés en langage naturel. Le LAM reçoit la consigne et s’occupe de combiner plusieurs techniques comme un chef d’orchestre afin d’arriver à l’objectif assigné. Un LAM peut ainsi être employé pour la production de contenus convaincants à partir d’une consigne utilisateur aussi simple que « Fais une vidéo avec un chat jouant avec une balle rouge ». La simplification de l’interaction avec la machine est permise par les évolutions en matière de compréhension et de génération de langage naturel. Ainsi, nul besoin de savoir coder pour générer.

Dans une démarche de vulgarisation et d’appropriation de cette technologie, les modèles deviennent accessibles en proposant la gratuité soit de l’entièreté des services proposés, soit a minima pour des utilisations basiques. Ainsi, nul besoin de ressources pour générer. Plus généralement, des formations sur l’utilisation des modèles d’IA font florès sur la toile. Le nombre de personnes capables de générer du contenu subit un changement d’échelle. Il suffit d’interagir avec la machine (ou « prompter » (10)) pour donner les bonnes instructions aux modèles d’IA sollicités. Ainsi, nul besoin de connaissances ou de formations poussées pour générer.

Au-delà du nombre de générations, la sophistication des contenus générés est de plus en plus poussée et tend au réalisme rendant la pratique attractive tant par son côté ludique, son effet de mode, sa facilité que par ses potentialités. De fait, il n’est plus possible d’être réfractaire pour générer, vous allez être conquis (ou peut-être l’êtes-vous déjà) ! Finis les individus à six doigts, les vidéos désynchronisées entre la voix et l’image, les distorsions vocales : le réalisme est impressionnant. Ces technologies ouvrent des perspectives immenses dont les seules limites semblent être liées au coût computationnel et énergétique élevé du fait de l’emploi de GPU/TPU (Tensor Processing Unit) de plus en plus puissants et une dépendance aux Big Data pour bien fonctionner.

Générer est en train de devenir un sport de masse… qu’on nous incite à pratiquer ! Nous assistons, rien que ces derniers mois, à un changement d’échelle en termes de génération de contenus. La technologie a rencontré l’usage. À titre d’exemple, il suffit de voir la viralité de la génération des « starters packs » (11) depuis le début du mois d’avril 2025. Impossible d’y échapper : ils s’invitent partout sur les réseaux sociaux jusqu’aux groupes WhatsApp familiaux. Des tutoriels en ligne permettent même de se familiariser avec la génération de ce contenu particulier. Au-delà du côté ludique, nous partageons photos et centres d’intérêt avec une IA.

L’accessibilité, la facilité d’usage et la sophistication des contenus mettent cette technologie à la disposition du plus grand nombre. En guise d’exemple pouvons-nous citer l’adoption rapide des modèles tels que GPT-4, Mistral, DALL-E2 (12), Sora (13), ElevenLabs (14) dans un écosystème qui se développe de manière exponentielle. La dynamique est en marche et rien ne semble pouvoir (devoir) la freiner. Tout ceci est plutôt normal dans une démarche qui entend accompagner l’adoption d’une nouvelle technologie par le grand public. Cela n’aurait rien de problématique si les utilisations ne pouvaient être travesties entre les mains de personnes mal intentionnées.

L’IA et la génération de deepfakes (15)

Malheureusement, la délinquance est en passe de s’approprier ces outils et de se créer ses propres nouvelles opportunités grâce à une célérité accrue, un ciblage augmenté et une surface d’attaque de plus en plus importante. Comme nous l’avons vu précédemment, la génération de contenus grâce à une IA est à la portée de tous. L’un des dangers les plus préoccupants de l’IA réside dans sa capacité à créer des contenus falsifiés. Leur réaliste extrême et la démultiplication de leur réplication rapidement et à des coûts très faibles facilitent les escroqueries. La génération de visuels conformes aux officiels à des fins crapuleuses trompe les personnes les plus vulnérables et peut, à certains égards, renforcer la méfiance des individus devant les communications officielles. La parfaite maîtrise des langues étrangères par les IA facilite les tentatives d’escroquerie par des cyberdélinquants étrangers qui utilisent dès lors ces technologies pour apparaître crédibles et mieux escroquer leurs victimes. L’IA offre ainsi une capacité de personnalisation des attaques en fonction de la cible recherchée, à l’exemple des courriels de spear-fishing (hameçonnage ciblé) autant dans le domaine de la criminalité que de l’influence.

La génération de faux documents, tels des pièces justificatives ou des ordres de virement (dans un procédé de « fraude du président » (16), par exemple), concourt à duper les personnes en charge de leur contrôle et à renforcer les fraudes. Sur les réseaux sociaux, les exemples fleurissent au gré de l’imagination des utilisateurs d’IA, à l’instar dernièrement de fausses notes de frais et de fausses factures de restauration. L’impact économique de cette fraude générée par IA pourrait s’avérer majeur.

Des IA permettent également de manipuler des images et/ou des voix. Ces deepfakes vidéo et audio donnent l’illusion qu’une personne a dit ou fait quelque chose qu’elle n’a jamais fait. Des usurpations d’identité pourront être facilitées par ce biais à des fins d’escroquerie ou d’atteintes réputationnelles pour déstabiliser un adversaire, une autorité ou une institution. Au-delà de ces faits de délinquance traditionnelle, l’IA est d’ores et déjà utilisée à des fins de manipulation, de déstabilisation et d’ingérences étrangères (17).

L’IA comme nouvelle arme au service de la délinquance

Dans un autre domaine, il est attendu que l’IA permette de réaliser des avancées majeures dans la découverte et la conception de nouvelles molécules réduisant les durées et rationalisant les coûts des recherches. Une bonne nouvelle pour la santé et une aubaine pour les trafiquants de stupéfiants ! L’IA pourrait en effet être employée par des organisations criminelles afin de mettre au point de nouvelles drogues de synthèse.

Par ailleurs, plutôt que d’être le moyen, l’IA peut également être la source du problème. C’est le cas s’agissant des « attaques adversariales » (de l’anglais Adversarial Attack). Celles-ci peuvent fausser ou modifier volontairement les résultats donnés par une IA réputée pourtant de confiance. Il s’agit en la matière d’injecter un bruit optimisé et imperceptible pour transformer la réponse de cette IA. Ainsi, une IA employée pour confronter les titres d’identité aux bases de données des personnes recherchées pourrait être volontairement induite en erreur pour laisser passer un criminel lors des contrôles aux frontières. Imaginez les conséquences de telles attaques contre des IA gérant des systèmes de régulation du trafic ou des systèmes de conduite autonome…

Alors que les petite et moyenne délinquances se tourneront par facilité vers des modèles disponibles sur le marché, il n’est pas incongru de penser qu’à l’instar de puissances étrangères et devant les opportunités que l’IA propose énoncées supra, la criminalité organisée développera ses propres modèles d’IA. En outre, au-delà de la génération de nouvelles opportunités pour les réseaux criminels, l’IA peut constituer un moyen de déstabilisation plus profonde du système judiciaire.

L’IA comme moyen de bouleversement du processus judiciaire

Jusqu’alors, la falsification des preuves numériques était fastidieuse et demandait un savoir technique qui restreignait le nombre de personnes pouvant y avoir recours. Cependant, avec le développement de l’IA, ceci devient plus aisé et à la portée de tous. L’IA peut ainsi potentiellement être employée à fabriquer des preuves contradictoires, compliquant ainsi la charge de la preuve. Par exemple, dans une affaire de harcèlement en ligne, une partie pourrait fournir une capture d’écran d’une conversation accusatrice, tandis que l’autre partie pourrait générer une capture alternative affirmant le contraire. Face au développement de ces contenus falsifiés, les preuves numériques qui attestent encore aujourd’hui de la réalisation d’un fait ou de l’authenticité d’un acte, risquent de perdre leur crédibilité et engendrer des conséquences juridiques multiples. Ces falsifications en nombre compliqueront la tâche des enquêteurs, des juges et des avocats pour distinguer une preuve authentique d’une preuve falsifiée. Un individu pourrait être incriminé ou, à l’inverse, disculpé du fait de la génération d’un support numérique falsifié.

Les enquêteurs pourront être orientés à tort dans leurs investigations par le biais de documents générés dans le but de confondre les traces et indices numériques authentiques. Ils pourront de même être mobilisés indûment voire saturés devant l’ampleur des informations à démêler rallongeant les délais d’enquête. Ils pourront aussi faire l’objet de manœuvres de déception visant à orienter les effectifs sur des pistes stériles.

Dans le cadre des procédures, un mis en cause aurait la possibilité de contester l’authenticité d’une preuve en invoquant la manipulation par IA pour la discréditer. De nouvelles preuves pourraient être générées dans le but de faire réviser les condamnations entraînant des demandes de procès en révision. Sauf à disposer de moyens permettant de distinguer le véritable du généré, les enquêteurs et les magistrats seront amenés à trancher entre plusieurs preuves apparemment authentiques. Le recours à des expertises techniques, si tant est qu’elles puissent être menées, pour départager les preuves risque de surcharger les tribunaux, de rallonger les procédures tout en augmentant les coûts. L’impossibilité à trancher avec justesse entre l’authentique et le généré risque d’engendrer une atteinte à la légitimité de la justice et des services d’enquête et une perte de confiance dans l’ensemble du système judiciaire.

En permettant la création et la modification de contenus numériques d’un réalisme saisissant, l’IA soulève ainsi des défis inédits en matière de preuve numérique. Il est nécessaire de s’approprier ces questions avant que ce scénario noir ne se produise. Néanmoins, comment garantir l’intégrité des preuves lorsqu’il devient possible de fabriquer des deepfakes, de modifier des documents numériques ou encore de générer des preuves contradictoires ?

Rendre justice dans un monde baigné dans l’IA

Dans un monde où les contenus générés par l’IA sont voués à être de plus en plus nombreux et, dans un futur proche, prévaudront sur les authentiques, pouvoir distinguer ces deux formes de contenu devient un enjeu majeur.

Ajuster la réglementation

L’Union européenne (UE) a adopté le règlement 2024/1689 relatif à l’IA, ou AI Act (18). Entré en vigueur le 1er août 2024, il établit un cadre juridique pour l’IA au sein de l’UE en soulignant la nécessité de disposer de règles harmonisées dans ce domaine afin d’assurer un haut niveau de protection des intérêts publics, santé, sécurité et droits fondamentaux notamment. Des obligations spécifiques sont introduites pour les applications d’IA à haut risque, notamment celles utilisées pour générer du contenu numérique manipulable. Cependant, des voix (19) s’élèvent pour demander une meilleure harmonisation des règles internationales afin d’éviter que certains pays ne deviennent des zones de non-droit pour la manipulation de preuves numériques. Au vu des enjeux et des potentialités, il n’est exclu que des organisations criminelles, au même titre qu’elles le font dans d’autres domaines, profitent de ces différences dans les réglementations.

Il sera intéressant de suivre la mise en œuvre de l’AI Act dont les délais de mise en conformité varient en fonction des systèmes d’IA entre 2025 et 2026. Il n’est pas exclu que les difficultés d’ordre technique restent d’actualité et que des réticences s’expriment de la part d’acteurs du secteur privé, d’où émergent des voix estimant que l’UE est allée « trop loin » avec ces règles, freinant potentiellement l’innovation (20). L’AI Act contient notamment une obligation pour les fournisseurs de systèmes d’IA de marquer les contenus générés ou manipulés par l’IA. Cette technique, appelée watermarking, se présente comme un enjeu majeur dans la lutte contre la désinformation, les usurpations d’identité et les deepfakes. Concrètement, elle vise à insérer, de manière discrète mais détectable, une signature numérique dans les contenus générés par une IA. OpenAI, Google et d’autres fournisseurs d’IA intègrent déjà ces signatures dans leurs contenus générés. Le watermarking constitue ainsi un moyen dissuasif et intéressant pour identifier les contenus générés au moins pour les modèles classiques, disponibles sur le marché et watermarkés. L’adoption de la norme C2PA pour Coalition for Content Provenance and Authenticity, par Adobe, Microsoft et d’autres permet également d’attacher des métadonnées signées à chaque image ou vidéos indiquant des éléments sur le contenu tels que l’identité de celui qui a généré le contenu, la date et l’outil utilisé.

Bien que séduisantes sur le papier, ces techniques ne sont pas infaillibles, certaines modifications sur le contenu (telles un recadrage pour une image) pouvant neutraliser ou réduire la portée du watermarking par exemple. Des IA proposent d’ailleurs de « rendre indétectables » les contenus marqués. Par ailleurs, la criminalité organisée, au vu de ses enjeux et de ses capacités financières, pourrait développer ses propres modèles d’IA s’affranchissant des réglementations internationales et de toute obligation en matière de watermarking. Ainsi, même si la réglementation peut apporter son lot de contraintes pour dissuader voire sanctionner les déviances, elle ne peut ainsi pas se suffire à elle-même et des solutions complémentaires doivent être adoptées.

Développer une véritable stratégie nationale d’emploi de l’IA contre la délinquance

Globalement, l’IA est encore essentiellement perçue comme un moyen pour améliorer le quotidien des personnes. À ce stade, l’essentiel des réflexions sur l’IA au sein des ministères de l’Intérieur et de la Justice s’est concentré sur le développement de solutions apportant une aide aux personnels tant dans les domaines de l’organisation des services et de la logistique que des enquêtes en permettant le brassage, le tri, l’exploitation automatisée de nombreuses données. Ceci est trop réducteur : l’IA peut (et doit !) constituer un bouclier et une épée contre la délinquance. Une réflexion spécifique doit être entreprise et une véritable stratégie globale et audacieuse urgemment déployée.

La Gendarmerie nationale, convaincue des enjeux que représente l’IA en termes de sécurité, s’est investie depuis 2021 sur la conception et la mise en œuvre d’une stratégie globale capable d’appréhender les multiples dimensions de la discipline. L’objectif est d’assurer une exploitation dans la durée conforme et responsable des outils d’IA. Cependant, cette démarche reste encore relativement isolée.

De plus, pour répondre à une problématique posée par l’IA, quoi de mieux que d’utiliser… l’IA ! Au même titre que l’IA peut générer des contenus, l’IA peut être utilisée pour les détecter. Une telle démarche a été expérimentée par la Gendarmerie nationale avec son projet Authentik IA portant sur la détection des deepfakes et primé le 26 juin 2023 lors de la Nuit de l’IA en tant que « projet ayant le plus gros impact sociétal potentiel » (21). Après un travail d’un an et demi, un modèle mathématique a été développé pour détecter les fausses informations et ainsi authentifier en quelques secondes du texte, de l’audio ou une image. Cette expérimentation a donné des résultats intéressants et a démontré la possibilité de concevoir des outils performants de détection de deepfakes.

Elle a toutefois démontré que des contenus générés peuvent passer les filtres. Les modèles de détection doivent ainsi être constamment améliorés pour un meilleur taux de détection. Il est possible de les entraîner sur la génération de faux, en analysant les incohérences dans les images et les enregistrements. Cependant, force est de constater que, dans le même temps, les IA conçues pour générer des contenus indétectables s’améliorent et sont plus efficaces. S’en suit alors une lutte technologique entre IA que nous pourrions comparer à ce qui se passe dans le cadre de la lutte antidopage. Des contenus générés et faussement négatifs lors d’un test de détection à l’instant T seront potentiellement détectés positifs avec un délai plus ou moins conséquent. À voir toutefois si ces délais seront jugés acceptables, notamment s’il s’agit de preuves ayant emporté à elles seules des condamnations ou des relaxes injustes.

Ainsi, développer une veille proactive sur les développements des IA, disposer de modèles IA améliorés par un processus de Recherche et développement (R&D) optimisé, diffuser ces outils dans les services enquêteur et de la justice sont des démarches essentielles. Labelliser des IA reconnues comme performantes pour détecter les deepfakes permettrait de valoriser les outils les plus performants afin qu’ils soient employés par les organismes en charge du contrôle et limiter les fraudes.

De manière à accroître la réactivité et améliorer les connaissances dans un monde évolutif comme celui de l’IA, le développement de partenariats entre d’une part, le ministère de l’Intérieur et d’autre part, les organismes de recherche en IA et les partenaires internationaux travaillant sur ces problématiques, sont à amplifier. Le rapprochement avec l’Agence ministérielle pour l’IA de Défense (AMIAD) est de nature à partager la compréhension des enjeux, des développements et des expertises en matière d’IA. Un travail collaboratif avec les grands opérateurs de l’IA mérite d’être entrepris pour avancer ensemble sur une réglementation propice à protéger les utilisateurs sans pour autant brider le progrès et la création, notamment en matière de watermarking vu précédemment.

En complément, il apparaît nécessaire de recourir à d’autres technologies pour sécuriser les preuves numériques. L’authentification cryptographique en utilisant des certificats numériques permet de contribuer à l’intégrité des documents numériques. L’Agence nationale de la sécurité des systèmes d’information (ANSSI), dans son guide des mécanismes cryptographiques (22), souligne également l’importance de l’horodatage et des empreintes numériques pour garantir l’intégrité et assurer la fiabilité, la traçabilité et la valeur juridique des documents électroniques. Par ailleurs, d’autres solutions comme l’archivage sécurisé et la signature numérique des documents importants permettent de sécuriser les contenus importants tels que les preuves numériques. Cependant, la seule solution technique ne sera pas suffisante.

Une action sur les individus : éduquer tous azimuts

Dans une société prompte à un narcissisme débridé où la maîtrise de ses données personnelles passe au second plan derrière un besoin compulsif de tout photographier, de tout filmer et de tout partager, il y a urgence à agir. L’utilisation frénétique des réseaux sociaux et désormais des IA permet la collecte de données personnelles (voix, images/photos, vidéos), mais aussi des inclinaisons et centres d’intérêt divers des utilisateurs. Certaines IA peuvent également stocker dans des serveurs localisés à l’étranger et exploiter ces données personnelles ce qui interroge à l’exemple de Deepseek (23). Avec nos partages nombreux, divers et variés, tout est là pour une usurpation d’identité. Il faut collectivement et individuellement prendre conscience que notre identité sera probablement à l’avenir le bien le plus précieux des citoyens. Le rapport au partage des données personnelles doit être revu pour (se) protéger plus efficacement.

Par ailleurs, nous devons nous éduquer et éduquer la jeunesse afin d’acquérir un esprit critique et disposer de suffisamment de connaissances pour remettre en question ce que nous entendons, ce que nous voyons, ce que nous lisons pour éviter les escroqueries. La première des protections passe par notre capacité individuelle et collective à douter et à sortir d’une certaine naïveté pour mieux contrer les deepfakes que les IA vont générer. Le contenu généré est en train d’investir Internet. Cette tendance va s’accélérer fortement dans les deux à cinq prochaines années avec des prédictions estimant un volume total du contenu généré supplantant le contenu humain d’ici 2026-2027. Les humains devraient donc évoluer face à une pollution informationnelle où le vrai et le faux pourraient s’entremêler, dans un cadre propice au développement d’escroqueries en tout genre. L’éducation des jeunes générations mais aussi plus globalement de l’ensemble de la population sur l’utilisation des modèles d’IA est une priorité. Des initiatives des pouvoirs publics sont à saluer au même titre que des voix s’élèvent tant dans la sphère médiatique que sur les réseaux sociaux pour alerter, sensibiliser, partager sur les avancées, les développements mais aussi sur les dangers que peut  représenter une IA non maîtrisée. À cet égard, pouvons-nous citer les podcasts « Les voies de l’IA (24) » de France Info, l’Observatoire de l’IA de l’Université Paris I Panthéon-Sorbonne et Sorbonne TV.

Monter en compétence les professionnels du système judiciaire

En outre, les magistrats, les avocats et les enquêteurs doivent être plus spécifiquement sensibilisés et formés, tant pour présenter les bénéfices de l’IA que pour avertir sur ses risques. Il s’agit d’augmenter le seuil moyen de vigilance des enquêteurs et des magistrats de manière à créer un doute raisonnable sur les preuves numériques.

À titre d’illustration, la Gendarmerie nationale publie une revue bimestrielle Cultur’IA, aujourd’hui ouverte au public, pour diffuser ces éléments vers ses personnels. Un cours en ligne ou MOOC (Massive Open Course) a également été conçu pour vulgariser l’IA auprès des personnels de l’institution. Cette pratique mériterait d’être généralisée à l’ensemble des ministères de l’Intérieur et de la Justice au profit des magistrats, des avocats et des enquêteurs. La création de compétences d’analyses judiciaires spécialisées en deepfakes et falsifications numériques permettrait de disposer de compétences d’authentification des preuves numériques, mais aussi de développer/tester des modèles d’IA adaptés aux besoins des services enquêteurs.

Néanmoins, le niveau d’acculturation actuel ne peut être considéré comme suffisant pour une exploitation au sein des ministères. Il s’agit alors d’être en mesure de disposer d’une ressource hautement qualifiée capable de faire face aux défis du développement, de la transparence et de l’explicabilité, de la redevabilité et de la diffusion des outils d’IA.

Conclusion

Jensen Huang, président directeur de NVIDIA qui se présente comme le leader mondial du calcul informatique, a prédit qu’en 2033, l’IA sera un million de fois plus rapide que ChatGPT-4. Sam Altman, fondateur d’OpenAI, a, quant à lui déclaré que la super intelligence artificielle, c’est-à-dire une IA des millions de fois plus intelligente que l’homme, sera prête avant 2033. Ce mouvement est bouleversant dans le sens où l’IA va transformer durablement et profondément nos sociétés. L’utilisation qui sera faite de l’IA questionne. Elle augmente le champ des possibles pour le meilleur comme pour le pire. Alors qu’elle est censée nous aider au quotidien dans nos activités, elle pourrait également amplifier les capacités de la criminalité, modifier notre rapport à la preuve numérique et représenter un défi majeur pour le système judiciaire.

Néanmoins, il n’y a pas de caractère inéluctable, cela peut être anticipé. Une prise de conscience, collective et individuelle, est nécessaire. Une stratégie globale, lucide et audacieuse doit être développée coordonnant l’interministériel et le secteur privé avant que les premiers effets ne se fassent sentir et que la confiance dans tout l’édifice judiciaire n’en pâtisse. Et s’il n’y a pas mieux pour protéger les gens de l’IA qu’une IA, alors il faut créer des IA « anges gardiens » qui se tiennent à jour des avancées des escroqueries générées par l’IA et qui peuvent vérifier la véracité des demandes. Elles seraient ainsi notre bouclier et notre épée contre la jungle numérique. À défaut, quand la vague déferlera, aucune digue ne sera en place et le réveil pourrait s’avérer brutal.

(1) Le langage naturel correspond au langage humain vivant. Il se distingue du langage formel (mathématique ou informatique). Un des enjeux de l’IA est de pouvoir le comprendre, le traiter et/ou le produire.

(2) Aristote développe dans l’Organon la logique syllogistique qui influencera les futurs travaux sur l’automatisation du raisonnement.

(3) Enigma est une machine électromécanique de chiffrement utilisée par l’armée allemande pendant la Seconde Guerre mondiale. Elle offrait en théorie plusieurs centaines de milliards de combinaisons possibles ce qui rendait son code potentiellement incassable.

(4) John McCarthy (1927-2011), mathématicien et informaticien américain. Professeur à Stanford, directeur de laboratoires influents en IA, il a inventé le langage de programmation LISP en 1958 qui est devenu pendant longtemps le langage principal de la recherche en IA.

(5) Geoffrey Hinton, Yann LeCun et Yoshua Bengio popularisent les techniques de deep learning en gagnant en 2012 un concours de reconnaissance d’images en utilisant cette méthode.

(6) Les GANs, introduits par Ian Goodfellow et ses collègues en 2014, sont particulièrement innovants. Ils opposent deux réseaux de neurones : un générateur, qui crée de nouvelles données, et un discriminateur, qui évalue leur authenticité. Cette dynamique permet d’affiner progressivement la qualité des contenus générés.

(7) Le Bidirectional Encoder Representations from Transformers est un modèle développé par Google en 2018 qui comprend le sens des mots dans leur contexte et pas juste leur définition individuelle. Il prend en compte des aspects de logique dans les textes proposés.

(8) GPT-1 à 4 correspondent aux différentes versions d’un modèle développé par OpenAI de Generative Pre-trained Transformer. La dernière version GPT-4 est un modèle multimodale lancé en 2023 capable de générer du texte, de répondre à des questions et d’effectuer des tâches complexes.

(9) Julia Luc, L’intelligence artificielle n’existe pas, Éditions J’ai lu, 2024, 288 pages. C’est un des spécialistes mondiaux de l’IA, cocréateur de Siri, l’assistant vocal d’Apple et pionnier de la réalité augmentée.

(10) « Prompter » consiste à donner une instruction ou une série de données (appelées prompt) à une IA pour qu’elle puisse générer des réponses ou des contenus en texte, image, son ou vidéo.

(11) Un « starter pack » est une image générée par IA représentant une personne sous forme de figurine emballée dans une boîte, entourée d’objets qui la caractérisent.

(12) DALL-E 2 est un modèle capable de générer des images réalistes à partir de description textuelle.

(13) SORA est un modèle permettant de générer des vidéos complètes à partir d’un simple texte.

(14) ElevenLabs est un générateur de voix par IA qui s’appuie sur la technologie de synthèse vocale, Text to speech. Cela permet par exemple de créer des voix synthétiques réalistes dans 29 langues différentes mais aussi de cloner sa voix.

(15) Un deepfake est une production (image, vidéo ou audio), fallacieuse ou volontairement erronée, réalisée ou modifiée à l’aide de l’IA.

(16) La « fraude du président » consiste à convaincre un employé de l’entreprise ciblée d’effectuer un virement important d’argent en urgence à un tiers en usurpant l’identité d’un responsable de la direction de ladite entreprise.

(17) Viginum, Défis et opportunités de l’intelligence artificielle dans la lutte contre les manipulations de l’information, Secrétariat général de la défense et de la sécurité nationale (SGDSN) et Premier ministre, février 2025, 28 pages (https://www.sgdsn.gouv.fr/).

(18) Règlement 2024/1689 du Parlement européen et du Conseil, 13 juin 2024 (https://eur-lex.europa.eu/).

(19) Maistre (de) Jean-Rémi, « Intelligence artificielles : L’innovation ne doit pas se faire au sacrifice de l’éthique et de la sécurité », Le Monde, 11 septembre 2024.

(20) « Capgemini CEO says EU went ‘too far’ with AI rules », Reuters, 10 février 2025 (https://www.reuters.com/).

(21) Morin Céline, « Intelligence artificielle : recherche et partenariats au cœur de la stratégie de la gendarmerie », Gend’info, 25 juillet 2023 (https://www.gendarmerie.interieur.gouv.fr/).

(22) ANSSI, Guide des mécanismes cryptographiques. Règles et recommandations concernant le choix et le dimensionnement des mécanismes cryptographiques, janvier 2020 (https://cyber.gouv.fr/).

(23) Deepseek est une IA chinoise lancée le 20 janvier 2025, gratuite et présentée comme pouvant rivaliser en termes de performances avec les IA de grandes entreprises américaines (OpenAI, Google, Gemini…). Elle est pourtant sous le coup d’une interdiction d’utilisation dans certains pays comme l’Italie ou d’enquêtes comme en France, en Irlande ou en Belgique du fait des conditions de transfert de renseignements personnels, des risques de surveillance et de gouvernance même de l’IA.

(24) Pennanec’h Pauline, « Deepfakes, quand l’IA bouleverse la création musicale » (podcast), France Info, 5 mai 2025, 30 min (https://www.franceinfo.fr/).

Partagez...

  • Accéder au sommaire du cahier

Décembre 2025
n° 885

Les Accords de Dayton : de l’histoire à l’actualité

Je participe au débat stratégique


À vos claviers,
réagissez au dossier du mois

 

Actualités

17-12-2025

Toutatis, une démonstration fédératrice au service de l’innovation spatiale française

12-12-2025

Démarrage de la chaufferie nucléaire du SNA De Grasse

09-12-2025

La Croatie commande 18 Caesar 6x6 MkII et 15 véhicules blindés Serval

03-12-2025

Le GAA (2S) Luc de Rancourt élu président du CEDN – Directeur de la publication de la RDN

Adhérez au CEDN

et bénéficiez d'un statut privilégié et d'avantages exclusifs (invitations...)

Anciens numéros

Accéder aux sommaires des revues de 1939 à aujourd’hui

Agenda

Colloques, manifestations, expositions...

Liens utiles

Institutions, ministères, médias...

Lettre d'infos

Boutique

  • Abonnements
  • Crédits articles
  • Points de vente
  • CGV
  • Politique de confidentialité / Mentions légales

e-RDN

  • Tribune
  • e-Recensions
  • Cahiers de la RDN
  • Florilège historique
  • Repères

Informations

La Revue Défense Nationale est éditée par le Comité d’études de défense nationale (association loi de 1901)

Directeur de la publication : Thierry CASPAR-FILLE-LAMBIE

Adresse géographique : École militaire,
1 place Joffre, Paris VII

Nous contacter

Tél. : 01 44 42 31 90

Email : contact@defnat.com

Adresse : BP 8607, 75325 Paris cedex 07

Publicité : 01 44 42 31 91

Copyright © Bialec Tous droits réservés.