L’usage du numérique est devenu courant depuis plusieurs décennies mais l’irruption des Intelligences artificielles (IA) bouleverse les règles, en particulier avec l’IA générative. Celle-ci remet en cause la question de la confiance entre les utilisateurs et les propositions générées par l’IA. Il y a donc besoin de repenser cette relation en mutation accélérée.
La confiance dans l’Intelligence artificielle en pleine redéfinition du numérique
Confidence in Artificial Intelligence as Digitalisation is Redefined
Digitised information has been in use for several decades, yet the advent of different types of artificial intelligence (AI) is changing the rules—generative AI in particular. Its use is calling into question users’ confidence in proposals generated by AI. There is therefore a need to review their rapidly-changing relationship.
L’irruption des Intelligences artificielles (IA) génératives vient ébranler la confiance dans le numérique, dont les contours technologiques avaient été construits depuis des dizaines d’années. Leur émergence, et plus particulièrement celle des Grands modèles de langages (LLM), est largement inattendue (1). Là où le numérique avait été pensé autour de la fiabilité, permettant de rendre compte du réel avec un haut niveau de confiance, grâce à une chaîne de technologies mise en place au cours des années (2), l’IA générative (IAGen), par sa puissance et sa complexité, change profondément notre rapport au numérique : les technologies mises en place jusqu’à aujourd’hui pour maîtriser, tester, valider et certifier les données, algorithmes et prédictions des IA sont caduques.
Dans cet article, nous discutons la différence profonde entre IAGen et numérique pour rendre compte des difficultés (voire impossibilités ?) à la déployer en confiance. Le numérique, conçu comme outil d’analyse et de documentation du réel, devient désormais un espace de génération, de simulation, voire de fiction hors d’atteinte des techniques de vérification. Rendre plus fiable l’IA générative est probablement l’un des grands enjeux des années à venir, mais la difficulté est à la hauteur des défis à relever.
Structuration du numérique classique
Depuis les années 1970, le numérique s’est articulé autour de composantes bien identifiées : circuits imprimés, processeurs, mémoire, réseaux, capteurs, logiciels, données massives. Cette architecture s’appuyait sur une séparation claire entre syntaxe (formes numériques) et sémantique (interprétation humaine) (3). Les algorithmes manipulaient des symboles ; les humains en assuraient le sens. Ce cadre a permis la mise en œuvre de logiciels documentés, testés, certifiés, audités dans un environnement réglementé (Règlement général sur la protection des données [RGPD], certifications, audits open source). Cette séparation entre syntaxe et sémantique est importante pour la confiance. La représentation syntaxique permet de mettre en œuvre des outils de vérification, de tests, mis en place par des outils basés sur différentes logiques (4) ou la preuve constructive (5). C’est sur ces bases que sont par exemple montrées la correction et la conformité à la loi de l’algorithme Parcoursup (6). La preuve existe grâce à une représentation formelle, en logique, de l’algorithme et des propriétés à prouver.
Il reste 81 % de l'article à lire
Plan de l'article








