Images générées par l'IA : la course à la détection
Pour sauvegarder cet article, connectez-vous ou créez un compte monfranceinfo
Sans paiement. Sans abonnement.
/2024/09/14/nicolas-arpagian-66e5be37c179f515361798.png)
/2025/04/12/gettyimages-2017687137-67fa459e2d0dc706740708.jpg)
Nous avons été habitués à concevoir la preuve par l’image avec des prises de vue qui témoignent de situations réelles. Pourtant, le déploiement des solutions d’Intelligence Artificielle génératives remet en question le crédit que l’on peut désormais accorder à des photographies.
On recourt en effet à des prises de vue pour attester de nombreuses situations : justificatifs de dépenses pour se faire rembourser des notes de frais, photographies pour un constat d’assurance avant ou après un sinistre, état des lieux pour un logement… Les occasions du quotidien sont nombreuses où la photographie est utilisée comme un élément probant. Or, les IA génératives sont aujourd’hui à même de créer de toutes pièces des documents extrêmement réalistes et donc crédibles.
Qui peuvent être exploitées à des fins de fraude ou d’escroquerie. Sans parler des mises en situation pour nuire à une personne ou à une entreprise.
Des capacités de détection encore imparfaites
On ne peut pas ou plus vraiment compter sur les défauts du document tels qu’ils existaient il y a encore quelques mois avec des personnages avec plus de 5 doigts ou des déformations manifestes du décor conçu par l’algorithme. Comme ce fut d’abord le cas pour chercher à identifier les textes produits par des IA, des éditeurs de logiciels promettent des capacités de détection.
Mais là encore on retrouve les deux écueils habituels : la désignation de faux positifs, c’est-à-dire lors des tests le signalement de clichés effectivement pris dans la vie réelle. Et l’incapacité à repérer des productions automatisées.
Pour contribuer à clarifier la situation, plusieurs éditeurs de service de génération d’images indiquent insérer des filigranes invisibles à l’œil nu dans chacune de leur production afin de les distinguer avec certitude.
L'Espagne légifère avec des sanctions lourdes
Avec un projet de loi adopté en mars 2025, l’Espagne prévoit de lourdes sanctions pour les entreprises ne signalant pas correctement les contenus générés par IA. Puisque les contrevenants risquent jusqu’à 35 millions d’euros d’amende, ou 7 % de leur chiffre d’affaires mondial annuel. Pour opérer ce contrôle, Madrid a créé la première autorité publique européenne dédiée exclusivement à la régulation et à la supervision de l’intelligence artificielle (AESIA).
Outre le marquage initial de la photographie ou de la vidéo, la difficulté réside dans sa persistance, puisque ce fichier sera compressé par différents procédés lorsqu’il sera par exemple transféré sur les réseaux sociaux. Ce qui a souvent pour effet d’effacer les traces techniques. Par ailleurs, des sites promettent déjà des services pour gommer ces marqueurs.
Il ne faut donc pas miser uniquement sur la technologie pour repérer ces productions et bien veiller à éduquer et entretenir notre esprit critique face aux images qui nous parviennent. Un véritable défi au regard de la qualité croissante de leur définition, puisque la détection par l’œil humain relèverait pour l'instant, de plus en plus, selon l’intitulé d’une récente publication universitaire du Kings College de Londres, du "pile ou face".
Lancez la conversation
Connectez-vous à votre compte franceinfo pour commenter.