Images générées par l'IA : la course à la détection

La capacité à fabriquer des photographies hyperréalistes grâce à l'IA générative conduit à reconsidérer leur valeur probante. L'Espagne vient de légiférer pour sanctionner lourdement les producteurs de contenus qui ne signaleraient pas l'origine artificielle de leurs créations.
Article rédigé par Nicolas Arpagian
Radio France
Publié
Temps de lecture : 3min
L'Espagne prévoit de lourdes sanctions pour les entreprises ne signalant pas les contenus générés par IA. (ANDRIY ONUFRIYENKO / MOMENT RF)
L'Espagne prévoit de lourdes sanctions pour les entreprises ne signalant pas les contenus générés par IA. (ANDRIY ONUFRIYENKO / MOMENT RF)

Nous avons été habitués à concevoir la preuve par l’image avec des prises de vue qui témoignent de situations réelles. Pourtant, le déploiement des solutions d’Intelligence Artificielle génératives remet en question le crédit que l’on peut désormais accorder à des photographies.

On recourt en effet à des prises de vue pour attester de nombreuses situations : justificatifs de dépenses pour se faire rembourser des notes de frais, photographies pour un constat d’assurance avant ou après un sinistre, état des lieux pour un logement… Les occasions du quotidien sont nombreuses où la photographie est utilisée comme un élément probant. Or, les IA génératives sont aujourd’hui à même de créer de toutes pièces des documents extrêmement réalistes et donc crédibles.

Qui peuvent être exploitées à des fins de fraude ou d’escroquerie. Sans parler des mises en situation pour nuire à une personne ou à une entreprise.

Des capacités de détection encore imparfaites

On ne peut pas ou plus vraiment compter sur les défauts du document tels qu’ils existaient il y a encore quelques mois avec des personnages avec plus de 5 doigts ou des déformations manifestes du décor conçu par l’algorithme. Comme ce fut d’abord le cas pour chercher à identifier les textes produits par des IA, des éditeurs de logiciels promettent des capacités de détection.

Mais là encore on retrouve les deux écueils habituels : la désignation de faux positifs, c’est-à-dire lors des tests le signalement de clichés effectivement pris dans la vie réelle. Et l’incapacité à repérer des productions automatisées.

Pour contribuer à clarifier la situation, plusieurs éditeurs de service de génération d’images indiquent insérer des filigranes invisibles à l’œil nu dans chacune de leur production afin de les distinguer avec certitude.

L'Espagne légifère avec des sanctions lourdes

Avec un projet de loi adopté en mars 2025, l’Espagne prévoit de lourdes sanctions pour les entreprises ne signalant pas correctement les contenus générés par IA. Puisque les contrevenants risquent jusqu’à 35 millions d’euros d’amende, ou 7 % de leur chiffre d’affaires mondial annuel. Pour opérer ce contrôle, Madrid a créé la première autorité publique européenne dédiée exclusivement à la régulation et à la supervision de l’intelligence artificielle (AESIA).

Outre le marquage initial de la photographie ou de la vidéo, la difficulté réside dans sa persistance, puisque ce fichier sera compressé par différents procédés lorsqu’il sera par exemple transféré sur les réseaux sociaux. Ce qui a souvent pour effet d’effacer les traces techniques. Par ailleurs, des sites promettent déjà des services pour gommer ces marqueurs.

Il ne faut donc pas miser uniquement sur la technologie pour repérer ces productions et bien veiller à éduquer et entretenir notre esprit critique face aux images qui nous parviennent. Un véritable défi au regard de la qualité croissante de leur définition, puisque la détection par l’œil humain relèverait pour l'instant, de plus en plus, selon l’intitulé d’une récente publication universitaire du Kings College de Londres, du "pile ou face".

Lancez la conversation

Connectez-vous à votre compte franceinfo pour commenter.