Comment les rédactions de France Télévisions utilisent-elles l'intelligence artificielle ?

Publié Mis à jour
Temps de lecture : 6min - vidéo : 7min
Article rédigé par franceinfo
France Télévisions
Les progrès de l'IA en Europe et le récent sommet de Paris interrogent sur l'utilisation croissante de cet outil par les grands médias. Pascal Doucet-Bon, directeur délégué de l'information, explique les grandes règles et principes qui encadrent l'utilisation de l'intelligence artificielle par les journalistes des différentes rédactions de France Télévisions.

La France s'est mise à l'heure de l'intelligence artificielle pendant 6 jours, à l'occasion du sommet international qui se tenait à Paris du 6 au 11 février. A cette occasion, scientifiques, experts, entrepreneurs et experts ont débattu des risques et biais que peut présenter l'utilisation de l'IA mais aussi des opportunités que celle-ci peut ouvrir dans de nombreux domaines (santé, travail, défense...).

 A cette occasion, Pascal Doucet-Bon, directeur délégué de l'information de France Télévisions, clarifie la position de France Télévisions en matière d'utilisation de l'intelligence artificielle au sein des rédactions, dans le cadre de notre rubrique transparence.

Transparence, confidentialité... Les grands principes

"Il faut d'abord parler des règles qui ont été fixées, parce que tout en découle", expose Pascal Doucet-Bon, qui les résume en quelques grands principes.

Le premier pourrait s'appeler : "humain - machine - humain", c'est-à-dire que c'est le journaliste qui décide de l'emploi ou non d'une intelligence artificielle. Celle-ci fait ensuite son travail. Puis le journaliste décide de la publication ou non du contenu, et du niveau de vérification qu'il va appliquer. Tout est un enjeu de vérification : "une intelligence artificielle ne raconte jamais ce qui est 'vrai', mais ce qui lui apparait comme étant 'le plus probable', en fonction de l'analyse des données qui ont servies à l'entraîner", rappelle Pascal Doucet-Bon. "Le risque majeur est celui de l'hallucination, c'est-à-dire que l'intelligence artificielle donne un résultat totalement faux. Elle peut même inventer parfois des sources."

"L'IA ne peut pas être une source."

Pascal Doucet-Bon, directeur délégué de l'information de France Télévisions

à franceinfo

Un autre risque, "qui exige un immense niveau de vérification", ce sont les biais d'entraînement. "Les IA américaines, par exemple, peuvent être taxées d'avoir des biais d'entraînement : les données ayant servi à les entraîner seraient trop blanches, trop occidentales, ne tiendraient pas assez compte des minorités, etc.", rappelle le directeur délégué. Même si cela reste à nuancer, cela impose aux médias de se fixer des règles qui empêchent toute IA de publier directement des contenus.

Le deuxième principe est la confidentialité des données : il ne faut pas donner à une IA des informations confidentielles. Or, le sujet qu'un rédacteur prépare pour le soir-même, en soi, est bien une information confidentielle… Les rédacteurs ne doivent pas aller sur ChatGPT, sur Le Chat, pour se renseigner sur leur sujet en tant que tel.

Le troisième grand principe, c'est la transparence. Il faut que le public, les internautes, les téléspectateurs, soient informés, sans effort, qu'une image ou un contenu a été créé entièrement ou en partie à l'aide d'une intelligence artificielle générative. "Par exemple, il faut que soit inscrit à l'écran : 'image générée par une intelligence artificielle', et il faut aussi qu'on le dise oralement au public", détaille Pascal Doucet-Bon. A plus long terme, France Télévisions s'engage à publier dans un futur proche la liste des intelligences artificielles qu'elle utilise, et les raisons de leur utilisation. Cette liste pourra être publiée sur la page Une info transparente, sur laquelle cette vidéo est diffusée. Mais cela ne suffit pas : il y a aussi toute une réflexion à avoir sur le caractère réaliste de l'image. "Le photoréalisme est plutôt à éviter si possible. En tout cas quand il est utilisé, il faut que ce soit de manière maîtrisée, avec des décisions collégiales, et pour des raisons solides et explicables", ajoute le directeur délégué.

"Un groupe de presse comme France Télévisions n’a pas pour vocation de créer des "deepfakes", des images fausses qui pourraient être utilisées par d’autres pour alimenter de la désinformation. Cela parait évident mais il faut le dire."

Pascal Doucet-Bon

à franceinfo

Enfin dernier grand principe : le respect de la propriété artistique. "Aujourd'hui, les opérateurs d'intelligences artificielles ne rémunèrent pas les artistes qui ont créé les œuvres qui servent à alimenter les IA", rappelle Pascal Doucet-Bon. Par conséquent, il n'est pas possible d'utiliser l'IA pour fabriquer des contenus de manière industrielle. "Cela doit être rare, correspondre à des cas dans lesquels il n'est pas possible de faire autrement, tant qu'une solution juridique au niveau mondial n'a pas été trouvée, mais la plupart des experts considèrent que cela ne va pas arriver demain."

Analyses de données, transcription d'interview... Quelques exemples d'utilisation

Une fois exposés ces grands principes qui posent le cadre dans lequel l'usage de l'intelligence artificielle génarative est possible à France Télévisions, Pascal Doucet évoque quelques cas concrets qui existent déjà au sein des rédactions. D'abord, il y a la transcription de la voix vers le texte, le "speech-to-text", disponible, depuis quelques semaines à la rédaction nationale. "Cela permet de gagner énormément de temps au montage, ce qui est formidable surtout quand les interviews sont un peu longues."

"Quand une équipe rentre d'un reportage, elle peut, si elle le souhaite, avoir sur son écran d'ordinateur le texte des interviews qu'elle a réalisées. Et si le ou la journaliste surligne une phrase qui est intéressante, la machine est capable d'isoler le segment vidéo qui y correspond."

Pascal Doucet-Bon

à franceinfo

Pour éviter la divulgation d'informations confidentielles aux différentes IA qui peuvent être utilisées, France Télévisions a mis en place un outil surnommé "bac à sable" dans lequel sont versées les données, qui, ainsi, sont conservées en interne et ne sortent pas sur les réseaux. "Le sable reste dans le bac à sable", résume Pascal Doucet-Bon. "C'est dans ce cadre-là que les IA peuvent être utilisées."

Récemment, l'Union européenne de radio-diffusion (UER), c'est-à-dire l'alliance de tous les services publics européens, a décidé de fournir aussi un service d'intelligence artificielle, alimenté avec ses propres données. "Il reste en phase de test, les hallucinations ne sont pas à exclure", nuance le directeur délégué, qui ajoute "il faut être pro-actif, et il est bon de le faire au niveau européen, pour avoir évidemment plus de données."

Les IA sont également utilisées dans le cadre d'enquêtes, par exemple pour détecter d'autres IA, pour mettre au jour des "deepfakes", ou analyser de grandes bases de données. 

"Dans les grosses investigations, l’IA nous sert à analyser des milliers de documents, durant les fameux 'leaks'. On aurait beaucoup de mal à faire sans."

Pascal Doucet-Bon

à franceinfo

Enfin, "France Télévisions possède un service innovation, qui essaye en permanence de prendre en compte les besoins de la rédaction, toujours selon les règles qui ont été fixées", conclut Pascal Doucet-Bon.

Regardez l'intégralité des explications de Pascal Doucet-Bon dans la vidéo ci-dessus.

Lancez la conversation

Connectez-vous à votre compte franceinfo pour commenter.