Tour d’horizon : l'intelligence artificielle dans les médias

La démocratisation de l’intelligence artificielle, à travers l’usage d’outils comme Chat GPT, a poussé la presse à réagir. Comment s’approprier cette nouvelle panoplie d’outils, sans nuire à la qualité de l’information ? Formats, approches, débats, outils : tour d’horizon des usages.

Owen Huchon
Owen Huchon

L’usage de l’intelligence artificielle (IA) dans les rédactions n’a rien de nouveau. Depuis 2016, le Washington Post utilise par exemple Heliograph pour la rédaction de courts articles sur le sport ou les résultats d’élections. Toutefois, force est de constater que son usage s’est largement intensifié depuis plusieurs mois. De nombreux médias ont expérimenté, à tâtons ou de manière relativement brusque, avec ces nouveaux outils mis à leur disposition. Si certains ont fait le choix d’encadrer son usage et de faire preuve de pédagogie, d’autres ont par exemple fait le choix de remplacer une partie de leur rédaction par des machines, persuadés d’y voir une solution à leurs difficultés financières.

Syndicats et organisations de journalistes s’inquiètent de ses répercussions sur l’emploi et la qualité de l’information en appelant à réguler, voire interdire, son usage. D’autres affirment que l’intelligence artificielle pourra enfin libérer les journalistes de tâches chronophages et leur permettra d’accorder plus de temps à leur mission première : l’enquête et le reportage.

Pour y voir plus clair, nous vous proposons ci-dessous une sélection, évidemment non exhaustive, de formats, de débats et de pratiques repérées dans les médias. 

(Dernière mise à jour le 23/11/2023)

  1. Optimisation du travail et automatisation des tâches

À ce jour, l’usage de l’intelligence se limite surtout à des tâches courtes et répétitives. Dans les applications plus poussées, comme la rédaction d’une newsletter ou la traduction d’un article, son utilisation est généralement conditionnée par une action humaine.

  • Le média danois Zetland a développé un outil de transcription automatique, baptisé GoodTape, à destination des journalistes. L’application, qui garantit la protection et le chiffrage des données de ses utilisateur·ices, a été conçue à l’aide de l’API « Whisper » développée par OpenIA, l’entreprise à l’origine de ChatGPT.
🤖
Depuis 2023, les journalistes de Médianes utilisent GoodTape dans le cadre de retranscriptions. Pour en savoir plus sur nos outils, rendez-vous dans notre chronique dédiée.
  1. Réguler

Si les IA ne semblent être qu’à leurs balbutiements, leurs conséquences sont déjà importantes. N’ayant pas anticipé ce bond technologique, les États à travers le monde tentent de rattraper leur retard en élaborant leurs législations respectives. comme aux États-Unis. De nombreux syndicats et collectifs de différentes industries se sont mobilisés en faveur d’une régulation, voire d’une interdiction de son usage. 

  • Aux États-Unis, un certain nombre de syndicats souhaitent négocier avec leur direction à propos. Ils s'inquiètent notamment des dérives de l’usage de l’intelligence artificielle au sein des rédactions. Au sein du Financial Times, les discussions auraient déjà mené à un certain nombre d'accords mais dans d’autres médias, les négociations seraient actuellement « au point mort » selon certains représentant·es syndicaux. 
  • En France, Le Conseil de Déontologie Journalistique et de Médiation (CDJM) a suggéré un certain nombre de « bonnes pratiques » dans son guide sur le journalisme et l’intelligence artificielle. Une initiative saluée par des syndicats français, dont la CFDT : Journalistes et le SNJ
  • À travers une tribune publiée dans Libération, le collectif de traducteur·ices « En chair et en os », appelle à proscrire l’usage de l’intelligence artificielle dans plusieurs domaines culturels. « Nous, traductrices et traducteurs, créatrices et créateurs dans les domaines de la littérature, du cinéma, de l’audiovisuel, du jeu vidéo et de la presse, alertons sur l’usage de ces programmes de transcodage linguistique dans nos métiers et, plus largement, dans la génération d’objets dits culturels et intellectuels ». Ils et elles ont enjoint notamment les organes de presse à refuser « le recours à l’IA comme outil de prétendue traduction et de création d’œuvres d’art et de textes ».
  1. Se former
  • Samsa, un centre de formation spécialisé dans la production de contenus, propose un programme à destination des professionnels de la presse souhaitant, par exemple, « trouver des angles », « sourcer et/ou vérifier des contenus » ou « créer des vidéos » grâce à l’intelligence artificielle.
  • L’agence de presse américaine Associated Press, qui a noué un partenariat avec OpenAI en juillet dernier, propose une formation à destination des médias locaux afin qu’ils puissent se servir de l’intelligence artificielle dans leur propre traitement de l’actualité locale. Plusieurs intervenant·es y offrent leur expertise sur l'automatisation des newsletters ou la retranscription d’interview.
  • Sauriez-vous définir un « Neural Network » ou expliquer le fonctionnement du « Deep Learning » ? L’irruption soudaine de l’intelligence artificielle dans l'actualité s’est accompagnée d’un torrent de termes techniques venus alimenter articles et chroniques. Le New York Times et la CNIL proposent des glossaires des termes à connaître.
  • Thomas Seymat, responsable des projets éditoriaux et du développement chez Euronews, anime cette année pour le CJF un cours sur les IA génératives dans les médias. Consultez son support, utilisé dans le cadre de sa formation, contenant une série d’articles, de données et d’outils sur le sujet.

Ouest Médialab, centre de formation et laboratoire à destination des médias de proximité, propose une formation d’une journée : «  Intégrer l’intelligence artificielle dans sa pratique du journalisme ». Si les participant·es pourront y apprendre à manier ces nouveaux outils, le programme couvre également les enjeux juridiques et éthiques relatifs à l’usage de l’IA dans les médias.

  1. Encadrer grâce aux chartes

À leur initiative, des médias ont rédigé leurs propres chartes visant à encadrer l’irruption inattendue de ces nouveaux outils dans leurs rédactions. Bien qu’exhaustifs, ces documents se concentrent principalement sur l’utilisation de l’IA dans le cadre d’une pratique éditoriale comme la production d’illustrations ou d’articles. Ils s’inscrivent avant tout dans un exercice de transparence vis-à-vis de leur public.

  • The Guardian a publié une charte déontologique relative à leur usage de l’intelligence artificielle. Ce document, rédigé par une équipe chargée d’identifier les risques et les opportunités que pouvait représenter l’IA, avance un certain nombre de recommandations. Si The Guardian n’écarte pas son utilisation dans « les situations où elle peut améliorer la qualité de notre travail » , elle évoque toutefois un devoir de transparence à l’égard de ses lecteur·ices dans son usage de ces nouvelles technologies. 
  • En mai dernier, le groupe Le Parisien - Les Échos a publié sa propre charte sur le sujet. Il y écarte notamment toute publication d’un article généré par une intelligence artificielle « sans supervision éditoriale et humaine ». Toutefois, l’IA pourra servir au travail de veille assuré par les journalistes de la rédaction, tant qu’ils et elles peuvent garantir l’exactitude des informations trouvées.
  • L'ONG Reporters sans frontières et 16 organisations partenaires ont conçu la « Charte de Paris sur l’IA et le journalisme ». La commission chargée de sa rédaction, composée de « 32 personnalités issues de 20 pays différents, spécialistes du journalisme ou de l’IA », était présidée par Maria Ressa, lauréate du prix Nobel de la paix 2021.
  • Le sujet vous intéresse et que vous souhaitez consulter d’autres chartes ? Vous envisagez de rédiger une série de règles d’usage pour votre propre média ? Cet article du Nieman Lab, traduit par nos soins, propose une sélection de « protocoles », de « principes » et de « chartes déontologique » rédigées par des médias à travers le monde. 
  • Ce guide publié par Journalism.design, propose une série de pistes et de recommandations pouvant servir à la rédaction d’une charte éditoriale et déontologique régulant l’usage de l’intelligence artificielle au sein d’un média. L’auteur du guide, Gerald Holubowicz, a également constitué une liste de chartes.
  1. Utilisation des données 

Afin d’apprendre à échanger à la manière d’un humain, les IA comme ChatGPT ou Bard se sont servis d’une grande quantité de textes mis à leur disposition sur internet. Parmi ces contenus : les articles de presse. Mais les médias et les journalistes sont loin d’être convaincu·es à l’idée de voir leur travail utilisé pour le développement d’intelligence artificielle dont il ne maîtrise pas les contours. 

  • Le New York Times a précisé dans ses mentions légales que « l'utilisation du contenu sans le consentement écrit préalable de The New York Times Company » était proscrite dans le cadre du développement d’une intelligence artificielle. Dans une volonté de protéger sa propriété intellectuelle, le journal américain a également évoqué de possibles poursuites judiciaires à l’encontre d’OpenAI. Aujourd’hui, le New York Times a bloqué l’accès de ChatGPT à ses contenus.
  • À l’inverse, l’agence américaine Associated Press autorise OpenAI à utiliser ses archives pour alimenter sa base de données et améliorer ses algorithmes comme le rapporte Axios. Un accord acté dans le cadre d’un contrat de 2 ans signé entre les deux parties en juillet.
  • Ce site répertorie les médias qui ont décidé d’empêcher ou d’autoriser certaines IA de se nourrir de leurs contenus. On y apprend par exemple que Mediapart a décidé de restreindre entièrement l’accès à son site pour OpenAI, Google AI et Common Crawl. Ce n’est néanmoins pas le cas pour le Huffington Post.

Pour aller plus loin :

IAintelligence artificielleCharteChatGPTOpenAIorganisationAssociated PressThe GuardianThe New York TimesAxiosAutomatisationoutils

Owen Huchon Twitter

Owen Huchon est journaliste chez Médianes. Il est en charge de la communauté.