Vous souhaitez rédiger une charte sur le rôle de l'IA dans votre rédaction ? Voici quelques pistes

Qu'est-ce qui est acceptable et qu'est-ce qui est interdit lorsqu'il s'agit de l’utilisation de l'IA dans la production d'informations ? Voici comment 21 rédactions aux États-Unis, en Europe et ailleurs ont défini leurs propres politiques

Owen Huchon

Article traduit par Owen Huchon — Ver­sion orig­i­nale pub­liée sur le site du Nie­man Lab le 11 juillet 2023. 

L'émergence de l'IA générative a mis en évidence la nécessité d'établir des règles dans le cadre de l’usage de ces technologies dans les rédactions. Dans ce billet, nous nous pencherons sur un échantillon de lignes directrices mises en place par des médias. 

Dans la première partie, nous listerons certains thèmes et modèles plus ou moins importants que nous avons observés. Dans la seconde partie, et sur la base de notre analyse, nous suggérons quelques pistes qui pourront s’avérer utiles dans le cadre l'élaboration de codes de conduite. Que vous soyez un·e journaliste curieux·se ou responsable dans une rédaction, nous espérons que ce document servira d'aperçu des garde-fous potentiels pour l'IA générative.

La sélection de règles que nous avons analysées couvre un éventail d'organisations de grande taille et de plus petite taille, principalement en Europe et aux États-Unis, mais aussi dans d'autres parties du monde. L'échantillon actuel de 21 lignes directrices se trouve ici.

Les éléments que nous avons analysés varient en spécificité et sont parfois nommés différemment comme « note de l'éditeur », « protocole », « principes » ou même « charte déontologique ». Le ton de certaines lignes directrices est restrictif et interdit des usages spécifiques. D'autres documents sont davantage des exemples de gestion, dans lesquels les organismes de presse s'engagent à assumer des responsabilités spécifiques pour rendre l'IA moins risquée. Nous examinerons ci-dessous certains de ces schémas généraux à l'aide d'exemples tirés de lignes directrices spécifiques.

Observations tirées des documents publiées :

SUPERVISION

Certaines règles mentionnent la notion de supervision et l'associent à l'importance d'une participation et d'une surveillance humaine significatives dans l'utilisation de l'IA, notamment par le biais d'une révision supplémentaire et d'une vérification des faits avant la publication. Les organismes de presse rejettent également l'idée de remplacer les journalistes par des machines et soulignent l'importance du rôle décisionnel des humains lors de l'utilisation d'outils d'IA générative.

Aftonbladet et VG sont deux organes de presse suédois et norvégien. Appartenants tous deux à l'entreprise de presse Schibsted, ils adoptent des positions similaires. Les lignes directrices d'Aftonbladet stipulent que « tout le matériel publié a été revu par un humain et relève de notre autorité », tandis que celles de VG précisent que « toute utilisation de l'IA générative doit se faire dans le respect de la confidentialité ».

Reuters applique un système de supervision à travers « la recherche d'une participation humaine significative ainsi que d’une conception, d’un développement, d’un déploiement de produits IA et une utilisation des données d'une manière qui traite les gens de manière équitable ». The Guardian indique de son côté que l'utilisation de l'IA générative nécessite une implication humaine, précisant dans ses lignes directrices que son usage doit être conditionnée à un « avantage spécifique et à l'autorisation explicite d'un·e rédacteur·rice en chef ». L’ANP, l'agence de presse néerlandaise, assume une position similaire sur ce sujet, indiquant qu'elle peut utiliser l'IA ou des systèmes similaires pour « assister dans l'édition finale, à condition qu'un humain effectue une dernière vérification par la suite ». Elle décrit cette méthode comme un processus humain → machine → humain, dans lequel la prise de décision est supervisée par un humain.

La CBC, le service public audiovisuel du Canada, assure qu' « aucun reportage de la CBC ne sera publié ou diffusé sans l'intervention et la supervision directes d'un être humain ». De Volkskrant, un journal de référence aux Pays-Bas, déclare que son contenu est créé par des rédacteur·ices, des reporters, des photographes et des illustrateur·ices humains et que le contenu généré par l'IA ne peut être utilisé sous le nom de Volkskrant sans l'approbation d'une personne physique. Les règles susmentionnées du Volkskrant sont très proches de celles de Heidi.News en Suisse, et du Parisien en France. D'une manière générale, ils affirment qu'aucun contenu ne sera publié sans supervision humaine préalable.

Nucleo, un média numérique brésilien, a déclaré qu'il ne « publiera jamais de contenu d'IA sans contrôle humain dans les articles et les notes du site » et qu'il « n'utilisera pas d'IA en tant que rédactrice ou productrice finale d'une publication ». Ringier, groupe de médias suisse qui possède des marques dans 19 pays, déclare que « les résultats générés par les outils d'IA doivent toujours faire l'objet d'un examen critique et que les informations doivent être vérifiées, contrôlées et complétées en faisant appel au jugement et à l'expertise de l'entreprise ». De même, l'agence de presse allemande DPA précise que la décision finale concernant l'utilisation de l'IA est prise par un être humain. Elle ajoute : « Nous respectons l'autonomie humaine et la primauté des décisions humaines ».

L'Association des journalistes allemands (DJV) qualifie l’IA de « collègues » : « En aucun cas, les collègues IA ne devraient être autorisés à remplacer les rédacteur·ices en chef. Même si l'utilisation de l'intelligence artificielle modifie les tâches ou les élimine complètement, elle ne rend pas les personnes qui composent la rédaction superflues ». Le Financial Times affirme que son journalisme continuera d'être rapporté, écrit et édité par des humains qui sont les meilleurs dans leur domaine. STT, une agence de presse finlandaise, associe la surveillance à la prise de décision : « Ne laissez pas l'IA décider à votre place, mais évaluez toujours vous-même l'utilité des réponse ».

Insider, société américaine de médias en ligne, déclare que ses journalistes devraient toujours vérifier leurs faits. Ils ajoutent spécifiquement : « Ne plagiez pas ! Vérifiez toujours l'originalité. Les meilleures pratiques des entreprises en la matière sont susceptibles d'évoluer, mais pour l'instant, assurez-vous au minimum que vous soumettez tous les passages reçus de ChatGPT à la recherche Google et à la recherche de plagiat de Grammarly ». Ils demandent également aux rédacteur·ices en chef d'inciter les journalistes à vérifier les faits. « Il est nécessaire d'accroître votre vigilance et de prendre le temps de vous demander comment chaque fait de chaque article est connu de votre collègue journaliste ».

TRANSPARENCE

Les mentions de transparence se manifestent par un étiquetage clair du contenu, de manière compréhensible pour le public. Cependant, les lignes directrices sont souvent loin d'indiquer clairement comment ces mentions de transparence se traduiront dans la pratique.

Aftonbladet et VG déclarent que dans les rares cas où ils publieront du matériel généré par l'IA, qu'il s'agisse de textes ou d'images, il le sera clairement indiqué. VG ajoute spécifiquement : « Le contenu généré par l'IA doit être étiqueté clairement et de manière compréhensible ». Dans le même ordre d'idées, Reuters déclare qu'il mettra en œuvre des pratiques « pour rendre compréhensible l'utilisation des données et de l'IA dans nos produits et services ».

The Guardian déclare que lorsqu'il utilisera l'IA générative, il le fera de manière ouverte. CBC promet « l’absence de surprise », assurant qu'elle étiquettera le contenu généré par l'IA : « Nous n'utiliserons ni ne présenterons de contenu généré par l'IA aux téléspectateurs sans les en avoir pleinement informés ». Des déclarations similaires figurent dans les instructions de l'Agence de presse néerlandaise (ANP), du groupe de presse Mediahuis, du Conseil pour le journalisme de la presse flamande (RVDJ), de l'Agence de presse allemande (DPA) et de l'Association des journalistes allemands (DJV), selon lesquelles le contenu généré par l'IA doit être clairement étiqueté.

Ringier, un groupe de médias suisse, assure que le contenu généré par l'IA doit être étiqueté. Mais cette exigence n'est pas nécessaire « dans les cas où l'IA n'est utilisée que comme une aide », ce qui suggère une approche différente de la transparence lorsque l'IA est utilisée par des personnes en tant que partie intégrante du flux de travail. La STT indique que l'utilisation de l'IA dans les reportages doit toujours être communiquée au public : « Cela s'applique à la fois aux situations où la technologie a été utilisée pour aider à produire les sujets et aux contenus dont le matériel source a été créé par l'intelligence de la machine ».

UTILISATIONS INTERDITES VS. UTILISATIONS AUTORISÉES

Si ces guides énumérent généralement les utilisations interdites et autorisées de l'IA générative, elles sont également parfois accompagnées d'exceptions. Les conditions de transparence, de responsabilité et d'obligation de rendre compte sont alors explicitées dans les lignes directrices. Le cas d'utilisation de la génération d'images fait l'objet d'une attention particulière.

Wired déclare ne pas publier d'articles contenant du texte généré par l'IA, sauf si le personnage généré par l'IA est l'élément central de l'article. Il précise également qu'il « ne publiera pas de texte édité par l'IA » et qu'il « n'utilisera pas d'images générées par l'IA à la place de photos d'archives ». Le raisonnement sous-jacent suggère que l'édition est intrinsèquement liée à la détermination de ce qui est pertinent, original et divertissant. Malgré le ton restrictif des lignes directrices de Wired, l'entreprise déclare qu'elle peut essayer l'IA pour des tâches liées au processus de reportage, comme la suggestion de titres ou la génération d'idées ou de textes pour de courts messages sur les médias sociaux.

Nucleo énumère certaines utilisations autorisées de l'IA générative, telles que le résumé de textes pour suggérer des « posts alternatifs sur les réseaux sociaux » et comme outil de recherche « sur des sujets et des thèmes ». Les journalistes d'Aftonbladet et de VG, par exemple, peuvent « utiliser la technologie de l'IA dans leur travail pour produire des illustrations, des graphiques et des modèles ». Les lignes directrices de VG ajoutent toutefois une interdiction de générer des images photoréalistes, car « le contenu généré par l'IA ne doit jamais nuire à la crédibilité de la photographie journalistique ».

Insider déclare que ses journalistes peuvent utiliser l'IA générative pour « des ébauches d'articles, des titres de référencement, d’édition, des questions d'interview, des explications de concepts et des résumés d'anciens reportages ». Toutefois, ils précisent que leurs journalistes ne doivent pas l'utiliser pour écrire à leur place. En ce qui concerne l'utilisation d'images générées par l'IA, ils soulignent qu'ils doivent « avoir plus de discussions avant de décider si et comment les utiliser ».

Hong Kong Free Press (HKFP), journal anglophone à Hong Kong, restreint toute utilisation de l'IA générative pour la rédaction d’articles, la génération d'images ou la vérification des faits, car « peu d'outils d'IA incluent des informations de source ou d'attribution appropriées ». Il est intéressant de noter que le HKFP déclare qu'il peut utiliser l'IA approuvée en interne « pour la vérification de la grammaire et de l'orthographe, pour la réécriture et le résumé de textes existants rédigés par notre équipe, et pour l'aide à la traduction, à la transcription ou à la recherche ». De même, De Volkskrant, un journal de qualité aux Pays-Bas, déclare que ses rédacteur·ices ne publient pas de travaux journalistiques générés par l'intelligence artificielle.

La CBC déclare qu'elle n'utilisera pas l'IA pour recréer la voix ou l'image d'un journaliste ou d'une personnalité de la CBC « sauf pour illustrer le fonctionnement de la technologie ». Elle lie cette exception à deux conditions, à savoir (1) « l'approbation préalable de notre bureau des normes » et (2) « l'approbation de la personne "recréée" ». Ils n'utiliseront pas la technologie pour du journalisme d'investigation sous la forme d'une reconnaissance faciale ou d'une correspondance vocale, et ne l'utiliseront pas non plus pour générer des voix pour des sources confidentielles dont ils essaient de protéger l'identité. Ils continueront à utiliser des pratiques comprises par leur public, telles que la modulation de la voix, le flou de l'image et la silhouette.

Heidi.news assure qu'il n'utilisera des images synthétiques qu'à des fins d'illustration et non à des fins d'information, afin de ne pas créer de confusion avec des événements réels. Il ajoute également qu'il ne publiera aucune image de synthèse qui pourrait passer pour une photographie, « sauf à des fins pédagogiques lorsque l'image en question est déjà publique ».

Le Parisien déclare qu'il se réserve le droit d'utiliser l'IA pour la génération de textes et d'images à des fins d'illustration. Il conditionne l'utilisation exceptionnelle de l'IA générative à une transparence permanente : « nous veillerons à en préciser l’origine de manière explicite pour le lecteur·ice ». Ils décrivent l'utilisation de l'IA comme un enrichissement.« Un·e journaliste pourra utiliser ces outils comme il le ferait avec un moteur de recherche, mais il devra toujours revenir à ses propres sources pour garantir l’origine de ses informations ». Le Financial Times souligne qu'il ne publiera pas d'images photoréalistes générées par l'IA, mais qu'il explorera l'utilisation de visuels augmentés par l'IA (infographies, diagrammes, photos) et que, le cas échéant, il le précisera aux lecteur·ices.

STT établit un lien direct entre les utilisations interdites de l'IA générative et ses limites. « STT n'utilise pas l'IA pour l'exploration de données. Les sources utilisées par l'IA sont souvent obscures, ce qui rend son utilisation dans le travail éditorial problématique ». L'agence précise également que la fiabilité des sources et la vérification des informations restent essentielles.

OBLIGATION DE RENDRE COMPTE ET RESPONSABILITÉ

L'obligation de rendre compte et la responsabilité sont souvent mentionnées dans les lignes directrices en relation avec le contenu publié ainsi qu'avec des valeurs telles que l'exactitude, l'équité, l'originalité et la transparence. La mise en œuvre de mesures de responsabilisation pour l'utilisation des données et des produits d'IA est également soulignée, tout comme l'utilisation de systèmes d'IA techniquement robustes et sécurisés pour minimiser les risques.

Aftonbladet, déclare être responsable « de tout ce qu'(il) publie sur le site, y compris le matériel produit à l'aide de l'IA ou d'autres technologies, ou basé sur celles-ci, et qui relève de notre autorité de publication ». Reuters déclare qu'elle « mettra en œuvre et maintiendra des mesures de responsabilité appropriées pour notre utilisation des données et nos produits et services d'IA ». DPA, l'agence de presse allemande, souligne qu'elle n'utilisera que l'IA « qui est techniquement robuste et sécurisée pour minimiser les risques d'erreur et d'utilisation abusive ». Le Parisien, déclare vouloir se protéger contre « tout risque d’erreur, de violation des droits d’auteurs mais également soutenir le travail des artistes, des photographes et des illustrateurs ».

L'Association des journalistes allemands (DJV) souligne que les organismes de presse sont responsables de leur contenu et que les rédactions doivent mettre en place des processus réglementés d'acceptation et d'approbation du contenu journalistique lorsque l'IA est impliquée. Le Financial Times se dit convaincu que sa « mission de produire un journalisme de la plus haute qualité est d'autant plus importante en cette ère d'innovation technologique ». Il ajoute : « Le FT a une plus grande responsabilité en matière de transparence, de présentation des faits et de recherche de la vérité ».

Insider affirme que son public doit lui faire confiance et lui demander de rendre compte de l'exactitude, de l'équité, de l'originalité et de la qualité de chaque article. Ils affirment que leurs journalistes sont responsables du respect de ces critères et de la qualité de chaque mot de leurs articles.

VIE PRIVÉE ET CONFIDENTIALITÉ

Les règles visant à préserver des principes de confidentialité concernent souvent la protection des sources et le traitement d’informations sensibles sur des plateformes externes. En outre, les politiques de certains médias soulignent qu'il convient de faire attention à l'utilisation de contenus confidentiels ou non publiés en tant qu'intrants pour les outils d'IA générative.

Aftonbladet indique qu'ils « protègent la protection des sources et n'alimentent pas les plateformes externes telles que ChatGPT avec des informations sensibles ou exclusives », ce qui est également reflété dans des termes légèrement différents par VG : « Les journalistes ne devraient initialement partager avec les services d'IA que le matériel qui a été approuvé pour une publication immédiate sur les plateformes de VG ». Reuters souligne qu'elle « donnera la priorité à la sécurité et à la protection de la vie privée dans son utilisation des données et tout au long de la conception, du développement et du déploiement de ses produits et services de données et d'IA ». CBC déclare qu'elle n'introduira pas de contenu confidentiel ou non publié dans les outils d'IA générative, quelle qu'en soit la raison. Mediahuis déclare qu'ils doivent se conformer aux lois sur la protection de la vie privée et, le cas échéant, obtenir le consentement de l'utilisateur·ice avant d'utiliser des informations personnelles.

Ringier, indique que ses employé·es « ne sont pas autorisé·es à introduire des informations confidentielles, des secrets commerciaux ou des données personnelles de sources journalistiques, d'employés, de clients ou de partenaires commerciaux ou d'autres personnes physiques dans un outil d'IA ». En ce qui concerne le développement de codes, les lignes directrices de Ringier précisent que les codes ne peuvent être introduits dans les systèmes d'IA générative que s'ils « ne constituent pas un secret commercial et qu'ils n'appartiennent pas à des tiers ».

Il est intéressant d’observer que la plupart des lignes directrices que nous avons analysées ne font pas de distinction entre les services d'IA générative (par exemple OpenAI) et le développement et l'utilisation d'un système d'IA générative hébergé sur des ordinateurs exploités par l'organisation elle-même, comme cela pourrait être le cas avec les modèles open source. Il est toutefois important de noter que les risques en matière de protection de la vie privée et de confidentialité sont davantage liés à l'utilisation de services d'IA générative hébergés par d'autres organisations qu'à l'utilisation de l'IA générative elle-même.

EXPÉRIMENTATION PRUDENTE

Les mentions d'expérimentation prudente dans les lignes directrices sont souvent liées à la curiosité et à l'esprit critique, tout en soulignant le potentiel d'innovation. L'accent est également mis sur la vérification de la véracité des résultats générés par l'IA, car l'accent est mis sur la reconnaissance des risques de désinformation et de « corruption de la vérité ».

La règle principale de VG : ses journalistes doivent traiter « l'utilisation de textes, de vidéos, d'images, de sons et d'autres contenus créés avec l'aide de l'IA (IA générative) de la même manière que les autres sources d'information, avec une curiosité ouverte et avec prudence ». La CBC affirme qu'elle ne s'appuiera jamais uniquement sur des recherches générées par l'IA dans son journalisme : « Nous utilisons toujours des sources multiples pour confirmer les faits ». ANP affirme que chaque membre de la rédaction d'ANP devrait considérer l'IA et les systèmes connexes « avec émerveillement, curiosité, esprit critique et ouverture aux développements ». L'agence ajoute qu'elle continue à rechercher activement des innovations avec un esprit ouvert. STT, déclare que les journalistes devraient explorer l'IA lorsqu'ils en ont l'occasion. Elle a été l'un des premiers éditeurs de presse à commencer à expérimenter l'IA générative sous la forme de modèles de langage, et affirme que l'expérimentation reste essentielle pour découvrir les possibilités et les limites de ces modèles.

Le Financial Times, déclare dans sa lettre d'intention qu'il adoptera l'IA pour fournir des services à ses lecteur·ices et à ses client·es. Il est intéressant de noter qu'il souligne également qu'il est nécessaire pour le FT de mettre en place une équipe dans la salle de rédaction qui puisse expérimenter l'IA de manière responsable. Ils ajoutent que « chaque technologie ouvre de nouvelles frontières passionnantes qui doivent être explorées de manière responsable. Mais comme l'histoire récente l'a montré, l'enthousiasme doit s'accompagner d'une certaine prudence face au risque de désinformation et de corruption de la vérité ». Enfin, le FT précise que toutes les expérimentations de l'IA dans les salles de rédaction seront consignées dans un registre interne, y compris, dans la mesure du possible, le recours à des prestataires tiers susceptibles d'utiliser l'outil.

INTENTION STRATÉGIQUE D'UTILISATION

Dans plusieurs cas, les documents d'orientation expriment également les objectifs stratégiques de l'organisation en matière de déploiement de l'IA générative. Les motivations mentionnées comprennent le désir d'améliorer l'originalité, la qualité et même la rapidité, tout en reflétant parfois la volonté de ne pas remplacer les journalistes et de maintenir des valeurs fondamentales telles que l'indépendance/l'impartialité.

Le Financial Times affirme que l'IA a le potentiel « d'augmenter leur productivité et de libérer le temps des journalistes et des rédacteur·ices en chef pour qu'ils se concentrent sur la production et la présentation de contenus originaux ». Le Guardian déclare qu'il s'efforcera également d'utiliser les outils d'IA générative sur le plan rédactionnel uniquement lorsqu'ils contribuent à la création et à la diffusion d'un journalisme original. En outre, il précise que lorsqu'il utilisera l'IA générative, il se concentrera sur « les situations où elle peut améliorer la qualité de notre travail ». Mediahuis affirme que l'IA devrait améliorer son journalisme. Son objectif est d’« améliorer la qualité de notre journalisme pour notre public ». Insider souligne que ses journalistes peuvent, et même doivent, utiliser l'IA pour améliorer leur travail : « Mais cela reste votre travail », déclare-t-il, « et vous en êtes responsables. Vous êtes responsable devant nos lecteur·ices et nos téléspectateur·ices ». L'ANP, l'agence de presse néerlandaise, affirme qu'elle souhaite rester impartiale et indépendante et qu'elle devrait faire preuve de prudence dans l'utilisation de l'IA générative.

La DPA, l'agence de presse allemande, déclare qu'elle utilise l'IA à diverses fins et qu'elle est ouverte à une utilisation accrue de cet outil. Elle ajoute que l’IA l'aidera à améliorer et à accélérer son travail. De Volkskrant, un journal de qualité aux Pays-Bas, considère l'intelligence artificielle (IA) comme un outil, « jamais comme un système pouvant remplacer le travail d'un journaliste », et ce sentiment de ne pas vouloir remplacer les journalistes par des machines est partagé par Heidi.News et Le Parisien. Heidi.News, considère que les systèmes d'IA doivent être utilisés comme des outils et que, dans un souci d'objectivité, leurs journalistes ne doivent en aucun cas les considérer comme « des sources d'information ».

FORMATION

La formation est rarement mentionnée dans les lignes directrices, mais lorsqu'elle l'est, les formations et les cours sont principalement liés à l'atténuation des risques de l'IA générative et à la responsabilité et à la transparence vis-à-vis du public.

Mediahuis affirme qu'une formation et une qualification devraient être mises en place pour les personnes responsables des décisions en matière d'IA. Ils établissent un lien avec le développement de lignes de responsabilité claires pour le développement et l'utilisation de l'IA. L'association des journalistes allemands (DJV) souligne que l'utilisation de l'intelligence artificielle doit faire partie intégrante de la formation et du perfectionnement des journalistes. Elle appelle les entreprises de médias à mettre en place des formations appropriées qui incluent l'utilisation abusive de l'IA. Le journal britannique The Financial Times déclare qu'il offrira à ses journalistes une formation sur l'utilisation de l'IA générative pour la découverte d'articles, qui sera dispensée sous la forme de masterclasses.

BIAS

Le Guardian traite explicitement de la partialité dans l'IA générative et déclare qu'il « se prémunira contre les dangers de la partialité intégrée dans les outils génératifs et leurs ensembles de formation sous-jacents ». Mediahuis indique que ses journalistes doivent être attentifs aux biais des systèmes d'IA et s'efforcer d'y remédier. Ringier déclare que ses outils doivent toujours être « équitables, impartiaux et non discriminatoires ».

ADAPTABILITÉ DES LIGNES DIRECTRICES

Plusieurs documents ont fait preuve d'humilité face aux changements rapides et ont souligné l'importance d'adapter ces politiques au fil du temps, à mesure que la compréhension des risques évolue.

Nucleo, déclare que sa politique en matière d'IA générative est « en constante évolution et peut être mise à jour de temps à autre ». On retrouve le même type de déclaration dans les lignes directrices d'Aftonbladet et de VG. Wired écrit que l'IA va se développer, ce qui « pourrait modifier notre point de vue au fil du temps, et nous signalerons tout changement dans ce billet ». D'après une note de l'éditeur figurant au bas du document, ces lignes directrices ont déjà été mises à jour une fois. La CBC déclare avoir informé ses journalistes que ces règles sont « préliminaires et susceptibles d'être modifiées en fonction de l'évolution de la technologie et des meilleures pratiques de l'industrie ». De Volkskrant déclare qu'il suit les développements avec un intérêt critique et qu'il adaptera son protocole s'il le juge nécessaire. De même, Ringier, déclare que ses politiques seront continuellement réexaminées dans les mois à venir et qu'elles seront ajustées si nécessaire.

Sujets moins mentionnés dans les lignes directrices :

La conformité juridique ainsi que la personnalisation, la qualité des données, les commentaires des utilisateurs et l'intégration de l'IA générative dans la chaîne d'approvisionnement sont rarement mentionnés.

CHAÎNE D'APPROVISIONNEMENT

La chaîne d'approvisionnement de l'IA est constituée d’un réseau de fournisseurs pour les systèmes d'IA, tels que les modèles tiers [third-party models], les collaborateur·ices, les fournisseurs de données, les fournisseurs d'annotations, etc. L'Association des journalistes allemands (DJV) souligne le besoin de précision en ce qui concerne le traitement des données. L'association rappelle la nécessité d'être précis dans le traitement des données : « La collecte, la préparation et le traitement des données doivent répondre à des normes qualitatives élevées. Les données incomplètes, les distorsions et autres erreurs doivent être corrigées sans délai ». Il est intéressant de noter que la DJV invite les médias à créer leurs propres bases de données fondées sur la valeur et soutient les projets de données ouvertes menés par les autorités publiques et les institutions gouvernementales. Ils affirment qu'une plus grande indépendance par rapport aux fournisseurs commerciaux de big-tech est souhaitable. Reuters est l'un des rares organismes de presse à mentionner la gouvernance des collaborations, puisqu'ils·elles déclarent « qu'ils·elles s'efforceront de s'associer à des individus et à des organisations qui partagent des approches éthiques similaires aux nôtres concernant l'utilisation des données, du contenu et de l'IA ».

CONFORMITÉ LÉGALE

La DPA indique qu'elle n'utilise l'IA que dans le respect des lois et des exigences légales applicables et qu'elle respecte ses principes éthiques, tels que l'autonomie humaine, l'équité et les valeurs démocratiques. L'Association des journalistes allemands demande aux législateur·ices de veiller à ce que l'étiquetage des contenus générés par l'IA devienne obligatoire. Elle leur demande d'inscrire ces obligations d'étiquetage dans la loi.

PERSONNALISATION

La même association affirme que la personnalisation des services par l'IA doit toujours être effectuée de manière responsable et équilibrée. Elle ajoute que les utilisateurs devraient avoir « la possibilité de modifier les critères de sélection et/ou de désactiver complètement la distribution personnalisée ».

RETOUR D'INFORMATION DE L'UTILISATEUR·ICES

Mediahuis encourage ses lecteur·ices à lui faire part de leurs commentaires et à lui permettre d'examiner leurs données. Cela reflète un engagement en faveur de la transparence, de la responsabilité et d'un état d'esprit centré sur le·la client·e dans le paysage évolutif de la consommation des médias.

Quelques lignes directrices pour les lignes directrices

Sur la base des observations ci-dessus, nous proposons ici quelques suggestions aux journalistes et aux organismes de presse qui envisagent d'élaborer leurs propres chartes. En examinant les lignes directrices et les codes éthiques existants, en adoptant une approche d'évaluation des risques et en s'appuyant sur diverses perspectives au sein de l'organisation, nous pensons que les organismes de presse peuvent améliorer la qualité et l'utilité de leurs règles en matière d'IA générative.

EXAMINER LES LIGNES DIRECTRICES ET LES CODES ÉTHIQUES EXISTANTS

Plusieurs thèmes abordés dans notre analyse, notamment la responsabilité, la transparence, la protection de la vie privée, etc, reflètent des valeurs et des principes éthiques bien établis dans la pratique journalistique. Par conséquent, lors de l'élaboration ou de la mise à jour de lignes directrices à la lumière de l'IA générative, nous suggérons qu'il serait utile d'examiner les codes de conduite et les principes journalistiques existants afin de réfléchir à la manière dont ces principes peuvent être respectés face aux changements induits par l'IA générative. Par exemple, bien que l'idée d'indépendance revienne plusieurs fois dans les documents que nous avons analysés, elle n'est pas aussi importante qu'on pourrait le penser étant donné qu'elle est centrale, par exemple, dans les codes de déontologie tels que celui de la SPJ. Comment l'utilisation de l'IA générative pourrait-elle incarner et refléter pleinement un engagement normatif en faveur de l'indépendance journalistique ?

Nous soulignons que l'émergence de l'IA générative peut entraîner de nouveaux défis pour les organismes de presse, mais cela ne signifie pas que l'élaboration des lignes directrices doive partir de zéro. Nous suggérons aux organismes de presse d'examiner ces codes de conduite et de les confronter - un par un - à l'utilisation potentielle de l'IA générative et aux risques qu'elle peut poser. En examinant systématiquement les valeurs et les principes fondamentaux du journalisme, ils devraient proposer des stratégies et des tactiques pour utiliser l'IA générative de manière cohérente avec les normes établies.

ADOPTER UNE APPROCHE D'ÉVALUATION DES RISQUES.

Les organismes de presse peuvent tirer profit d'une approche systématique de l’évaluation des risques lors de l'élaboration de lignes directrices. Une telle méthode, telle que développée par le NIST, peut par exemple aider à cartographier, mesurer et gérer les risques, en offrant des moyens d'élaborer efficacement des politiques afin d’atténuer les risques identifiés. Quels sont les différents risques liés à l'utilisation de l'IA générative, comment ces risques peuvent-ils être mesurés et suivis, et comment peuvent-ils être gérés dans le respect des valeurs et des objectifs existants d'un organe de presse ?

Par exemple, les pratiques journalistiques traditionnelles soulignent l'importance de s'appuyer sur des sources crédibles et de garantir l'exactitude des informations. Toutefois, l'IA générative introduit un niveau d'incertitude quant à l'origine et à la fiabilité du contenu susceptible d'être acquis au cours du reportage. Une atténuation des risques pourrait par exemple passer par la manière de vérifier la véracité des documents qui sont partagés en tant que sources. Les journalistes pourraient faire face à ces incertitudes en mettant en œuvre des processus de vérification rigoureux et en utilisant des techniques de corroboration et de triangulation pour valider le contenu généré par l'IA. En recoupant les informations provenant de sources multiples, les salles de rédaction pourraient réduire le risque de diffuser des informations non vérifiées ou fausses.

CRÉER UN GROUPE DIVERSIFIÉ POUR RÉDIGER DES LIGNES DIRECTRICES.

Bien que l'IA générative puisse également être utilisée pour produire du code informatique et qu'elle puisse donc avoir un impact sur toutes sortes de produits d'information différents, nous avons trouvé peu de lignes directrices qui distinguent les différentes approches possibles entre l'utilisation éditoriale et l'utilisation des produits (par exemple, dans le développement de logiciels). En outre, d'autres secteurs des entreprises de presse, tels que les ventes et le marketing, pourraient également bénéficier de l'utilisation de l'IA générative. Devraient-ils avoir des lignes directrices distinctes ? Pour couvrir l'ensemble du champ, nous suggérons qu'il est important d'établir un ensemble diversifié de parties prenantes au sein de votre entreprise de presse afin de discuter des lignes directrices et d'en définir la portée de manière appropriée. Cela permettra aux organisations de réfléchir aux risques qui pourraient survenir dans la salle de rédaction, et cela pourrait aider à déterminer des risques plus larges, à l'échelle de l'entreprise, qui transcendent les flux de travail quotidiens des journalistes.


Note de la rédaction

Ce texte ne con­stitue pas une tra­duc­tion mot à mot de l’article orig­i­nal pub­lié sur le site du Nie­man Lab. Nous avons ajouté des élé­ments de con­tex­tu­al­i­sa­tion, adap­té cer­taines expres­sions et sup­primé cer­tains pas­sages con­tenant des références pointues adressées à des lecteurs·ices anglo­phones ou Américain·es. Nous avons égale­ment fait le choix d’appliquer à cette tra­duc­tion les règles de l’écriture inclu­sive, con­for­mé­ment à la charte édi­to­ri­ale en vigueur sur l’ensemble des con­tenus Médianes.

StratégieIATraductionNieman LabCharte

Owen Huchon Twitter

Owen Huchon est journaliste chez Médianes. Il est en charge de la communauté.