Salut l'éditeur ! Il est temps de s'impliquer dans la transparence de l'IA
L'intelligence artificielle appliquée fait désormais partie intégrante des opérations quotidiennes de nombreuses entreprises de médias, et de nouvelles capacités émergent à une vitesse époustouflante. Mais dans quelle mesure les consommateurs de médias sont-ils informés de ce qui se passe ? Et qui est responsable de la situation dans son ensemble ? En repensant aux discussions sur la transparence de l'IA dans le réseau nordique du journalisme IA, nous constatons la nécessité d'une implication accrue des dirigeants.
Le 4 octobre 2022, le radiodiffuseur public norvégien NRK a publié un article standard sur les prix de l'énergie. Cependant, les informations d'identification de l'image associée n'étaient pas celles de votre photographe moyen. Au lieu de cela, les lignes électriques représentées et le paysage montagneux serein ont été attribués à "Midjourney (AI)".

La signature a-t-elle permis aux utilisateurs de comprendre et d'apprécier la nature synthétique du contenu ? L'éditeur responsable de NRK n'a pas semblé convaincu, et l'image a été rapidement retirée et remplacée par une photo d'archive traditionnelle. "Il devrait y avoir de bonnes raisons d'utiliser des illustrations générées par l'IA dans le cadre de nos opérations d'information", a-t-il expliqué dans une interview ultérieure avec Journalisten .
Nous, trois membres du réseau Nordic AI Journalism, constatons que cette affaire met en lumière des questions stratégiques et éthiques importantes pour les entreprises de médias à l'avenir.
N ordic AI Journalism est un réseau industriel composé d'environ 200 personnes travaillant pour plus de 30 médias d'information différents dans les pays nordiques. Le réseau cherche à contribuer à l'utilisation et au développement responsables des technologies d'IA dans le journalisme en partageant les apprentissages au-delà des frontières organisationnelles. Le réseau a été fondé par Agnes Stenbom (Schibsted) et Olle Zachrison (Sveriges Radio) en 2020, et depuis lors, nous nous sommes rencontrés virtuellement pour des sessions bimensuelles couvrant divers cas liés à l'IA et au journalisme - des voix synthétiques aux modèles d'extraction d'entités.
Cet automne, nous avons enfin pu nous rencontrer en personne. Avec des hubs locaux à Stockholm (hébergé par Sveriges Radio), Copenhague (Ekstra Bladet) et Oslo (Schibsted), nous avons discuté de la transparence de l'IA et pourquoi nous avons besoin de plus d'informations accessibles aux utilisateurs sur l'utilisation de l'IA dans le journalisme.
Dans cet article de blog, nous mettrons en évidence les différents types de transparence discutés, décrirons les conséquences des processus opaques et suggérerons un cadre pour cartographier les cas d'utilisation et les risques à l'avenir. Notre message clé : nous voyons un besoin urgent d'action, notamment de la part des dirigeants des médias.

Pourquoi la transparence de l'IA ?
Tout d'abord, nous voulons souligner pourquoi nous pensons que la question de la transparence liée à l'utilisation de l'IA dans les médias d'information est un problème si urgent pour le journalisme en ce moment.
- La transparence est intrinsèquement importante pour des pratiques d'IA responsables
La transparence dans l'utilisation de l'IA envers les personnes qui en sont affectées est largement reconnue comme un aspect central des pratiques d'IA responsables, car elle constitue le fondement de l'interaction avec les systèmes d'IA de manière informée en tant qu'êtres autonomes . - La transparence pour instaurer la confiance
Dans le journalisme, nous n'avons pas encore de « contrat » avec les consommateurs de médias sur comment et pour quoi utiliser l'IA, ni en tant qu'industrie ni en tant qu'entreprises de médias individuelles. Nous constatons que l'ouverture est nécessaire pour permettre des discussions entre les éditeurs de nouvelles et les parties prenantes sur les choses à faire et à ne pas faire de l'IA afin d'établir des lignes directrices, des politiques et des cadres plus matures pour le domaine de l'information. Plus précisément, nous pensons qu'une transparence accrue envers les utilisateurs permettrait la discussion nécessaire pour faciliter l'alignement des attentes, ce qui est essentiel pour faciliter la confiance. - La transparence doit être une priorité compte tenu de l'état immature de l'IA dans l'actualité
Comme le soulignent de récents rapports dans les pays nordiques et au-delà - voir par exemple Wiik (2022) et Beckett (2019) - l'industrie des médias d'information en est encore au début de notre parcours vers l'IA . Un aspect positif de cela est la façon dont cela nous donne l'occasion de jeter des bases solides. Nous pensons que cette base sera particulièrement importante à l'avenir étant donné que la transparence dans la prise de décision automatisée et l'IA est mentionnée, par exemple, dans le RGPD, la loi sur les services numériques et la loi sur l'IA.
Types et niveaux de transparence
Compte tenu de la grande diversité des applications d'IA pour les actualités, des outils de recommandation aux outils de marquage internes ou aux systèmes de création de contenu génératif, nous constatons que différents types et niveaux de transparence sont nécessaires dans différentes situations.
Informés par les discussions du réseau, nous avons distingué quatre différents types et niveaux de transparence pertinents pour les organes de presse :
- Informer les utilisateurs qu'un système d'IA est utilisé (visibilité de base)
Le type de transparence peut-être le plus élémentaire consiste à informer les utilisateurs lorsqu'un type de système d'IA est utilisé pour sélectionner ou modifier le contenu qui leur est proposé. Cela peut se faire de plusieurs manières, allant des politiques générales d'IA qui décrivent en termes généraux que les systèmes d'IA sont utilisés par l'éditeur d'actualités, à des informations spécifiques chaque fois que l'IA est utilisée dans un élément spécifique d'un site Web ou d'une application d'actualités. - Décrire comment le système d'IA prend des décisions (visibilité technique)
Un autre type de transparence qui s'appuie sur la visibilité de base est la description du fonctionnement des algorithmes utilisés. Ce type de transparence peut aller des descriptions génériques des algorithmes d'IA aux descriptions détaillées de chacun des algorithmes, y compris ce qu'ils optimisent, quelles données d'entrée sont utilisées, quel type de méthodes d'apprentissage automatique est utilisé. Ces descriptions peuvent être en termes techniques ou en termes simples. - Expliquer les décisions individuelles prises par le système d'IA
Un autre type de transparence implique des explications sur les décisions individuelles prises par les systèmes d'IA, telles que les raisons pour lesquelles un ensemble spécifique d'articles de presse est diffusé à un lecteur spécifique. Ce type de transparence va des explications post hoc (où un autre algorithme d'IA devine les raisons d'une décision spécifique en examinant les caractéristiques sous-jacentes avec lesquelles la décision est en corrélation, par exemple le sexe des lecteurs ou la propension à lire, par exemple des articles de sport) aux explications intrinsèques où l'algorithme qui prend la décision montre quels facteurs internes ont causé la décision (ceci est généralement plus précis, mais difficile à interpréter pour les profanes). - Permettre aux utilisateurs d'affecter directement les décisions individuelles
Le dernier type de transparence dont nous avons discuté consiste à permettre au lecteur d' affecter les algorithmes d'IA auxquels il est exposé afin de mieux comprendre le fonctionnement de l'algorithme. À un certain niveau, cela peut impliquer de simples options d'activation/de désactivation dans lesquelles les utilisateurs peuvent choisir entre une version d'un site Web ou un élément sur un site Web d'actualités avec ou sans systèmes d'IA. À un autre niveau, l'utilisateur peut se voir attribuer des "poignées et leviers" qui influencent l'entrée de l'algorithme d'IA, lui permettant d'expérimenter différents paramètres et sorties.
Alors, comment savez-vous quel type de transparence votre cas d'utilisation spécifique requiert ? Dans le réseau, nous avons discuté de deux facteurs différents qui devraient avoir un impact sur ces évaluations.
Premièrement, nous devons considérer les risques éditoriaux associés à l'utilisation de l'IA. Nous trouvons qu'il est bon de distinguer les risques juridiques (qui ne se négocient pas) des risques éditoriaux « purs ». Parfois, ils se chevauchent, mais il existe certainement des cas où une utilisation spécifique de l'IA peut créer des risques éditoriaux qui ne constitueraient pas une responsabilité légale formelle. Un mauvais groupe de recommandations d'IA ou de graves erreurs commises par la traduction automatique peuvent nuire à la marque sans aucun dépassement légal.
Deuxièmement, nous devons considérer l' impact sur l'expérience utilisateur . L'utilisateur bénéficie-t-il d'un type d'expérience médiatique différent grâce à l'utilisation de l'IA, ou utilisons-nous les technologies dans des processus purement liés à la salle de rédaction, par exemple en rendant les processus existants plus efficaces grâce à l'automatisation ?
Dans le réseau, nous avons structuré ces deux sujets — risques éditoriaux et impact sur l'expérience utilisateur — en axes pour créer un cadre de discussion de base :

Une fois qu'une équipe donnée s'est mise d'accord sur la place de son cas d'utilisation, nous soutenons qu'elle peut avoir une discussion plus éclairée sur la nécessité d'informer les utilisateurs et/ou les autres parties prenantes.
Les risques se présentent sous différentes formes
Lors des rencontres du réseau Nordic AI Journalism, nous avons discuté d'un certain nombre de cas d'utilisation active de l'IA dans les médias nordiques du point de vue de la transparence. Auraient-elles dû être communiquées aux utilisateurs de manière plus claire ? Si non, pourquoi pas ? Si oui, comment ?
La plupart des cas d'utilisation discutés se concentraient sur les systèmes de recommandation, mais incluaient également le balisage du contenu vidéo, les transcriptions audio et la génération automatisée de télégrammes d'information. Les cas d'utilisation comprenaient à la fois des systèmes basés sur le ML et des systèmes basés sur des règles (décrits ensemble ci-dessous sous le nom de "systèmes d'IA"). Ce qu'ils avaient tous en commun, cependant, c'est qu'aucun n'était communiqué aux utilisateurs en tant que système d'IA.
Lors de la discussion de nos cas d'utilisation par rapport au cadre ci-dessus, il est rapidement devenu clair que nous avons attribué différents niveaux de risque éditorial à différents types de cas d'utilisation. En général, nous étions confiants dans notre processus éditorial et nos décisions, et ne nous inquiétions pas de l'IA, par exemple en recommandant ou en traduisant du contenu initialement «approuvé» par des professionnels de l'information. Il a été suggéré que les systèmes d'IA avec des degrés d'automatisation plus élevés, tels que les reportages générés automatiquement, impliquent des risques éditoriaux plus élevés, et avec eux, des exigences de transparence encore plus élevées.
… mais les utilisateurs en ont-ils envie ?
Certains membres du réseau ont fait valoir que les utilisateurs expriment rarement un intérêt pour la transparence et qu'ils ne veulent pas de contrôle direct sur les systèmes d'IA (par exemple, les recommandataires). Pour paraphraser un membre du réseau : « Ils expriment simplement un désir d'expériences fluides et pertinentes — ils ne se soucient pas de la façon dont elles sont produites ».
D'autres membres du réseau (y compris les auteurs de cet article de blog) soutiennent le contraire, avec des exemples d'utilisateurs demandant des informations claires sur qui/quelle institution est "derrière" l'IA, les données utilisées pour la former et pourquoi l'IA est appliquée dans la première place.
Malgré les différences internes dans la perception des désirs des utilisateurs, la plupart des membres ont soutenu qu'une plus grande transparence est importante et souhaitable, notamment pour accroître l'attention interne sur les pratiques éthiques qui résistent à la lumière du jour.
La mise en œuvre de l'IA dans l'ensemble du processus journalistique appelle à la transparence
Nos discussions de réseau ont mis en évidence l'importance de reconnaître comment les applications d'IA font partie d'une chaîne de valeur journalistique où le nombre de cas d'utilisation et l'ampleur de leur impact augmentent. Parfois, un cas d'utilisation spécifique de l'IA en soi peut être évalué comme présentant un faible risque, mais combiné à d'autres applications d'IA, le tableau devient rapidement plus complexe et les risques d'opacité sont plus difficiles à calculer. Aucun cas d'utilisation d'IA n'apparaît dans un silo.

La transparence interne comme exigence de base
Gardant cela à l'esprit, nous pensons que la transparence interne et une compréhension commune de la façon dont différents cas d'utilisation de l'IA interagissent sont un point de départ crucial pour développer des produits qui favorisent la transparence de l'IA dans le journalisme. Nous devons comprendre le tableau d'ensemble et informer les utilisateurs en conséquence.
Dans les organisations médiatiques modernes, nous soutenons que les responsables des salles de rédaction - notamment les rédacteurs et/ou les éditeurs - doivent avoir une vue d'ensemble de où, quand et comment l'IA impacte le processus de production et l'expérience utilisateur. Sinon, comment le public peut-il les tenir responsables?
Il est facile d'imaginer un certain nombre de problèmes si les dirigeants des médias ne deviennent pas plus conscients de l'IA appliquée dans leurs salles de rédaction. D'une part, les risques de leadership négligeant le grand potentiel de l'IA peuvent entraver l'innovation dans le domaine des médias. D'autre part, ne pas reconnaître les risques peut avoir de graves conséquences négatives pour les entreprises de médias et les consommateurs.
Ne pas être en mesure d'expliquer le fonctionnement général des systèmes appliqués dans son propre processus éditorial peut nuire à la fois à la marque de l'information et à la crédibilité personnelle de l'éditeur. Alors que «l'humain dans la boucle» est devenu une idée popularisée dans l'IA, nous pensons que nous devons investir plus spécifiquement pour nous assurer que nous avons des systèmes «d'éditeur dans la boucle» alors que nous continuons à explorer et à appliquer L'IA dans le journalisme.
Dire aux utilisateurs que les systèmes d'IA sont en jeu : une première étape nécessaire
Enfin, nous voudrions souligner à nouveau à quel point un niveau de transparence de base envers les lecteurs est essentiel chaque fois que les systèmes d'IA ont un impact direct sur l'expérience de l'actualité sans être humain dans la boucle, par exemple les systèmes de recommandation d'actualités ou le contenu créé (ou traduit) et publié automatiquement. De telles configurations augmentent le besoin d'informations permettant aux lecteurs de comprendre les informations qui leur sont fournies (et les erreurs que les systèmes d'IA pourraient commettre) dans leur contexte.
Le consommateur a le droit d'être informé lorsque l'IA joue un rôle crucial dans l'expérience médiatique.
Dans ce paysage de l'information numérique, nous pensons que le consommateur a le droit d'être informé lorsque l'IA joue un rôle crucial dans l'expérience médiatique. La façon exacte dont cela est fait doit être à la discrétion de chaque entreprise. Cependant, notre expérience du réseau Nordic AI Journalism est qu'un dialogue entre pairs sur la transparence de l'IA, à la fois au sein de votre entreprise et dans l'ensemble de l'industrie, est un excellent point de départ.