Le Conseil de l’Europe a récemment adopté des résolutions clés concernant l’IA et son intersection avec les médias et le journalisme.
Les ordinateurs devraient-ils écrire les nouvelles ? Qu’en est-il des flux d’actualités contrôlés par l’IA ? Si les outils d’IA suppriment délibérément des informations trompeuses, est-ce une atteinte à la liberté d’expression ou protège-t-il le discours public ?
Lors de la récente Conférence ministérielle du Conseil de l’Europe (10 et 11 juin), une déclaration finale et quatre résolutions ont été adoptées pour répondre à ces préoccupations.
Les domaines de résolution comprenaient les technologies numériques, la sécurité des journalistes, l’évolution de l’environnement des médias et de l’information et l’impact de la pandémie de Covid-19 sur la liberté d’expression.
Cette courte phrase dément l’étendue des préoccupations et l’ampleur de ce qu’elles abordent.
Le communiqué de presse du conseil a précisé la nécessité de « conditions réglementaires entourant les processus automatisés de création et de diffusion d’informations, y compris le traitement du langage naturel (TAL), le robo-journalisme et les flux d’actualités préparés de manière algorithmique ».
Les exemples fournis par le conseil ne sont pas arbitraires mais représentent trois domaines de préoccupation majeurs.
Un document de 37 pages sur les implications des outils basés sur l’IA sur les médias a servi de base à une grande partie des discussions de la conférence de deux jours. Rédigé par la professeure Natalie Helberger, la professeure agrégée Sarah Eskens et trois autres collègues, le rapport aborde les implications de l’IA pour la liberté d’expression.
Dans leur article, ils discutent des outils d’IA utilisés par les journalistes (NLP), des outils d’IA remplaçant les journalistes (robo-journalisme) et des outils d’IA qui affectent la diffusion du journalisme (fils d’actualités).
Outils d’IA pour les journalistes
Tout d’abord, les outils basés sur l’IA, qui visent généralement à aider les journalistes à passer au crible de vastes quantités d’informations.
Imaginez le journaliste politique prototype, Robert Caro, dans son écriture de la biographie de 1974, lauréate de Pulitzer, The Power Broker.
En recherchant le tristement célèbre politicien new-yorkais Robert Moses, Caro a passé des années à parcourir la bibliothèque publique de New York et ses documents pour écrire son opus de 1 162 pages.
À l’ère de la PNL et des documents numériques, l’IA vise à réduire ce processus à un après-midi.
La PNL existe à l’intersection entre l’informatique, la linguistique et l’intelligence artificielle. En utilisant des ordinateurs pour analyser et traiter de grandes quantités de documents, la PNL est particulièrement adaptée à ce style d’enquête.
Il a déjà été utilisé avec un certain succès, avec une équipe de journalistes de Reuters utilisant des outils NLP pour parcourir 10 300 documents juridiques relatifs à la Cour suprême des États-Unis. Bien que ce processus nécessitait une surveillance et une modification des outils, AI a considérablement réduit les démarches requises dans leur journalisme.
Donc quel est le problème?
Deux problèmes sont mis en lumière dans le document complet de Helberger et al : une compréhension de ces outils, et qui pourra les utiliser.
D’un point de vue purement pratique, les journalistes auraient besoin de comprendre ces outils pour interagir correctement avec les données. Cela signifie comprendre les données incomplètes, les limites de la modélisation, les biais d’échantillonnage, ainsi que toutes les compétences techniques nécessaires pour exécuter ces programmes.
Mais si le monde devient de plus en plus numérique et que certains métiers nécessitent une montée en compétences, pourquoi exclure le journalisme ?
Cela ne devrait pas, mais cela conduit au deuxième problème, peut-être plus conséquent. S’il existe une barrière financière entre les journalistes et ces outils, les auteurs du rapport mettent en garde contre la faisabilité décroissante des petites agences de presse locales.
Ils craignent que cela ne conduise à la monopolisation de l’industrie de l’information par les grandes organisations et à l’abattage des petites organisations. Si ces organisations ne sont pas là pour fournir des informations locales, il se peut que le journalisme n’agisse pas en tant que chien de garde public à tout sauf au niveau national (ou même international).
Le rapport cite les logiciels open source comme une solution. Cela uniformiserait les règles du jeu afin que les petites organisations disposent de tous les logiciels des plus grandes organisations, même s’il leur manque du matériel.
La formation et le perfectionnement restent une préoccupation, ainsi que l’accès à des personnes expérimentées pour le mentorat. L’apprentissage en ligne et les ressources gratuites peuvent n’avoir qu’une valeur limitée, et un supplément gouvernemental peut donc être nécessaire.
Les auteurs du rapport doublent cependant ce besoin de formation et de sensibilisation, car une utilisation irresponsable du logiciel pourrait constituer une faute professionnelle journalistique.
Les risques du robo-journalisme
« Du point de vue du droit d’auteur, vous pouvez demander qui est l’auteur d’une œuvre et qui devrait détenir les droits d’auteur sur une œuvre produite entièrement automatisée », a déclaré Eskens à Siliconrepublic.com.
« Il y aura des problèmes juridiques concernant la responsabilité : qui est responsable lorsqu’un article de presse produit automatiquement contient un contenu illégal ou cause un préjudice ?
«Comme nous en discutons également dans le rapport, vous pourriez demander si le contenu produit par des robots journalistes est protégé par la liberté d’expression. Une telle question peut avoir son importance lorsque les gouvernements veulent essayer de censurer le contenu du journalisme robotique. À l’heure actuelle, les robots journalistes n’ont pas de droits à la liberté d’expression, car les robots n’ont pas de personnalité juridique et ne peuvent pas être titulaires de droits.
Le robo-journalisme existant est quelque peu convaincant, même s’il est superficiel. Selon Eskens, la possibilité d’articles de réflexion ou de robo-journalisme en profondeur n’est pas une préoccupation immédiate. Au lieu de cela, le robo-journalisme serait probablement utilisé pour présenter des informations simples telles que des rapports de match.
Si tel est le cas, le groupe souligne l’importance des responsabilités éditoriales et de la surveillance. La mise en œuvre de ces outils nécessite qu’ils soient compris par tous.
Après tout, si les processus de base peuvent être automatisés, il est possible d’améliorer la qualité du journalisme en réduisant la charge de travail globale d’un rédacteur.
Mais cela n’est pas sans difficultés.
L’exemple particulier choisi dans le rapport est le rôle de l’évaluation de la valeur médiatique. Un journal doit-il publier un article parce que son sujet est susceptible de générer des clics ? Y a-t-il des obligations pour exécuter certaines histoires ? Y a-t-il des obligations de ne pas diriger les autres ?
Malgré les écoles de journalisme, d’innombrables manuels et une vaste université sur le sujet, il n’y a pas de réponses définitives aux questions ci-dessus. Il n’y a jamais deux éditeurs qui se ressemblent. Et il n’y a donc pas de guide éthique à traduire en code.
« Des rédacteurs en chef, des universitaires, des journalistes expérimentés et des programmeurs seraient tous nécessaires pour amener les rédacteurs de l’IA dans la salle de rédaction »
Lorsque les robo-journalistes se caractérisent par être «limités à aucune intervention humaine au-delà des choix de programmation initiaux», il appartiendrait aux programmeurs individuels de décider quelles histoires étaient automatisées, dans quelle mesure elles étaient automatisées et quand l’IA serait utilisé.
La transparence algorithmique est un autre élément clé ici, où le public est conscient du codage et de ses opérations, afin d’attribuer correctement la paternité. La part d’une histoire provenant de l’éditeur et la part de mensonges dans le code pourraient être la clé d’un flux d’actualités automatisé et éthique.
Ces préoccupations doivent être abordées non seulement à travers le prisme de l’informatique, mais avec une conscience intégrée de l’éthique journalistique. Des rédacteurs en chef, des universitaires, des journalistes expérimentés et des programmeurs seraient tous nécessaires pour amener des rédacteurs en IA dans la salle de rédaction.
Utiliser l’IA pour diffuser des informations
Le rôle de l’IA dans les recommandations et la gestion de contenu est important.
Les « bulles de filtre » sont un problème fréquemment signalé. Au fur et à mesure que les plateformes en apprennent de plus en plus sur nous, elles fournissent les informations que nous voulons voir, plutôt qu’une vue équilibrée. Nous devenons enfermés dans un flux d’informations qui confirme nos croyances existantes. Ou alors les inquiétudes disparaissent.
Cependant, le rapport sur l’IA dans les médias souligne que les preuves empiriques de ces bulles dans le monde réel sont jusqu’à présent rares. Des expériences en laboratoire montrent que c’est possible, et que l’exaspération des préjugés humains existants se produit, mais peut-être pas dans la mesure où nous nous inquiétons.
Si ces bulles de filtre se profilent à l’horizon, un domaine particulier à aborder est de savoir comment les groupes minoritaires peuvent surmonter ces algorithmes de sélection. L’utilisation d’ensembles de données biaisées peut ne pas être représentative du public, en particulier pour les groupes marginalisés.
« Si vous communiquez dans une langue minoritaire, les algorithmes qui sont utilisés pour filtrer votre contenu pourraient être moins bien équipés pour trouver des informations dans votre propre langue, simplement parce que les algorithmes sont formés sur une langue dominante telle que l’anglais américain ou l’anglais britannique, », a déclaré Eskens.
De l’autre côté de ce problème potentiel se trouve l’utilisation de l’IA pour lutter contre les contenus inappropriés, tels que les discours de haine et la désinformation.
Si certains groupes marginaux utilisent des plateformes en ligne pour diffuser délibérément de la désinformation, l’ampleur du défi peut nécessiter une solution d’IA. Que la diffusion d’opinions infondées soit un aspect de la liberté d’expression ou son antithèse est une question épineuse, mais les auteurs du rapport penchent vers le besoin éventuel d’IA.
Eskens a souligné que la recherche a soulevé des problèmes supplémentaires.
« Une étude de Sap et d’autres montre que les tweets écrits en anglais afro-américain sont plus susceptibles d’être étiquetés comme offensants par rapport aux autres. Si de tels biais existent également dans les algorithmes qui décident quel contenu est promu sur les flux de médias sociaux, cela pourrait signifier que le contenu des groupes minoritaires [is] moins promu et a donc moins de visibilité.
Cela pourrait impliquer de permettre aux gens de changer les algorithmes qui pilotent leur fil d’actualité. Grâce au contrôle et à la transparence, les utilisateurs ne sauraient pas quoi regarder, mais pourraient personnaliser la façon dont ils souhaitent que leur système fonctionne.
Une compréhension de ces outils est nécessaire dans leur application individuelle pour décider s’ils menacent ou réalisent la liberté d’expression.
Cela illustre bien « l’approche de précaution de la résolution, basée sur les modèles des « droits de l’homme dès la conception » et de la « sécurité dès la conception » ».
Avec l’IA occupant une si grande partie du marché et de la technologie futurs, le journalisme devra former son œil critique sur le logiciel – à la fois pour ce qu’il peut gagner de son utilisation et quels sont ses dangers.