Le 30 novembre 2023, le Comité directeur sur les médias et la société de l’information (« CDMSI »), organe intergouvernemental du Conseil de l’Europe, a publié des lignes directrices sur la mise en œuvre responsable des systèmes d’intelligence artificielle (IA) dans le journalisme.
Le Conseil de l’Europe commence par relever dans ces lignes directrices que des systèmes d’IA peuvent être utilisés à chaque étape du travail journalistique. Il en est notamment ainsi « de la production ou de la diffusion d’informations relevant de l’intérêt public, de la conduite de recherches et de l’analyse de données sous-tendant les contenus journalistiques »1, de la traduction de documents et de l’interaction avec le public.
Ainsi, les systèmes d’IA offrent à leurs utilisateurs – en l’espèce, des organes d’information2 – un avantage concurrentiel considérable pour l’exécution de leur rôle sociétal et démocratique, véritable « clef de voute […] de la liberté d’expression »3.
Néanmoins, le Conseil de l’Europe rappelle que l’accès aux systèmes d’IA et leur utilisation doivent respecter les droits fondamentaux et les principes déontologiques du journalisme.
À cette fin, les lignes directrices du Conseil de l’Europe fournissent des orientations concrètes et pratiques à destination des acteurs concernés, en particulier les organes d’information mais aussi les États, les fournisseurs de technologies et les plateformes numériques qui diffusent des informations, en expliquant en détail comment utiliser les systèmes d’IA pour soutenir l’activité journalistique.
Elles concernent l’utilisation de systèmes d’IA à chaque étape chronologique de la production journalistique.
D’une part, le Conseil de l’Europe précise que la décision de mettre en œuvre des systèmes d’IA dans le journalisme devrait être prise par l’organe d’information au regard de la réalisation de sa mission éditoriale dans le respect de ses principes déontologiques et de l’État de droit, et non pas uniquement au regard de considérations purement technologiques ou commerciales. Il faudrait par exemple que cette décision repose sur les difficultés précises que cette technologie permettrait de résoudre4.
La décision devrait également tenir compte d’une analyse des tâches qu’il est légalement et techniquement possible d’automatiser5.
D’autre part, le Conseil de l’Europe recommande aux organes d’information de mettre en place des procédures visant à identifier, évaluer et atténuer les risques que présente l’utilisation de l’IA pour les droits des tiers tels que le droit à la protection des données personnelles ou le droit d’auteur6.
Le Conseil de l’Europe souligne que les fournisseurs de technologies destinées à être utilisées par des organes d’information ont aussi l’obligation de respecter les principes d’autonomie éditoriale et d’indépendance des médias d’information7.
Par ailleurs, pour les systèmes d’IA utilisés en matière de journalisme devant être entraînés avec des données pour fonctionner, il est recommandé de veiller à ce que le fournisseur ait utilisé ces données de manière responsable8.
Dans cet objectif, l’Annexe 1 des lignes directrices fournit une liste non exhaustive et évolutive de questions qu’une organisation médiatique pourrait soumettre à un fournisseur lors de la sélection et de l’achat de systèmes IA. Ces questions portent notamment sur :
Lorsque le système d’IA est entraîné à l’aide de données appartenant à un autre organe médiatique, il est conseillé de demander au fournisseur à quelles fins ces données seront réutilisées et avec quelles garanties de confidentialité et de légalité9.
Le Conseil de l’Europe recommande enfin de veiller à bien déterminer les responsabilités au sein du contrat d’achat du système. L’accent doit particulièrement être mis sur l’identification de clauses limitatives de responsabilité ou de clauses d’indemnisation ainsi que sur le type d’assistance juridique proposée par le fournisseur dans l’hypothèse où un tiers intenterait une action judiciaire sur la base d’un élément échappant au contrôle de l’organe médiatique10.
Pour utiliser efficacement des systèmes d’IA, les organes d’information sont d’abord encouragés à fournir à leur personnel une formation sur l’utilisation de l’IA de manière respectueuse des droits humains et des principes déontologiques11.
Le Conseil de l’Europe recommande à chaque rédaction d’assurer un contrôle humain strict sur les productions réalisées à l’aide de l’IA. Par exemple, les textes automatisés devraient être rigoureusement vérifiés afin d’en extraire toute affirmation « fallacieuse, lacunaire ou factuellement incorrecte »12.
Enfin, compte tenu ressources financières nécessaires afin d’utiliser des systèmes d’IA dans le respect de la mission des organes d’information, les lignes directrices suggèrent que les « médias de service public dotés d’un financement suffisant » coopèrent activement avec les autres organes d’information, tant en impulsant et en soutenant la recherche et l’innovation de systèmes d’IA qu’en partageant leurs expériences et meilleures pratiques13.
Les fournisseurs de technologies doivent aider et coopérer avec les organes d’information et en particulier, faire preuve de transparence sur les données et modèles utilisés14.
La mise en œuvre et l’utilisation de certains systèmes d’IA dans le journalisme peut conduire à une modification de la confiance du public dans les organes d’information. Par conséquent, il est nécessaire de redéfinir les valeurs journalistiques traditionnelles15. En particulier16, les organes d’information devraient mettre en avant les valeurs suivantes :
Pour gagner et maintenir la confiance du public à l’égard des informations générées par cette IA, il est recommandé de présenter les étapes du contrôle humain mis en place et les garanties du respect des droits, de l’authenticité et de l’exactitude des informations17.
Enfin, des mécanismes devraient également être prévu pour permettre au public de faire part de ses préoccupations sur l’utilisation de l’outil18.
Le Conseil de l’Europe considère que l’ensemble des recommandations élaborées par le Comité des Ministres sur la gouvernance et le pluralisme des médias s’appliquent pour encadrer l’utilisation responsable, par les plateformes qui diffusent de l’information ou qui servent d’intermédiaires d’information, de systèmes d’IA en matière de journalisme19.
De fait, ces plateformes sont soumises aux obligations de :
Enfin, le Conseil de l’Europe liste dans ces lignes directrices une série d’obligations qui devraient incomber aux États membres.
Ces obligations devraient d’abord inclure une diversification des mécanismes de financement afin de soutenir le développement de systèmes d‘IA responsables dans le journalisme sans porter atteinte à l’indépendance du journalisme25.
Par exemple, les Etats sont encouragés à instaurer une obligation d’investissement dans l’innovation en matière de médias numériques.
Les Etats devraient ensuite favoriser l’accès et le choix entre les fournisseurs de technologies respectant les droits humains et les principes déontologiques du journalisme26. A ce titre, les Etats devraient pouvoir encourager le libre accès des systèmes d’IA et des données d’entraînement et garantir le jeu de la concurrence entre les fournisseurs de technologies.
Enfin, les Etats devraient « encourager les autorités de régulation […] des médias d’information » à établir des lignes directrices et des normes sur l’utilisation et le développement responsable de l’IA dans le journalisme.
Pour aller plus loin : les « Lignes directrices sur la mise en œuvre responsable de systèmes d’intelligence artificielle dans le journalisme ».
1 Lignes directrices, Définition de « système d’intelligence artificielle utilisé en journalisme », page 3.
2 Lignes directrices, Définition de « système d’intelligence artificielle utilisé en journalisme », page 3.
3 Lignes directrices, page 2.
4 Lignes directrices, Article 1.1.
5 Lignes directrices, Article 1.7.
6 Lignes directrices, Article 1.4.
7 Lignes directrices, Article 5.1.1.
8 Lignes directrices, Article 2.2.
9 Lignes directrices, Annexe 1.
10 Lignes directrices, Annexe 1.
11 Lignes directrices, Article 3.1.
12 Lignes directrices, Article 3.2.
13 Lignes directrices, Article 3.6.
14 Lignes directrices, Article 5.1.7.
15 Lignes directrices, Article 4.3.
16 Lignes directrices, Article 4.4.
17 Lignes directrices, Article 4.4.
18 Lignes directrices, Article 4.7.
19 Lignes directrices, Article 5.2.1.
20 CM/Rec(2022)4.
21 CM/Rec(2022)11.
22 CM/Rec(2022)4.
23 CM/Rec(2022)11.
24 CM/Rec(2022)11.
25 Lignes directrices, Article 6.1.
26 Lignes directrices, Article 6.2.