Téléchargez gratuitement notre eBook "Pour une stratégie d'entreprise éco-responsable"
télécharger
French
French
Actualité
15/1/24

Mise en œuvre de systèmes d’intelligence artificielle dans le journalisme : les lignes directrice du Conseil de l’Europe

Le 30 novembre 2023, le Comité directeur sur les médias et la société de l’information (« CDMSI »), organe intergouvernemental du Conseil de l’Europe, a publié des lignes directrices sur la mise en œuvre responsable des systèmes d’intelligence artificielle (IA) dans le journalisme.

Le Conseil de l’Europe commence par relever dans ces lignes directrices que des systèmes d’IA peuvent être utilisés à chaque étape du travail journalistique. Il en est notamment ainsi « de la production ou de la diffusion d’informations relevant de l’intérêt public, de la conduite de recherches et de l’analyse de données sous-tendant les contenus journalistiques »1, de la traduction de documents et de l’interaction avec le public.

Ainsi, les systèmes d’IA offrent à leurs utilisateurs – en l’espèce, des organes d’information2 – un avantage concurrentiel considérable pour l’exécution de leur rôle sociétal et démocratique, véritable « clef de voute […] de la liberté d’expression »3.

Néanmoins, le Conseil de l’Europe rappelle que l’accès aux systèmes d’IA et leur utilisation doivent respecter les droits fondamentaux et les principes déontologiques du journalisme.

À cette fin, les lignes directrices du Conseil de l’Europe fournissent des orientations concrètes et pratiques à destination des acteurs concernés, en particulier les organes d’information mais aussi les États, les fournisseurs de technologies et les plateformes numériques qui diffusent des informations, en expliquant en détail comment utiliser les systèmes d’IA pour soutenir l’activité journalistique.

Elles concernent l’utilisation de systèmes d’IA à chaque étape chronologique de la production journalistique.

1. La décision d’organes d’information et de journalistes de mettre en œuvre des systèmes d’IA, préalable à la production journalistique

La décision de mettre en œuvre des systèmes d’IA

D’une part, le Conseil de l’Europe précise que la décision de mettre en œuvre des systèmes d’IA dans le journalisme devrait être prise par l’organe d’information au regard de la réalisation de sa mission éditoriale dans le respect de ses principes déontologiques et de l’État de droit, et non pas uniquement au regard de considérations purement technologiques ou commerciales. Il faudrait par exemple que cette décision repose sur les difficultés précises que cette technologie permettrait de résoudre4.

La décision devrait également tenir compte d’une analyse des tâches qu’il est légalement et techniquement possible d’automatiser5.

D’autre part, le Conseil de l’Europe recommande aux organes d’information de mettre en place des procédures visant à identifier, évaluer et atténuer les risques que présente l’utilisation de l’IA pour les droits des tiers tels que le droit à la protection des données personnelles ou le droit d’auteur6.

La sélection et l’acquisition de systèmes d’IA

Le Conseil de l’Europe souligne que les fournisseurs de technologies destinées à être utilisées par des organes d’information ont aussi l’obligation de respecter les principes d’autonomie éditoriale et d’indépendance des médias d’information7.

Par ailleurs, pour les systèmes d’IA utilisés en matière de journalisme devant être entraînés avec des données pour fonctionner, il est recommandé de veiller à ce que le fournisseur ait utilisé ces données de manière responsable8.

Dans cet objectif, l’Annexe 1 des lignes directrices fournit une liste non exhaustive et évolutive de questions qu’une organisation médiatique pourrait soumettre à un fournisseur lors de la sélection et de l’achat de systèmes IA. Ces questions portent notamment sur :

  1. Le type et la qualité des données d’entraînement utilisées : les données doivent être conformes aux exigences de protection des droits d’auteur et du droit à la protection des données personnelles ;
  2. Les paramètres et pondérations des modèles d’entraînement ;
  3. Les compétences nécessaires pour exercer une supervision et un contrôle humain du système ;
  4. Les garanties offertes pour la continuité et la lutte contre l’obsolescence du système.

Lorsque le système d’IA est entraîné à l’aide de données appartenant à un autre organe médiatique, il est conseillé de demander au fournisseur à quelles fins ces données seront réutilisées et avec quelles garanties de confidentialité et de légalité9.

Le Conseil de l’Europe recommande enfin de veiller à bien déterminer les responsabilités au sein du contrat d’achat du système. L’accent doit particulièrement être mis sur l’identification de clauses limitatives de responsabilité ou de clauses d’indemnisation ainsi que sur le type d’assistance juridique proposée par le fournisseur dans l’hypothèse où un tiers intenterait une action judiciaire sur la base d’un élément échappant au contrôle de l’organe médiatique10.

2. L’incorporation et l’utilisation d’outils d’IA au soutien de la production journalistique

Les engagements techniques et organisationnels des organes d’information

Pour utiliser efficacement des systèmes d’IA, les organes d’information sont d’abord encouragés à fournir à leur personnel une formation sur l’utilisation de l’IA de manière respectueuse des droits humains et des principes déontologiques11.

Le Conseil de l’Europe recommande à chaque rédaction d’assurer un contrôle humain strict sur les productions réalisées à l’aide de l’IA. Par exemple, les textes automatisés devraient être rigoureusement vérifiés afin d’en extraire toute affirmation « fallacieuse, lacunaire ou factuellement incorrecte »12.

Enfin, compte tenu ressources financières nécessaires afin d’utiliser des systèmes d’IA dans le respect de la mission des organes d’information, les lignes directrices suggèrent que les « médias de service public dotés d’un financement suffisant » coopèrent activement avec les autres organes d’information, tant en impulsant et en soutenant la recherche et l’innovation de systèmes d’IA qu’en partageant leurs expériences et meilleures pratiques13.

Les engagements des fournisseurs de technologies à l’égard des organes d’information

Les fournisseurs de technologies doivent aider et coopérer avec les organes d’information et en particulier, faire preuve de transparence sur les données et modèles utilisés14.

Les engagements des organes d’information à l’égard du public

La mise en œuvre et l’utilisation de certains systèmes d’IA dans le journalisme peut conduire à une modification de la confiance du public dans les organes d’information. Par conséquent, il est nécessaire de redéfinir les valeurs journalistiques traditionnelles15. En particulier16, les organes d’information devraient mettre en avant les valeurs suivantes :

  1. La transparence et l’explicabilité de l’IA, c’est-à-dire le fait de savoir si, où et comment l’IA est utilisée dans le journalisme tout au long du processus de production ;
  2. L’exactitude du système ;
  3. La protection de la vie privée et des données ;
  4. L’accessibilité ;
  5. La liberté d’information et d’opinion du public.

Pour gagner et maintenir la confiance du public à l’égard des informations générées par cette IA, il est recommandé de présenter les étapes du contrôle humain mis en place et les garanties du respect des droits, de l’authenticité et de l’exactitude des informations17.

Enfin, des mécanismes devraient également être prévu pour permettre au public de faire part de ses préoccupations sur l’utilisation de l’outil18.

3. La responsabilité des plateformes diffusant l’information postérieurement à sa création par un système d’IA

Le Conseil de l’Europe considère que l’ensemble des recommandations élaborées par le Comité des Ministres sur la gouvernance et le pluralisme des médias s’appliquent pour encadrer l’utilisation responsable, par les plateformes qui diffusent de l’information ou qui servent d’intermédiaires d’information, de systèmes d’IA en matière de journalisme19.

De fait, ces plateformes sont soumises aux obligations de :

  1. Ne pas restreindre l’accès aux sources d’information en se fondant simplement sur des opinions politiques particulières20 ;
  2. Éviter toute ingérence dans les contenus et ne pas supplanter les normes éditoriales21 ;
  3. Lutter contre la désinformation en collaborant activement avec les médias d’information, la société et d’autres acteurs tels que les vérificateurs de faits22 ;
  4. Veiller à ce que les biais algorithmiques ne portent pas atteinte aux droit et libertés fondamentaux23 ;
  5. Accroître la transparence, la responsabilité, l’explicabilité et l’inclusivité des systèmes utilisés pour personnaliser l’envoi de contenus24.

4. Obligations spécifiques incombant aux États

Enfin, le Conseil de l’Europe liste dans ces lignes directrices une série d’obligations qui devraient incomber aux États membres.

Ces obligations devraient d’abord inclure une diversification des mécanismes de financement afin de soutenir le développement de systèmes d‘IA responsables dans le journalisme sans porter atteinte à l’indépendance du journalisme25.

Par exemple, les Etats sont encouragés à instaurer une obligation d’investissement dans l’innovation en matière de médias numériques.

Les Etats devraient ensuite favoriser l’accès et le choix entre les fournisseurs de technologies respectant les droits humains et les principes déontologiques du journalisme26. A ce titre, les Etats devraient pouvoir encourager le libre accès des systèmes d’IA et des données d’entraînement et garantir le jeu de la concurrence entre les fournisseurs de technologies.

Enfin, les Etats devraient « encourager les autorités de régulation […] des médias d’information » à établir des lignes directrices et des normes sur l’utilisation et le développement responsable de l’IA dans le journalisme.

Pour aller plus loin : les « Lignes directrices sur la mise en œuvre responsable de systèmes d’intelligence artificielle dans le journalisme ».

Aurélie BRÉGOU / Pauline FOURNIÉ

1 Lignes directrices, Définition de « système d’intelligence artificielle utilisé en journalisme », page 3.

2 Lignes directrices, Définition de « système d’intelligence artificielle utilisé en journalisme », page 3.

3 Lignes directrices, page 2.

4 Lignes directrices, Article 1.1.

5 Lignes directrices, Article 1.7.

6 Lignes directrices, Article 1.4.

7 Lignes directrices, Article 5.1.1.

8 Lignes directrices, Article 2.2.

9 Lignes directrices, Annexe 1.

10 Lignes directrices, Annexe 1.

11 Lignes directrices, Article 3.1.

12 Lignes directrices, Article 3.2.

13 Lignes directrices, Article 3.6.

14 Lignes directrices, Article 5.1.7.

15 Lignes directrices, Article 4.3.

16 Lignes directrices, Article 4.4.

17 Lignes directrices, Article 4.4.

18 Lignes directrices, Article 4.7.

19 Lignes directrices, Article 5.2.1.

20 CM/Rec(2022)4.

21 CM/Rec(2022)11.

22 CM/Rec(2022)4.

23 CM/Rec(2022)11.

24 CM/Rec(2022)11.

25 Lignes directrices, Article 6.1.

26 Lignes directrices, Article 6.2.

Image par Canva
Découvrez le Livre Blanc : "Intelligence artificielle : quels enjeux juridiques"
Télécharger
Intelligence Artificielle : quels enjeux juridiques ?

Abonnez vous à notre Newsletter

Recevez chaque mois la lettre du DDG Lab sur l’actualité juridique du moment : retrouvez nos dernières brèves, vidéos, webinars et dossiers spéciaux.
je m'abonne
DDG utilise des cookies dans le but de vous proposer des services fonctionnels, dans le respect de notre politique de confidentialité et notre gestion des cookies (en savoir plus). Si vous acceptez les cookies, cliquer ici.