"Cet accident montre à quel point les services à base d’IA générative sont encore trop immatures pour produire de l’information fiable à destination du public. Ils ne doivent pas être autorisés sur le marché pour ces usages."
Cet article a été initialement publié sur rsf.org le 17 décembre 2024.
Reporters sans frontières (RSF) s’inquiète des risques que font courir aux médias les nouvelles fonctionnalités d’intelligence artificielle (IA) après la génération d’une fausse information attribuée à la BBC dans les résumés rédigés par un nouveau produit d’Apple. Cet accident montre à quel point les services à base d’IA générative sont encore trop immatures pour produire de l’information fiable à destination du public. Ils ne doivent pas être autorisés sur le marché pour ces usages.
La fonctionnalité “Apple Intelligence”, lancée au Royaume-Uni le 11 décembre par le fabricant de l’iPhone, aura mis moins de quarante-huit heures à démontrer l’incapacité de l’IA générative à produire à tous les coups de l’information fiable. Le 13 décembre, le média britannique BBC a annoncé sur son site s’être plaint auprès Apple à la suite d’un résumé de notifications généré par IA, attribuant à tort au groupe public l’annonce du suicide de Luigi Mangione, principal suspect dans l’affaire du meurtre du PDG d’UnitedHealthCare. Une information totalement fausse.
Cet accident souligne l’incapacité des systèmes d’IA à systématiquement publier des informations de qualité, même quand elles sont basées sur des sources journalistiques. Le fonctionnement probabiliste des systèmes d’IA les disqualifie de facto en tant que technologies médiatiques fiables, utilisables dans des solutions à destination du grand public.
“Les IA sont des machines à probabilités, or la véracité d’une information ne se joue pas sur un coup de dés. RSF appelle Apple à prendre ses responsabilités en retirant cette fonctionnalité. La production automatisée de fausses informations portant le sigle de médias est une atteinte à leur crédibilité, et un danger pour le droit du public à disposer d’informations fiables sur l’actualité. L’AI Act européen, pourtant la législation la plus avancée au monde en la matière, n’a pas classé les IA générant de l’information comme systèmes à haut risque, laissant un vide juridique critique. Cette lacune doit être comblée rapidement.”
Vincent Berthier, Responsable du bureau technologies et journalisme de RSF
Face aux bouleversements engendrés par l’IA dans l’espace informationnel, la Charte de Paris initiée par RSF énonce dix principes essentiels pour garantir l’intégrité de l’information et préserver la fonction sociale du journalisme. Parmi les principes centraux, elle dispose que : “Les détenteurs des droits doivent conditionner la réutilisation de leur contenu au respect de l’intégrité de l’information et aux principes fondamentaux de l’éthique journalistique.”