Blog

Quand l’IA piège la presse : plusieurs médias suppriment des articles écrits par une fausse pigiste

De faux articles signés par une prétendue journaliste indépendante ont été publiés par plusieurs grands médias américains avant d’être retirés. Cette affaire met en lumière une crise profonde du journalisme, confronté à la prolifération de contenus générés par l’IA et à sa dépendance économique face aux géants technologiques.

Ce qu’il faut retenir :

  • Au moins six publications, dont Wired et Business Insider, ont publié puis supprimé des articles rédigés par une identité fictive, « Margaux Blanchard », qui s’est révélée être générée par IA.
  • L’affaire illustre le manque de procédures robustes de vérification dans certaines rédactions.
  • Les médias traversent une double crise : une lutte contre les contenus artificiels trompeurs et une bataille économique face à Google et aux modèles de langage qui exploitent gratuitement leurs productions.
  • Cette situation ravive le débat sur l’avenir du journalisme, son financement et la confiance du public.

Une “journaliste” sortie de nulle part

Ces derniers mois, plusieurs grands sites d’information, parmi lesquels Wired et Business Insider, ont découvert qu’ils avaient publié des articles écrits par une auteure fictive appelée « Margaux Blanchard ». Selon une enquête du Press Gazette, cette prétendue pigiste freelance a proposé des textes au style convaincant, mais entièrement générés par intelligence artificielle.

Chez Wired, l’histoire semblait parfaite : un couple qui se marie virtuellement dans Minecraft. Mais face à l’incapacité de l’auteure à fournir des justificatifs pour son paiement, la rédaction a ouvert une enquête. Résultat : sources inventées, personnages inexistants, et un récit intégralement fabriqué. Dans une note interne, Wired a reconnu que le texte n’avait pas subi un contrôle factuel assez approfondi.

L’un des articles de Margaux Blanchard, supprimé depuis – Source : Wired (Wayback Machine)

Business Insider a vécu un scénario similaire. Deux chroniques personnelles signées par Margaux Blanchard, dont l’une racontant une maternité tardive, ont été publiées en avril, puis discrètement retirées avec la mention qu’elles ne respectaient pas les standards du média.

Une supercherie bien rodée

Le stratagème a été repéré par Jacob Furedi, fondateur du magazine Dispatch. Ayant reçu un pitch détaillé sur un supposé village minier reconverti en centre secret de formation médico-légale, il a flairé la fraude. Le ton trop parfait et les “déclarations” invérifiables l’ont convaincu que le texte provenait d’un générateur type ChatGPT.

En cherchant des preuves, ni Jacob Furedi ni Press Gazette ni The Guardian n’ont trouvé trace dudit village ni de l’officiante de mariage numérique que citait Wired. Tout semblait inventé de toutes pièces, mais suffisamment crédible pour tromper des éditeurs pressés.

Une crise de confiance pour les rédactions

Cet épisode souligne le dilemme croissant auquel fait face la presse dans son ensemble : comment distinguer un reportage réel d’un contenu généré artificiellement, alors que l’IA produit des textes fluides, crédibles et adaptés aux attentes éditoriales ?

Ces derniers mois, ces incidents similaires se sont multipliés. Un avocat de l’Utah a par exemple été sanctionné pour avoir soumis un dossier juridique incluant des citations de jurisprudence inventées par ChatGPT. À Chicago, un supplément du Sun-Times a relayé une fausse liste de lecture, elle aussi générée de façon automatique. Ces dérapages sont de nature à éroder la confiance des lecteurs et alimenter la suspicion généralisée sur ce qui est fiable ou non.

Google, OpenAi et la presse : une guerre ouverte

Parallèlement, les médias doivent également affronter un adversaire économique puissant : les grands modèles de langage et les moteurs de recherche qui exploitent leurs contenus sans contrepartie équitable.

Les éditeurs reprochent notamment à Google d’utiliser leurs articles pour entraîner ses systèmes génératifs (comme AI Overviews) et de garder les lecteurs dans l’écosystème du moteur plutôt que de rediriger vers les sites source. Selon l’Alliance de la presse d’information générale en France et la News Media Alliance aux États-Unis, cette pratique met en péril le modèle économique des rédactions.

En 2023 déjà, une coalition de journaux américains, menée par le New York Times, avait attaqué OpenAI et Microsoft pour violation de droit d’auteur, accusant leurs modèles d’avoir été « nourris » par des millions d’articles sans autorisation. En Europe, des négociations entourant les droits voisins ont également opposé Google aux éditeurs, qui cherchent à obtenir une rémunération plus juste pour la réutilisation de leurs contenus.

Le problème n’est pas seulement financier : si Google et les LLMs captent l’essentiel de l’attention et de la valeur ajoutée de l’information, les rédactions risquent de ne plus pouvoir financer l’enquête journalistique, pourtant indispensable à la démocratie.

Une bataille qui ne fait que commencer

L’affaire “Margaux Blanchard” pourrait agir comme un électrochoc : même les rédactions réputées pour leur vigilance et la fiabilité de leurs informations peuvent être trompées. Mais elle met également en exergue une question plus large : comment protéger la valeur de l’information dans une ère où l’IA peut générer un flot ininterrompu de récits, souvent non sourcés, et parfois inventés ?

L’article “Quand l’IA piège la presse : plusieurs médias suppriment des articles écrits par une fausse pigiste” a été publié sur le site Abondance.