IA, l’ingrédient magique

Le jeu des questions – réponses

Un des usages les + pratiques des modèles génératifs, c’est de leur faire lire des rapports à ta place (en même temps, qui a envie de lire des rapports de 300 pages ?).

Un petit résumé, quelques questions et, hop, le tour est joué.

Vraiment pratique.

Exemple.

J’aime bien lire les rapports du Haut Conseil pour le Climat. Mais là, je vais plutôt demander à ChatGPT-4o de lire leur résumé exécutif de juin 2024 pour moi.

Je le télécharge, le donne à ChatGPT-4o et lui pose une petite question :

Lis le document joint et réponds à la question suivante:
"""
A combien s'élèvent les émissions nettes de gaz à effet de serre de la France pour l'année 2023 ?
"""

Ce à quoi il me répond gentiment :

Pas mal, non ? Pas mal, pas mal, oui, si on veut… sauf que c’est FAUX. Ceux sont les émissions brutes qui s’élèvent à 373 Mt éqCO2 et moi j’ai demandé les émissions nettes (ok, je lui ai tendu un piège, mais brut / net, désolé, c’est pas pareil).

ChatGPT et ses concurrents peuvent “parfois” produire des affirmations fausses ou imaginaires : les fameuses “hallucinations“.

Comment, alors, réduire au maximum ce risque ?

Avec un meilleur prompt, bien sûr :

Lis le document joint et réponds à la question suivante:
"""
A combien s'élèvent les émissions nettes de gaz à effet de serre de la France pour l'année 2023 ?
"""

Suis les étapes suivantes :
- Dans un premier temps, extrais et affiche les éléments les plus pertinents pour répondre à la question posée.
- Analyze si les éléments permettent de répondre précisément à la question posée. Si les éléments ne permettent pas de répondre à la question, dis-le.
- Et enfin réponds à la question.

Je te laisse lire la nouvelle réponse :

BOUM ! D’une réponse fausse à une analyse précise et juste. Joli.

L’astuce a consisté (encore) à fonctionner étape par étape (tu te rappelles : chaîne de pensée ? autorégression ?) :

  • Etape 1 : Extraction des éléments pertinents

  • Etape 2 : Analyse des élements

  • Etape 3 : Réponse

Zoom sur l’étape 2 : j’y ai glissé une porte de sortie. En demandant “Si les éléments ne permettent pas de répondre à la question, dis-le“, j’autorise – et j’encourage même – le modèle à admettre son ignorance. C’est un garde-fou essentiel contre les fausses certitudes.

Donc, pratique, oui, mais à condition de savoir s’y prendre (qui a parlé de formation ? 😋 ).

Et ce n’est qu‘un aperçu ! Le sujet “Demande à ton PDF” mériterait sa propre mini-série : quid des images ? des tableaux ? quand le PDF est trop long ? ChatGPT, Claude, Gemini.. traitent-ils les documents de la même manière ? (Tu peux me dire dans les commentaires si une telle série t’intéresserait).

Ce qu’il faut retenir :

  • Les modèles de langage peuvent “halluciner” des informations incorrectes, ce qui nécessite une approche prudente.

  • Un prompt bien structuré en étapes (extraction, analyse, réponse) améliore considérablement la fiabilité des réponses.

  • Inclure une “porte de sortie” dans le prompt (par exemple, autoriser le modèle à dire qu’il ne peut pas répondre) permet d’éviter des réponses fausses ou imprécises.