Blog

Mode Auto, modèles invisibles : que se passe-t-il vraiment chez Perplexity ?

Sur Reddit, Aravind Srinivas, CEO de Perplexity, a pris la parole. Pas un simple message corporate. Une réponse longue, honnête, et parfois technique à des semaines de frustrations exprimées par une communauté d’utilisateurs fidèles. L’enjeu ? Rétablir un lien de confiance autour d’un produit en pleine mutation.

Un outil qui change vite. Un peu trop vite ?

Depuis quelques semaines, Perplexity fait l’objet de critiques sur Reddit. Interface modifiée sans préavis, bugs à répétition, disparition de certaines fonctionnalités appréciées… Le lancement du mode Auto a été la goutte d’eau pour certains.

Et justement, Aravind commence par là.

Pourquoi ce fameux mode “Auto” ?

L’idée est simple : trop de choix tue l’usage. Trop de boutons, de sélecteurs, de modèles aux noms abscons. Le mode Auto a été conçu pour simplifier. C’est l’IA qui choisit le bon niveau de complexité :

  • réponse rapide ;
  • recherche multi-étapes ;
  • raisonnement poussé ;
  • ou deep research.

Objectif ? Moins de friction, plus de pertinence. L’utilisateur ne devrait pas avoir à comprendre les subtilités entre GPT-4o, Sonnet-3.7 ou o3-mini. Et non, il ne s’agit pas d’une mesure d’économie cachée. Juste d’ergonomie.

L’intelligence… sans transparence ?

C’est là que ça coince. Car si Auto est censé libérer l’utilisateur, il le frustre aussi. Beaucoup regrettent la disparition du sélecteur de modèle, une vraie force différenciante de Perplexity.

Pourquoi certains modèles ne sont-ils plus accessibles ?

Tous ne sont pas compatibles avec tous les modes :

  • DeepSeek R1 ou o3-mini sont taillés pour du raisonnement.
  • GPT-4o et Sonnet-3.7 brillent dans la synthèse rapide.
  • Deep Research combine plusieurs modèles à la fois (inutile de choisir).

C’est donc une logique technique… mais qui manque de lisibilité côté interface. Résultat : une impression de perte de contrôle, surtout pour les utilisateurs avancés.

Pro, Auto, Reasoning : une logique à clarifier

Difficile aujourd’hui de s’y retrouver dans l’écosystème des modes proposés. Le CEO l’admet : le système doit être simplifié. Et ça tombe bien, c’est en cours.

Comment fonctionne la nouvelle logique ?

  • Auto : aucune action requise, tout est piloté automatiquement.
  • Pro : personnalisable et persistant (le modèle reste actif après une première requête).
  • Reasoning : conçu pour les tâches longues, mais le modèle se réinitialise.
  • Fusion prévue entre Reasoning et Pro, pour éviter cette rupture d’usage.

Deep Research, quant à lui, restera un mode à part, pensé pour les recherches longues, sans besoin de personnalisation.

Derrière le rideau : une refonte profonde du produit

Ce que peu d’utilisateurs voyaient, c’est que l’équipe travaille en coulisses sur une infrastructure complètement repensée. Objectif ? Construire le meilleur moteur de recherche conversationnel.

Pourquoi autant de bugs et de lenteurs ces derniers temps ?

  • Migration de Python vers GoLang pour plus de performance.
  • Réécriture des systèmes de logs et d’indexation.
  • Conception d’un nouvel agent de recherche capable de raisonner pendant 30 minutes (oui, vraiment).

Tout ça a généré des effets de bord. Le CEO assume et annonce une pause sur les nouveautés. Place à la stabilisation.

Un autre point qui crispe : les suivis de requête

Pourquoi, après une recherche en mode Deep Research ou Reasoning, le système revient-il à Auto ? Là aussi, la réponse est data-driven.

Pourquoi Auto reprend la main après certaines requêtes ?

  • 15 à 20 % des résultats Deep Research ne sont jamais lus : trop longs.
  • Les follow-ups sont souvent simples.
  • Objectif : répondre vite, sans relancer une recherche lourde.

Mais la critique a été entendue : bientôt, le modèle choisi sera conservé automatiquement entre les requêtes, pour ne pas casser le fil logique d’une réflexion.

GPT-4.5 ? Trop lent.

Un point soulevé par plusieurs utilisateurs : pourquoi ne pas proposer GPT-4.5 ? Réponse limpide.

Pourquoi GPT-4.5 est absent ?

  • Vitesse de génération trop faible : 11 tokens/seconde.
  • À comparer avec :
    • GPT-4o : 110 tokens/sec
    • Sonar (modèle interne) : 1200 tokens/sec

Pas assez rapide pour Perplexity, qui vise une expérience fluide.

Une communauté qui demande plus de visibilité

Sur Reddit, les retours à la suite du message ont été globalement positifs. Les utilisateurs saluent la prise de parole du CEO, mais expriment un besoin fort de transparence :

  • Un changelog accessible.
  • Une vue claire sur les évolutions en cours.
  • Une explication des choix de modèles dans le mode Auto.

Une remarque revient souvent : Perplexity va dans le bon sens… mais il faut que les utilisateurs comprennent pourquoi et comment.

IPO, financement : rien d’urgent

Dernier point abordé : les finances. Certains craignaient que les changements récents soient dictés par des contraintes budgétaires.

Y a-t-il une IPO ou une pression financière derrière tout ça ?

Non. Le CEO affirme que les fonds levés sont toujours là, que le chiffre d’affaires progresse, et qu’aucune IPO n’est prévue avant 2028. Mais il admet que la communication a été trop faible, laissant place aux spéculations.

Une prise de parole qu’on aimerait voir plus souvent

Chez Abondance, on suit de près les évolutions des outils IA liés au search. Et ce genre de message, clair et sans filtre, fait du bien.

C’est appréciable de voir un dirigeant prendre le temps d’expliquer certains choix. Qu’on soit d’accord ou non, ça aide à mieux comprendre la suite.

L’article “Mode Auto, modèles invisibles : que se passe-t-il vraiment chez Perplexity ?” a été publié sur le site Abondance.