Salut Les Mordus du digital et de la tech ! 💻 T'imagines taper une question à une IA et recevoir la réponse complète avant même d'avoir fini de lire ta propre question ? C'est un peu l'effet Mercury 2. Sorti officiellement le 24 février 2026 par la startup Inception Labs, ce modèle vient de balancer une grenade dans la guerre des IA. Et pour une fois, c'est pas OpenAI, Google ou Anthropic qui tire le premier. 😏
C'est quoi le problème avec GPT, Claude et Gemini ? 🤔
Pour comprendre Mercury 2, faut d'abord piger ce qui cloche avec tout le monde actuellement.
Tous les grands LLM en production aujourd'hui — GPT, Claude, Gemini — reposent sur le même mécanisme de base : la génération autorégressive. Ils produisent du texte séquentiellement. Un. Token. À. La. Fois.
C'est comme si tu avais le meilleur écrivain du monde... mais qu'il tapait avec un seul doigt. Résultat : plus le raisonnement est complexe, plus c'est lent. Et les labos ont beau investir des milliards dans des puces spécialisées pour gratter quelques millisecondes, ils se heurtent tous au même plafond structurel.
La rupture Mercury 2 : la diffusion appliquée au texte ✨
Inception Labs a pris une voie radicalement différente. Mercury 2 remplace l'architecture transformer classique par une approche basée sur la diffusion pour générer du texte. Au lieu de produire les tokens un par un, il affine plusieurs blocs de texte simultanément — comme un éditeur qui retravaille un brouillon entier d'un coup plutôt que de se concentrer mot par mot.
En gros ? L'IA commence par une ébauche globale de sa réponse, puis la raffine en quelques passes parallèles. Comme une image qui se révèle progressivement dans un bain de développement. Si tu as déjà utilisé Midjourney ou DALL-E, tu connais ce principe — sauf que là, c'est appliqué au langage. 🤯
Les chiffres qui font mal 📊
On sait que chez Les Mordus CDG on évite les superlatifs marketing — mais là, les benchmarks parlent d'eux-mêmes :
Mercury 2 atteint 1 009 tokens par seconde sur GPU Nvidia Blackwell, avec une latence bout-en-bout de seulement 1,7 seconde, contre 14,4 secondes pour Gemini 3 Flash et 23,4 secondes pour Claude Haiku 4.5 avec raisonnement activé.
Côté prix, c'est encore plus agressif. 0,25$ par million de tokens en entrée et 0,75$ en sortie — deux fois moins cher que Gemini 3 Flash en entrée, et quatre fois moins cher que Claude Haiku 4.5.
Qualité comparable, vitesse 5x supérieure, prix divisé par 4. Ça mérite qu'on s'y arrête.
Pour qui ça change vraiment la vie ? 🎯
Mercury 2 n'est pas forcément l'IA qu'on va utiliser pour rédiger un roman ou analyser un film. Son terrain de jeu, c'est la production à grande vitesse. Concrètement :
Les assistants vocaux 🎙️ — les interfaces voix ont les budgets de latence les plus serrés de tout l'écosystème IA. Avec Mercury 2, une réponse de qualité en temps réel devient enfin viable.
Le codage instantané 💻 — tu demandes, tu révises, tu retestes — en boucle rapide. Pour les développeurs qui utilisent des agents IA dans leur IDE, c'est un game-changer concret.
La recherche en temps réel 🔍 — intégrer du raisonnement dans un moteur de recherche sans exploser les temps de réponse ? Mercury 2 rend ça possible.
De Lomé à Montréal, les équipes qui bossent sur des produits IA avec des contraintes de latence vont clairement avoir intérêt à tester ça. Et bonne nouvelle : Mercury 2 est compatible avec l'API OpenAI — donc pas besoin de réécrire tout ton stack existant pour l'intégrer.
Les questions qui restent ouvertes 🤔
Soyons honnêtes, ce n'est pas non plus la fin de tout. Si l'approche par diffusion pour le langage peut tenir sur le long terme reste une question ouverte. Même Google DeepMind expérimentait avec Gemini Diffusion en mai 2025, avant de se taire sur le sujet depuis.
Mercury 2 excelle dans les tâches rapides et structurées. Pour les raisonnements très profonds et les longues chaînes de pensée complexes, les modèles autorégressifs classiques gardent encore une longueur d'avance.
Le modèle prend en charge une fenêtre contextuelle de 128 000 tokens, les sorties texte, les outils (tool use) et le format JSON. Solide pour de la production — moins adapté pour de la créativité pure ou des analyses ultra-profondes.
Le mot des Mordus 🎬
Mercury 2, c'est clairement le modèle IA de la semaine sur le Blog Les Mordus Fr. Pas parce que c'est le plus intelligent du marché — mais parce que c'est une rupture architecturale réelle dans un secteur où tout le monde copie les mêmes fondations depuis des années.
Fondée par des chercheurs de Stanford, UCLA et Cornell à l'origine des travaux fondamentaux sur la diffusion, Inception Labs prouve qu'il y a encore de la place pour challenger les géants autrement qu'en leur copiant l'architecture.
La vraie question : est-ce que OpenAI, Google et Anthropic vont accélérer sur leur propre version de la diffusion pour le texte ? On parie que oui — et que ça va aller vite. 👀
T'as testé Mercury 2 ? Ou t'as une app qui pourrait bénéficier de cette vitesse ? Balance en comm' ! 💬