L'univers de l'intelligence artificielle est en proie à un paradoxe fascinant : alors que les grands modèles de langage (LLM) comme ChatGPT, Gemini et Claude n'ont jamais été aussi puissants, leur fiabilité semble s'éroder de manière préoccupante. Une étude récente met en lumière une tendance inquiétante qui pourrait redéfinir notre rapport à ces technologies. Plongeons au cœur de l'actualité pour comprendre les enjeux de cette nouvelle ère de l'IA.
Le Grand décalage : Puissance vs Fiabilité
Le principal sujet qui agite la sphère IA cette semaine provient d'une étude rigoureuse menée par NewsGuard, une organisation spécialisée dans l'analyse de la désinformation. Les résultats, repris par des publications comme Le Figaro et le Blog du Modérateur [1, 2], sont sans appel : le taux de propagation de fausses informations par les chatbots a presque doublé en un an, passant de 18 % en 2024 à 35 % en août 2025.
Cette dégradation de la fiabilité n'affecte pas tous les acteurs de la même manière. Le classement révèle des écarts de performance significatifs, dessinant une nouvelle carte de la confiance dans l'écosystème des LLMs.
Modèle (Développeur) | Taux de propagation de fausses informations (Août 2025) |
---|---|
Claude (Anthropic) | 10 % |
Gemini (Google) | 16,7 % |
Mistral (Mistral AI) | 36,7 % |
ChatGPT (OpenAI) | 40 % |
Perplexity (Perplexity AI) | 46,7 % |
Pi (Inflection AI) | 56,7 % |
« Plutôt que de ne pas répondre, les chatbots ont commencé à extraire des informations de sources peu fiables, sans faire la distinction entre des médias établis depuis plus d’un siècle et des campagnes de propagande russes brandissant des noms similaires. » - NewsGuard [1]
La cause principale de cette érosion de la confiance est l'intégration de la recherche web en temps réel. Si cette fonctionnalité permet aux IA de fournir des réponses sur des sujets d'actualité, elle les expose également à un web pollué par des fermes de contenu et des campagnes de désinformation sophistiquées, qu'ils peinent à filtrer.
Nouvelles dynamiques de marché : Claude gagne du terrain
Pendant que certains modèles luttent avec la fiabilité, d'autres capitalisent sur leurs performances pour gagner des parts de marché. C'est le cas de Claude, développé par Anthropic, qui non seulement affiche le meilleur score de fiabilité, mais vient également de dépasser son concurrent Perplexity en termes de trafic mensuel pour la première fois en août 2025 [3].
Avec 148,5 millions de visites et une croissance de près de 19 % en un mois, Claude confirme la pertinence de son approche axée sur une IA dite "constitutionnelle", conçue pour être plus sûre et plus éthique. Cette performance, couplée à une valorisation stratosphérique de 183 milliards de dollars, positionne Anthropic comme un concurrent de plus en plus sérieux face à OpenAI et Google.
Les innovations se poursuivent
Malgré ces défis, l'innovation ne ralentit pas. Microsoft continue d'enrichir son écosystème avec des mises à jour majeures pour Copilot. L'assistant est désormais profondément intégré à OneDrive et Windows, et se dote de nouvelles fonctionnalités dans Word et Excel pour automatiser les corrections, suggérer des réécritures et s'adapter dynamiquement aux changements dans les feuilles de calcul. Ces améliorations visent à ancrer l'IA dans des applications pratiques et à en faire un véritable partenaire de productivité au quotidien.
Conclusion : Vers une utilisation plus critique de l'IA
L'actualité de septembre 2025 nous enseigne une leçon cruciale : l'ère de la confiance aveugle en l'intelligence artificielle est révolue. La puissance brute d'un modèle ne garantit plus sa pertinence. La fiabilité, la transparence des sources et la capacité à discerner le vrai du faux deviennent les véritables critères de différenciation.
Pour les utilisateurs, cela implique de développer un regard plus critique, de vérifier les informations et de comprendre les limites de chaque outil. Pour les développeurs, le défi est immense : il ne s'agit plus seulement de construire des modèles plus intelligents, mais de bâtir des systèmes fondamentalement plus fiables et sécurisés.
Références
[1] Caillebotte, É. (2025, 8 septembre). Désinformation, erreurs : les IA de moins en moins fiables ? Blog du Modérateur. Consulté le 14 septembre 2025, à l'adresse https://www.blogdumoderateur.com/desinformation-erreurs-ia-moins-fiables/
[2] Vaissermann, P. (2025, 8 septembre). ChatGPT, Grok, Perplexity... Quelles sont les IA génératives qui propagent le plus de «fake news» ? Le Figaro. Consulté le 14 septembre 2025, à l'adresse https://www.lefigaro.fr/secteur/high-tech/chatgpt-grok-perplexity-quelles-sont-les-ia-generatives-qui-propagent-le-plus-de-fake-news-20250908
[3] Olivieri, F. (2025, 10 septembre). Claude dépasse Perplexity pour la première fois en trafic mensuel. Siècle Digital. Consulté le 14 septembre 2025, à l'adresse https://siecledigital.fr/2025/09/10/claude-depasse-perplexity-pour-la-premiere-fois-en-trafic-mensuel/