Transparence stack de mesure

Modèles d'IA interrogés par AI COMMAND

Liste publique des LLM interrogés pour calculer le Score SOM des marques. Cette page reflète l'état exact de la stack de mesure et est mise à jour à chaque commit qui la modifie.

Dernière mise à jour : 26/04/20266 modèles actifs, 2 fallbacks
ModèleFournisseurVersion APIStatutAjouté le
Gemini 2.5 FlashGooglegemini-2.5-flashActif26/04/2026
Gemini 1.5 FlashGooglegemini-1.5-flashFallback26/04/2026
Gemini 2.0 Flash LiteGooglegemini-2.0-flash-liteFallback26/04/2026
ChatGPT (GPT-4o)OpenAIgpt-4oActif26/04/2026
Claude Sonnet 4.6Anthropicclaude-sonnet-4-6Actif26/04/2026
Perplexity Sonar ProPerplexitysonar-proActif26/04/2026
Mistral LargeMistral AImistral-large-latestActif26/04/2026
DeepSeek ChatDeepSeekdeepseek-chatActif26/04/2026

Les modèles « fallback » sont utilisés en cas d'indisponibilité du modèle principal du même fournisseur (quota dépassé, version dépréciée, timeout). Ils proviennent du même fournisseur et ne biaisent pas le score.

Veille spécialisation verticale

LLM verticaux à surveiller

Modèles de langage spécialisés sur un secteur ou un domaine, suivis par AI COMMAND mais non encore intégrés au calcul du Score SOM. Cette liste anticipe la vague de spécialisation verticale ouverte par GPT-Rosalind en avril 2026.

GPT-Rosalind

OpenAI · Sciences de la vie

Sous surveillance

Premier LLM vertical d'un fournisseur majeur. Adopté ou testé par Amgen, Moderna, UCSF School of Pharmacy, Allen Institute, Thermo Fisher, NVIDIA et Los Alamos National Lab. Pertinent pour les marques santé et pharma mesurées par AI COMMAND.

Annoncé le 17/04/2026Source officielle

Un modèle vertical passe de cette liste au registre actif uniquement quand il atteint un volume d'utilisateurs significatif et qu'une API stable est disponible. Voir la FAQ ci-dessous pour les critères d'intégration.

Questions fréquentes

Quels modèles d'IA AI COMMAND interroge-t-il pour calculer le Score SOM ?

AI COMMAND interroge 6 modèles actifs en production : Gemini 2.5 Flash (Google), GPT-4o (OpenAI), Claude Sonnet 4.6 (Anthropic), Sonar Pro (Perplexity), Mistral Large et DeepSeek Chat. La liste exacte avec versions est mise à jour publiquement à chaque évolution.

À quelle fréquence cette liste est-elle mise à jour ?

Les hiérarchies de modèles LLM évoluent toutes les 2 à 3 semaines. AI COMMAND met à jour cette page à chaque commit qui modifie la stack de mesure. La date de dernière mise à jour est affichée en haut de page.

Pourquoi rendre cette liste publique ?

Un Score SOM n'a de valeur que si l'on sait sur quels modèles il a été calculé. La transparence sur les versions interrogées est une condition d'auditabilité du score, et un point de parité minimum face aux concurrents API-first.

Que signifie le statut « fallback » ?

Un modèle « fallback » est utilisé uniquement si le modèle principal du même fournisseur est indisponible (quota dépassé, version dépréciée, timeout). Il garantit la continuité de l'audit sans biaiser le score, car il provient du même fournisseur.

Pourquoi mesurer Claude Sonnet 4.6 et non Claude Opus 4.7 ?

Sonnet 4.6 est le modèle servi par défaut sur claude.ai pour la majorité des utilisateurs (plan gratuit et plans payants standards). Opus 4.7, plus puissant, est réservé aux utilisateurs avancés (Claude Max, API directe). Le Score SOM mesure ce que voient les utilisateurs finaux, pas l'élite premium. Même logique pour ChatGPT (GPT-4o, pas GPT-5 Advanced) et Gemini (2.5 Flash, pas Gemini Pro Ultra).

Comment AI COMMAND décide-t-il d'ajouter ou de retirer un modèle ?

Trois critères : (1) le modèle est servi à un volume significatif d'utilisateurs finaux dans son produit grand public, (2) une API stable est disponible avec un coût compatible avec le pricing d'AI COMMAND, (3) son ajout n'introduit pas de discontinuité dans la comparabilité historique des scores. Une nouvelle version d'un modèle existant est intégrée si elle remplace effectivement la précédente côté grand public.

Pourquoi AI COMMAND surveille-t-il les LLM verticaux ?

Depuis le lancement de GPT-Rosalind par OpenAI le 17 avril 2026 (modèle vertical sciences de la vie), la spécialisation sectorielle des LLM s'accélère. Une vague de modèles verticaux est anticipée sur 12 à 24 mois (juridique, finance, immobilier, industrie). Pour les marques mesurées par AI COMMAND, la visibilité sur un LLM vertical de leur secteur peut devenir aussi critique que celle sur ChatGPT ou Gemini. Cette page liste publiquement les modèles verticaux suivis pour anticiper leur intégration.

Quand un LLM vertical sera-t-il intégré dans le calcul du Score SOM ?

Un modèle vertical passe de la liste de surveillance au registre actif quand il remplit les trois mêmes critères que les modèles généralistes : (1) volume d'utilisateurs réel dans son produit, (2) API stable et coût compatible, (3) absence de discontinuité dans la comparabilité des scores. Pour un secteur donné, un modèle vertical adopté à grande échelle sera ajouté aux modèles interrogés sur ce secteur uniquement, sans impacter les autres verticaux du Score SOM.

Mesurez votre Score SOM sur tous ces modèles

Lancez un audit gratuit et obtenez votre score de visibilité IA, décomposé modèle par modèle.