Quels modèles d'IA AI COMMAND interroge-t-il pour calculer le Score SOM ?
AI COMMAND interroge 6 modèles actifs en production : Gemini 2.5 Flash (Google), GPT-4o (OpenAI), Claude Sonnet 4.6 (Anthropic), Sonar Pro (Perplexity), Mistral Large et DeepSeek Chat. La liste exacte avec versions est mise à jour publiquement à chaque évolution.
À quelle fréquence cette liste est-elle mise à jour ?
Les hiérarchies de modèles LLM évoluent toutes les 2 à 3 semaines. AI COMMAND met à jour cette page à chaque commit qui modifie la stack de mesure. La date de dernière mise à jour est affichée en haut de page.
Pourquoi rendre cette liste publique ?
Un Score SOM n'a de valeur que si l'on sait sur quels modèles il a été calculé. La transparence sur les versions interrogées est une condition d'auditabilité du score, et un point de parité minimum face aux concurrents API-first.
Que signifie le statut « fallback » ?
Un modèle « fallback » est utilisé uniquement si le modèle principal du même fournisseur est indisponible (quota dépassé, version dépréciée, timeout). Il garantit la continuité de l'audit sans biaiser le score, car il provient du même fournisseur.
Pourquoi mesurer Claude Sonnet 4.6 et non Claude Opus 4.7 ?
Sonnet 4.6 est le modèle servi par défaut sur claude.ai pour la majorité des utilisateurs (plan gratuit et plans payants standards). Opus 4.7, plus puissant, est réservé aux utilisateurs avancés (Claude Max, API directe). Le Score SOM mesure ce que voient les utilisateurs finaux, pas l'élite premium. Même logique pour ChatGPT (GPT-4o, pas GPT-5 Advanced) et Gemini (2.5 Flash, pas Gemini Pro Ultra).
Comment AI COMMAND décide-t-il d'ajouter ou de retirer un modèle ?
Trois critères : (1) le modèle est servi à un volume significatif d'utilisateurs finaux dans son produit grand public, (2) une API stable est disponible avec un coût compatible avec le pricing d'AI COMMAND, (3) son ajout n'introduit pas de discontinuité dans la comparabilité historique des scores. Une nouvelle version d'un modèle existant est intégrée si elle remplace effectivement la précédente côté grand public.
Pourquoi AI COMMAND surveille-t-il les LLM verticaux ?
Depuis le lancement de GPT-Rosalind par OpenAI le 17 avril 2026 (modèle vertical sciences de la vie), la spécialisation sectorielle des LLM s'accélère. Une vague de modèles verticaux est anticipée sur 12 à 24 mois (juridique, finance, immobilier, industrie). Pour les marques mesurées par AI COMMAND, la visibilité sur un LLM vertical de leur secteur peut devenir aussi critique que celle sur ChatGPT ou Gemini. Cette page liste publiquement les modèles verticaux suivis pour anticiper leur intégration.
Quand un LLM vertical sera-t-il intégré dans le calcul du Score SOM ?
Un modèle vertical passe de la liste de surveillance au registre actif quand il remplit les trois mêmes critères que les modèles généralistes : (1) volume d'utilisateurs réel dans son produit, (2) API stable et coût compatible, (3) absence de discontinuité dans la comparabilité des scores. Pour un secteur donné, un modèle vertical adopté à grande échelle sera ajouté aux modèles interrogés sur ce secteur uniquement, sans impacter les autres verticaux du Score SOM.