
Plusieurs grandes organisations développent des LLM de pointe. On peut les classer selon qu'ils sont ouverts ou propriétaires, ainsi que par leurs usages principaux. Le tableau suivant dresse un panorama des principaux LLM actuels et de leurs caractéristiques :
| Organisation | Modèle / LLM | Type | Modalités Input | Modalités Output | Contexte | Coût API ($/1M tokens in→out) | Utilisation et caractéristiques |
|---|---|---|---|---|---|---|---|
| OpenAI | GPT-5.4, GPT-5.4 mini, GPT-5.4 nano | 🔒 Propriétaire | 128K – 200K | $2.50/$10 $0.25/$2 $0.05/$0.40 |
GPT-5.4 est le modèle phare d'OpenAI (mars 2026), avec des performances de pointe en raisonnement, codage et analyse multimodale. Les variantes mini et nano offrent un excellent rapport performance/coût pour les applications à grande échelle. | ||
| Gemini 3.1 Pro, Gemini 2.5 Flash, Gemma 3 | 🔀 Hybride | 1M | $2/$12 $0.30/$2.50 |
Gemini 3.1 Pro est le modèle de raisonnement phare de Google avec 1M tokens de contexte natif. Gemini 2.5 Flash offre le meilleur rapport performance/coût. Gemma 3 est le modèle open source multilingue sous Apache 2.0. | |||
| Microsoft | GPT-5.4 via Azure | 🔒 Propriétaire | 128K – 200K | idem OpenAI | Microsoft intègre GPT-5.4 dans Copilot et propose l'accès via Azure OpenAI Service et Azure AI Foundry, offrant une infrastructure cloud enterprise pour les modèles OpenAI. | ||
| Anthropic | Claude Opus 4.6, Sonnet 4.6, Haiku 4.5 | 🔒 Propriétaire | 200K | $5/$25 $3/$15 $1/$5 |
Claude Opus 4.6 et Sonnet 4.6 sont les modèles les plus avancés d'Anthropic, excellant en codage agentique, raisonnement et tâches complexes. Haiku 4.5 offre rapidité et efficacité. Disponibles sur l'API, Amazon Bedrock et Google Cloud Vertex AI. | ||
| Meta | LLaMA 4 Maverick (400B), Scout (109B) | 🔓 Open Source | 1M / 10M | Gratuit* | LLaMA 4 utilise l'architecture MoE. Scout offre 10M tokens de contexte sur un seul H100. Maverick (400B) rivalise avec les meilleurs modèles propriétaires. Modèles multimodaux natifs pré-entraînés sur 200 langues. | ||
| DeepSeek | DeepSeek-V3.2 | 🔓 Open Source | 128K | $0.28/$0.42 | DeepSeek-V3.2 est un modèle MoE open source ultra-compétitif, excelle en mathématiques, codage et raisonnement tout en restant l'un des plus économiques du marché. Disponible sous licence MIT. | ||
| Alibaba | Qwen3.5-397B, Qwen3.5-9B | 🔓 Open Source | 128K | ~$0.30/$1.50 | Qwen3.5 est la dernière génération de modèles open source d'Alibaba, avec des capacités multimodales avancées et un excellent rapport performance/coût. Disponible sous Apache 2.0. | ||
| Mistral AI | Mistral Large 3, Small 4, Magistral | 🔀 Hybride | 128K | $2/$6 $0.10/$0.50 |
Mistral Large 3 est le modèle phare pour les tâches enterprise. Small 4 offre des performances multimodales optimisées à faible coût. Magistral excelle en raisonnement multilingue transparent. Small open source, Large propriétaire. | ||
| xAI | Grok-4.20 Beta | 🔒 Propriétaire | 2M | $3/$15 | Grok-4.20 Beta offre 2M tokens de contexte et des performances de pointe en raisonnement et codage. Intégration native avec la plateforme X et recherche temps réel. Disponible via l'API xAI. | ||
| Moonshot AI | Kimi K2.5 | 🔒 Propriétaire | 256K – 1M | $0.45/$2.20 | Kimi K2.5 de Moonshot AI se distingue par son très long contexte et ses capacités multimodales avancées. Populaire en Chine, il offre un excellent rapport qualité/prix pour les tâches de compréhension de documents longs. | ||
| Zhipu AI | GLM-5 | 🔓 Open Source | 1M | $0.72/$2.30 | GLM-5 de Zhipu AI est un modèle open source chinois avec 1M tokens de contexte, offrant des performances compétitives en raisonnement et génération de code, particulièrement adapté aux applications en chinois et anglais. | ||
| MiniMax | MiniMax M2.5 | 🔓 Open Source | 200K | ~$0.30/$1.50 | MiniMax M2.5 est un modèle open source performant, spécialisé dans la génération de contenu et les interactions conversationnelles de qualité. Particulièrement compétitif sur les tâches créatives. |
* Gratuit = modèle open source à héberger soi-même (self-hosted). Des coûts d'infrastructure s'appliquent.
Panorama mars 2026 : L'écosystème LLM poursuit son évolution rapide. GPT-5.4, Claude Opus 4.6, Gemini 3.1 Pro et Grok-4.20 repoussent la frontière des performances en raisonnement et codage. La montée des modèles chinois est marquante : Kimi K2.5 (Moonshot AI), GLM-5 (Zhipu AI), MiniMax M2.5 et Qwen3.5 (Alibaba) proposent des alternatives compétitives à des prix agressifs. Les prix API ont chuté d'environ 80% par rapport à 2025, rendant l'IA générative accessible à tous les budgets. Les contextes massifs se démocratisent (10M pour Scout, 2M pour Grok-4.20), et les architectures MoE (Mixture of Experts) sont désormais généralisées, permettant des modèles ultra-performants mais économiques en ressources. Les badges colorés ci-dessus distinguent les modèles : 🔒 Propriétaires (API payante), 🔓 Open Source (utilisation libre) et 🔀 Hybrides (mix propriétaire/open source).
Il existe plusieurs techniques et bonnes pratiques pour formuler des prompts efficaces et obtenir de meilleurs résultats des LLM. En voici quelques-unes :
Cette méthode consiste à structurer le prompt en quatre parties pour guider au mieux le modèle :
En appliquant C-A-F-É, on obtient des prompts plus complets. Par exemple : « Tu es un expert en histoire (contexte). Donne-moi les causes principales de la Révolution française (action) en utilisant un langage simple et en les numérotant (format). »
Les LLM comprennent généralement le format Markdown et peuvent produire des réponses formatées. Vous pouvez donc demander une mise en forme pour améliorer la lisibilité des réponses :
# Titre : pour que le modèle organise la réponse avec des titres de sections.- (liste à puces) ou 1. (liste numérotée) : pour présenter des éléments sous forme de liste.**Texte en gras** : pour mettre en avant des notions importantes dans la réponse.`Code` ou ```bloc de code``` : pour que le modèle formate une sortie de code ou un exemple de texte de manière distincte.En indiquant ces préférences de format dans le prompt (par ex. « Réponds en Markdown en utilisant des listes à puces »), on obtient souvent des réponses mieux structurées.
Le multishot prompting consiste à fournir plusieurs exemples de question-réponse dans le prompt pour montrer au modèle exactement le type de réponse attendu, avant de poser la question finale. Par exemple, pour apprendre au modèle à formater une réponse d'une certaine manière, on peut donner deux exemples illustratifs. Comparé au zero-shot (aucun exemple) ou au one-shot (un seul exemple), le multishot (quelques exemples) aide le modèle à saisir le contexte par analogie. Attention toutefois : trop d'exemples peuvent allonger inutilement le prompt (et coûter des tokens).
La technique de la chaîne de pensée encourage le modèle à dérouler un raisonnement étape par étape avant de donner sa réponse finale. On peut l'exploiter de deux façons. D'une part, en tant qu'utilisateur, vous pouvez inciter le LLM à « réfléchir à voix haute » en ajoutant dans le prompt : « Explique ton raisonnement avant de répondre » ou « Raisonne étape par étape ». Le modèle fournira alors ses étapes de réflexion, ce qui peut rendre la réponse plus fiable pour les problèmes complexes (maths, logique…). D'autre part, en interne, certains frameworks utilisent CoT automatiquement : ils génèrent des étapes cachées de raisonnement que vous ne voyez pas forcément, puis produisent la réponse finale. Dans tous les cas, la chaîne de pensée est utile pour les tâches de planification ou de résolution de problème car elle décompose le problème en sous-parties gérables.
Voici quelques exemples concrets de requêtes que l'on peut faire à un LLM, illustrant différentes utilisations :
Demande à l'IA de résumer un contenu long en quelques phrases concises :
Résume le texte suivant en trois phrases claires et concises : [TEXTE À RÉSUMER]
Demande au modèle d'améliorer la rédaction d'un email en corrigeant les fautes et en améliorant le style :
Corrige les fautes d'orthographe et de grammaire de l'email suivant, et propose une formulation plus professionnelle tout en conservant le sens d'origine : [Texte de l'email ici]
Utilise une chaîne de pensée pour planifier un voyage étape par étape :
Tu es un assistant de voyage. Aide-moi à planifier un itinéraire de voyage de 7 jours en Italie, en décrivant ton raisonnement étape par étape (chaque étape de pensée) puis en présentant l'itinéraire final jour par jour.
Demande à l'IA de faire une synthèse des dernières nouvelles sur un sujet donné :
Agis comme un assistant de veille. Fais un résumé des trois actualités les plus marquantes de la semaine dans le domaine de la technologie, avec des puces pour chaque domaine (IA, mobile, cybersécurité…).
Demande au LLM d'analyser et de perfectionner un prompt peu efficace :
Voici un prompt qui ne donne pas de bons résultats : "[Mon prompt actuel]". Analyse ses faiblesses et propose-moi une version améliorée de ce prompt, en expliquant en quoi tes modifications peuvent améliorer la réponse de l'IA.
Exemple de prompt pour générer une image dans un style artistique particulier :
Une illustration numérique d'un chat jouant avec une pelote de laine, dans le style d'une peinture impressionniste de Claude Monet, couleurs pastel et lumière douce.
Demande au LLM de créér un prompt :
Tu es un expert en rédaction de prompt. Tu dialogues avec des élèves de niveau B1 en classe de FLE. Ton objectif est de m’aider à créer le meilleur prompt possible pour mes besoins. Ce prompt sera utilisé par ChatGPT pour produire le résultat final. Tu devras suivre les étapes suivantes. Dans ta première réponse, tu dois me demander quel est le sujet du prompt. Je fournirai ma réponse, mais nous devrons l’améliorer par le biais d’itérations continues en passant par les étapes suivantes. Sur la base de mon prompt, tu produiras deux réponses. 1) Prompt révisé (où tu fourniras le prompt réécrit, il doit être clair, concis et facile à comprendre), 2) Questions (pose quelques questions pertinentes pour avoir des informations supplémentaires pour améliorer le prompt). Nous poursuivrons ce processus itératif et je te fournirai des informations supplémentaires. Tu utiliseras des phrases simples de niveau B1. Tu mettras à jour le prompt dans la section “Prompt révisé” jusqu’à ce que je dise que nous avons terminé.
Chaque exemple ci-dessus montre comment formuler la demande pour orienter au mieux le modèle. N'hésitez pas à expérimenter en modifiant les prompts et à observer comment l'IA s'adapte aux nouvelles instructions.
Voici les liens directs vers les principales plateformes d'IA conversationnelle, avec leurs applications web et mobiles :
| Modèle / Assistant | Organisation | Application Web | Application iOS | Application Android |
|---|---|---|---|---|
| ChatGPT (GPT-5.4) | OpenAI | chat.openai.com | App Store | Google Play |
| Le Chat | Mistral AI | chat.mistral.ai | App Store | Google Play |
| Gemini (ex-Bard) | gemini.google.com | App Store | Google Play | |
| Claude | Anthropic | claude.ai | App Store | Google Play |
| Grok | xAI | x.ai/grok | — | — |
| DeepSeek | DeepSeek | deepseek.com | App Store | Google Play |
| Microsoft Copilot | Microsoft | copilot.microsoft.com | App Store | Google Play |
| Meta AI | Meta | meta.ai | Intégré dans Facebook, Instagram, WhatsApp | Intégré dans Facebook, Instagram, WhatsApp |
| Perplexity AI | Perplexity | perplexity.ai | App Store | Google Play |
| NotebookLM | notebooklm.google | App Store | Google Play | |
| Qwen | Alibaba | qwen.chat | — | — |
| Kimi | Moonshot AI | kimi.ai | App Store | Google Play |
| ChatGLM | Zhipu AI | chatglm.cn | — | — |
| MiniMax | MiniMax | minimax.io | — | — |
Ces plateformes offrent un accès direct aux modèles d'IA les plus avancés. La plupart proposent des versions gratuites avec des limitations, ainsi que des abonnements premium pour un usage intensif et l'accès aux dernières fonctionnalités.
Solutions pour exécuter des modèles d'IA en local, sur votre propre machine :
| Nom | Description | Lien |
|---|---|---|
| Ollama | Framework open-source pour exécuter facilement des modèles de langage (LLM) localement. Interface en ligne de commande simple pour télécharger, gérer et utiliser des modèles comme Llama, Mistral, Code Llama, etc. | ollama.ai |
| LM Studio | Interface graphique intuitive pour découvrir, télécharger et exécuter des modèles de langage localement. Compatible avec de nombreux formats de modèles et offre une API locale compatible OpenAI. | lmstudio.ai |
| AnythingLLM | Plateforme tout-en-un pour créer et déployer des assistants IA privés. Permet l'intégration de documents, la gestion de bases de connaissances et l'exécution de modèles en local ou via API. | anythingllm.com |
Voici quelques liens utiles :
| Nom | Description | Lien |
|---|---|---|
| Metaculus – Sondages IA | Plateforme de prévisions collaboratives sur des questions liées à l'IA, permettant aux utilisateurs de faire des prédictions et de suivre les tendances. | metaculus.com |
| compar:IA – Comparateur d'IA | Outil gouvernemental français permettant de comparer anonymement différents modèles d'IA conversationnelle pour sensibiliser aux enjeux de l'IA générative. | comparia.beta.gouv.fr |
| IA en classe – Réseau Canopé | Ressources et formations pour intégrer l'intelligence artificielle dans l'enseignement, proposées par le Réseau Canopé. | reseau-canope.fr |
| Vellum AI – Classement LLM | Tableau de bord présentant les performances des modèles de langage de pointe sur divers benchmarks publics. | vellum.ai |
| Leaderboard LLM FR – Hugging Face | Classement des modèles de langage adaptés à la langue française, évalués sur des jeux de données spécifiques. | huggingface.co |