Logo

Explorer l'IA et les LLM : Introduction, Utilisation et Potentiel

Définitions clés

  • Agent : Un agent désigne une entité logicielle autonome qui utilise un ou plusieurs LLM pour interagir de manière intelligente avec son environnement ou résoudre des problèmes. Par exemple, un agent peut enchaîner des appels à un LLM, garder un état conversationnel, utiliser des outils externes (comme effectuer des recherches, appeler des API) et prendre des décisions pour atteindre un objectif fixé.
  • Application : Une application est l'utilisation concrète d'un modèle pour réaliser une tâche précise (chatbot, résumé automatique, traduction, etc.). C'est souvent une interface ou un programme qui intègre un ou plusieurs modèles d'IA pour fournir un service aux utilisateurs.
  • Fine-tuning : Le fine-tuning (affinage du modèle) est l'entraînement complémentaire d'un modèle pré-entraîné sur un jeu de données plus restreint et spécialisé. Il permet d'adapter le LLM à un cas d'utilisation particulier ou à un domaine spécifique. Par exemple, on peut affiner un modèle généraliste sur des données médicales pour le spécialiser dans le domaine de la santé. Le fine-tuning ajuste légèrement les paramètres du modèle pour améliorer ses performances dans la tâche visée.
  • Modèle : Un modèle (notamment un modèle de langage ou LLM pour Large Language Model) est un programme d'IA entraîné sur de vastes quantités de données textuelles. Il peut générer du texte ou des réponses cohérentes en fonction d'une entrée. Les LLM sont des modèles de très grande taille (des milliards de paramètres) capables de comprendre et produire du langage naturel.
  • Outils : Dans le contexte des LLM, un outil est une ressource externe que le modèle peut utiliser via un agent ou une plateforme dédiée. Il peut s'agir d'une base de connaissances, d'un moteur de recherche, d'une calculatrice, d'une API tierce, etc. L'usage d'outils permet à un LLM d'étendre ses capacités au-delà de ses connaissances internes (par exemple, accéder à des informations à jour ou effectuer des calculs complexes).
  • Prompt : Un prompt est le texte ou l'instruction fournie en entrée au modèle pour qu'il génère une réponse. C'est la consigne que l'on donne à l'IA. Un prompt bien rédigé oriente le modèle vers la tâche attendue.
  • Propriétaire vs Open source : Un modèle propriétaire est développé et détenu par une entreprise; son code et ses données d'entraînement ne sont pas publiés. L'accès se fait généralement via une API payante (ex : GPT-4 d'OpenAI). Un modèle open source est publié librement, souvent avec son architecture et ses paramètres disponibles; il peut être utilisé et modifié par la communauté (ex : Mistral 7B, LLaMA 2 de Meta).
  • RAG (Retrieval-Augmented Generation) : La génération augmentée par récupération consiste à intégrer une étape de recherche d'information (récupération de documents, FAQ, base de données…) dans le processus de génération. Concrètement, avant de répondre à une question, le système va chercher des données pertinentes (par exemple, les paragraphes d'un article) et les inclure dans le prompt. Cela permet au LLM de s'appuyer sur des faits à jour ou spécifiques et de réduire les « hallucinations » (inventions de réponses incorrectes).
  • Température : La température est un paramètre de génération qui contrôle le niveau de créativité ou d'aléatoire des réponses du modèle. Une température élevée (par exemple 0.8 ou 1) donne des réponses plus variées et originales mais potentiellement moins cohérentes, tandis qu'une température faible (proche de 0) donne des réponses plus déterministes et répétables.
  • Token : Un token est une unité de texte manipulée par le modèle. Il s'agit généralement d'un morceau de mot, d'un mot complet ou d'un symbole. Les modèles traitent le texte en le découpant en tokens. Par exemple, la phrase « Bonjour » peut être découpée en tokens comme « Bon », « jour ». La longueur des entrées et sorties d'un LLM est souvent mesurée en nombre de tokens.
  • Workflow : Un workflow est un enchaînement structuré d'étapes pour accomplir une tâche avec des IA. Par exemple, un workflow de question/réponse peut inclure : 1) extraire la question de l'utilisateur, 2) si besoin utiliser RAG pour trouver de l'information pertinente, 3) formuler un prompt avec contexte, 4) interroger le LLM, 5) restituer la réponse formatée. Le workflow décrit comment les agents, les modèles et les outils collaborent pour fournir le résultat final.

Classement des principaux LLM du marché

Plusieurs grandes organisations développent des LLM de pointe. On peut les classer selon qu'ils sont ouverts ou propriétaires, ainsi que par leurs usages principaux. Le tableau suivant dresse un panorama des principaux LLM actuels et de leurs caractéristiques :

Organisation Modèle / LLM Type Modalités Input Modalités Output Contexte Coût API ($/1M tokens in→out) Utilisation et caractéristiques
OpenAI GPT-5.4, GPT-5.4 mini, GPT-5.4 nano 🔒 Propriétaire 128K – 200K $2.50/$10
$0.25/$2
$0.05/$0.40
GPT-5.4 est le modèle phare d'OpenAI (mars 2026), avec des performances de pointe en raisonnement, codage et analyse multimodale. Les variantes mini et nano offrent un excellent rapport performance/coût pour les applications à grande échelle.
Google Gemini 3.1 Pro, Gemini 2.5 Flash, Gemma 3 🔀 Hybride 1M $2/$12
$0.30/$2.50
Gemini 3.1 Pro est le modèle de raisonnement phare de Google avec 1M tokens de contexte natif. Gemini 2.5 Flash offre le meilleur rapport performance/coût. Gemma 3 est le modèle open source multilingue sous Apache 2.0.
Microsoft GPT-5.4 via Azure 🔒 Propriétaire 128K – 200K idem OpenAI Microsoft intègre GPT-5.4 dans Copilot et propose l'accès via Azure OpenAI Service et Azure AI Foundry, offrant une infrastructure cloud enterprise pour les modèles OpenAI.
Anthropic Claude Opus 4.6, Sonnet 4.6, Haiku 4.5 🔒 Propriétaire 200K $5/$25
$3/$15
$1/$5
Claude Opus 4.6 et Sonnet 4.6 sont les modèles les plus avancés d'Anthropic, excellant en codage agentique, raisonnement et tâches complexes. Haiku 4.5 offre rapidité et efficacité. Disponibles sur l'API, Amazon Bedrock et Google Cloud Vertex AI.
Meta LLaMA 4 Maverick (400B), Scout (109B) 🔓 Open Source 1M / 10M Gratuit* LLaMA 4 utilise l'architecture MoE. Scout offre 10M tokens de contexte sur un seul H100. Maverick (400B) rivalise avec les meilleurs modèles propriétaires. Modèles multimodaux natifs pré-entraînés sur 200 langues.
DeepSeek DeepSeek-V3.2 🔓 Open Source 128K $0.28/$0.42 DeepSeek-V3.2 est un modèle MoE open source ultra-compétitif, excelle en mathématiques, codage et raisonnement tout en restant l'un des plus économiques du marché. Disponible sous licence MIT.
Alibaba Qwen3.5-397B, Qwen3.5-9B 🔓 Open Source 128K ~$0.30/$1.50 Qwen3.5 est la dernière génération de modèles open source d'Alibaba, avec des capacités multimodales avancées et un excellent rapport performance/coût. Disponible sous Apache 2.0.
Mistral AI Mistral Large 3, Small 4, Magistral 🔀 Hybride 128K $2/$6
$0.10/$0.50
Mistral Large 3 est le modèle phare pour les tâches enterprise. Small 4 offre des performances multimodales optimisées à faible coût. Magistral excelle en raisonnement multilingue transparent. Small open source, Large propriétaire.
xAI Grok-4.20 Beta 🔒 Propriétaire 2M $3/$15 Grok-4.20 Beta offre 2M tokens de contexte et des performances de pointe en raisonnement et codage. Intégration native avec la plateforme X et recherche temps réel. Disponible via l'API xAI.
Moonshot AI Kimi K2.5 🔒 Propriétaire 256K – 1M $0.45/$2.20 Kimi K2.5 de Moonshot AI se distingue par son très long contexte et ses capacités multimodales avancées. Populaire en Chine, il offre un excellent rapport qualité/prix pour les tâches de compréhension de documents longs.
Zhipu AI GLM-5 🔓 Open Source 1M $0.72/$2.30 GLM-5 de Zhipu AI est un modèle open source chinois avec 1M tokens de contexte, offrant des performances compétitives en raisonnement et génération de code, particulièrement adapté aux applications en chinois et anglais.
MiniMax MiniMax M2.5 🔓 Open Source 200K ~$0.30/$1.50 MiniMax M2.5 est un modèle open source performant, spécialisé dans la génération de contenu et les interactions conversationnelles de qualité. Particulièrement compétitif sur les tâches créatives.
Texte Images Vidéo Audio Code Documents

* Gratuit = modèle open source à héberger soi-même (self-hosted). Des coûts d'infrastructure s'appliquent.

Panorama mars 2026 : L'écosystème LLM poursuit son évolution rapide. GPT-5.4, Claude Opus 4.6, Gemini 3.1 Pro et Grok-4.20 repoussent la frontière des performances en raisonnement et codage. La montée des modèles chinois est marquante : Kimi K2.5 (Moonshot AI), GLM-5 (Zhipu AI), MiniMax M2.5 et Qwen3.5 (Alibaba) proposent des alternatives compétitives à des prix agressifs. Les prix API ont chuté d'environ 80% par rapport à 2025, rendant l'IA générative accessible à tous les budgets. Les contextes massifs se démocratisent (10M pour Scout, 2M pour Grok-4.20), et les architectures MoE (Mixture of Experts) sont désormais généralisées, permettant des modèles ultra-performants mais économiques en ressources. Les badges colorés ci-dessus distinguent les modèles : 🔒 Propriétaires (API payante), 🔓 Open Source (utilisation libre) et 🔀 Hybrides (mix propriétaire/open source).

Méthodes de prompting

Il existe plusieurs techniques et bonnes pratiques pour formuler des prompts efficaces et obtenir de meilleurs résultats des LLM. En voici quelques-unes :

Méthode « Contexte – Action – Format – Échanges »

Cette méthode consiste à structurer le prompt en quatre parties pour guider au mieux le modèle :

  • Contexte : Présentez la situation ou les informations de base. Par exemple, indiquez au modèle qui il est ou quel rôle il joue (« Tu es un assistant qui aide à … »), et fournissez les données d'entrée pertinentes (texte à résumer, données chiffrées, etc.). Un bon contexte permet au LLM de comprendre le cadre de la demande.
  • Action : Indiquez clairement ce que vous attendez du modèle, la tâche à effectuer. Par exemple : « Résume le texte », « Traduis en anglais », « Donne-moi la liste des étapes… ». L'action doit être un verbe d'instruction pour lever toute ambiguïté sur la tâche.
  • Format : Spécifiez le format ou le style de réponse souhaité. Par exemple : « en 3 points clés », « sous forme de tableau », « réponds en utilisant du Markdown avec des titres et des listes ». Cela aide le modèle à présenter la réponse de manière organisée et conforme à vos besoins.
  • Échanges : Si nécessaire, incluez des exemples d'échange ou de résultat attendu. Par exemple, montrez un question-réponse type (« Q: … A: … ») pour illustrer ce que vous attendez, ou utilisez le few-shot prompting en fournissant 1 ou 2 exemples complets de question et réponse avant de poser la nouvelle question. Ces échanges servent de guide et permettent au modèle de mieux cerner le ton ou le niveau de détail attendu.

En appliquant C-A-F-É, on obtient des prompts plus complets. Par exemple : « Tu es un expert en histoire (contexte). Donne-moi les causes principales de la Révolution française (action) en utilisant un langage simple et en les numérotant (format). »

Balises Markdown utiles

Les LLM comprennent généralement le format Markdown et peuvent produire des réponses formatées. Vous pouvez donc demander une mise en forme pour améliorer la lisibilité des réponses :

  • # Titre : pour que le modèle organise la réponse avec des titres de sections.
  • - (liste à puces) ou 1. (liste numérotée) : pour présenter des éléments sous forme de liste.
  • **Texte en gras** : pour mettre en avant des notions importantes dans la réponse.
  • `Code` ou ```bloc de code``` : pour que le modèle formate une sortie de code ou un exemple de texte de manière distincte.

En indiquant ces préférences de format dans le prompt (par ex. « Réponds en Markdown en utilisant des listes à puces »), on obtient souvent des réponses mieux structurées.

Multishot prompting

Le multishot prompting consiste à fournir plusieurs exemples de question-réponse dans le prompt pour montrer au modèle exactement le type de réponse attendu, avant de poser la question finale. Par exemple, pour apprendre au modèle à formater une réponse d'une certaine manière, on peut donner deux exemples illustratifs. Comparé au zero-shot (aucun exemple) ou au one-shot (un seul exemple), le multishot (quelques exemples) aide le modèle à saisir le contexte par analogie. Attention toutefois : trop d'exemples peuvent allonger inutilement le prompt (et coûter des tokens).

Chaîne de pensée (Chain-of-Thought, CoT)

La technique de la chaîne de pensée encourage le modèle à dérouler un raisonnement étape par étape avant de donner sa réponse finale. On peut l'exploiter de deux façons. D'une part, en tant qu'utilisateur, vous pouvez inciter le LLM à « réfléchir à voix haute » en ajoutant dans le prompt : « Explique ton raisonnement avant de répondre » ou « Raisonne étape par étape ». Le modèle fournira alors ses étapes de réflexion, ce qui peut rendre la réponse plus fiable pour les problèmes complexes (maths, logique…). D'autre part, en interne, certains frameworks utilisent CoT automatiquement : ils génèrent des étapes cachées de raisonnement que vous ne voyez pas forcément, puis produisent la réponse finale. Dans tous les cas, la chaîne de pensée est utile pour les tâches de planification ou de résolution de problème car elle décompose le problème en sous-parties gérables.

Autres techniques utiles

  • Définir un rôle (persona) : Commencez le prompt en indiquant au LLM qui il est ou pour qui il doit répondre. Par exemple : « Tu es un professeur de français » ou « Tu réponds comme un expert en droit ». Cela peut influencer positivement le style et le registre de la réponse.
  • Imposer des contraintes explicites : N'hésitez pas à préciser des contraintes de longueur ou de style : « Réponds en moins de 100 mots », « Utilise un ton humoristique », « Fournis la réponse en JSON valide ». Plus le modèle connaît vos attentes précises, plus il peut s'y conformer.
  • Vérification et itération : Après une première réponse du modèle, vous pouvez affiner en demandant des corrections ou des précisions. Par exemple : « Peux-tu détailler le deuxième point ? » ou « Réécris la réponse avec un ton plus formel. ». Cette interaction itérative fait partie du processus de prompt engineering : on ajuste le tir en fonction de la sortie pour arriver au résultat désiré.

Exemples pratiques de prompts

Voici quelques exemples concrets de requêtes que l'on peut faire à un LLM, illustrant différentes utilisations :

Résumé de texte

Demande à l'IA de résumer un contenu long en quelques phrases concises :

Résume le texte suivant en trois phrases claires et concises : 

[TEXTE À RÉSUMER]

Correction d'email

Demande au modèle d'améliorer la rédaction d'un email en corrigeant les fautes et en améliorant le style :

Corrige les fautes d'orthographe et de grammaire de l'email suivant, et propose une formulation plus professionnelle tout en conservant le sens d'origine :

[Texte de l'email ici]

Organisation de voyage (CoT)

Utilise une chaîne de pensée pour planifier un voyage étape par étape :

Tu es un assistant de voyage. Aide-moi à planifier un itinéraire de voyage de 7 jours en Italie, en décrivant ton raisonnement étape par étape (chaque étape de pensée) puis en présentant l'itinéraire final jour par jour.

Veille thématique

Demande à l'IA de faire une synthèse des dernières nouvelles sur un sujet donné :

Agis comme un assistant de veille. Fais un résumé des trois actualités les plus marquantes de la semaine dans le domaine de la technologie, avec des puces pour chaque domaine (IA, mobile, cybersécurité…).

Améliorer un prompt

Demande au LLM d'analyser et de perfectionner un prompt peu efficace :

Voici un prompt qui ne donne pas de bons résultats : "[Mon prompt actuel]". Analyse ses faiblesses et propose-moi une version améliorée de ce prompt, en expliquant en quoi tes modifications peuvent améliorer la réponse de l'IA.

Génération d'image (style spécifique)

Exemple de prompt pour générer une image dans un style artistique particulier :

Une illustration numérique d'un chat jouant avec une pelote de laine, dans le style d'une peinture impressionniste de Claude Monet, couleurs pastel et lumière douce.

Méta-prompt

Demande au LLM de créér un prompt :

Tu es un expert en rédaction de prompt. Tu dialogues avec des élèves de niveau B1 en classe de FLE. Ton objectif est de m’aider à créer le meilleur prompt possible pour mes besoins. Ce prompt sera utilisé par ChatGPT pour produire le résultat final. Tu devras suivre les étapes suivantes. Dans ta première réponse, tu dois me demander quel est le sujet du prompt. Je fournirai ma réponse, mais nous devrons l’améliorer par le biais d’itérations continues en passant par les étapes suivantes. Sur la base de mon prompt, tu produiras deux réponses. 1) Prompt révisé (où tu fourniras le prompt réécrit, il doit être clair, concis et facile à comprendre), 2) Questions (pose quelques questions pertinentes pour avoir des informations supplémentaires pour améliorer le prompt). Nous poursuivrons ce processus itératif et je te fournirai des informations supplémentaires. Tu utiliseras des phrases simples de niveau B1. Tu mettras à jour le prompt dans la section “Prompt révisé” jusqu’à ce que je dise que nous avons terminé.

Chaque exemple ci-dessus montre comment formuler la demande pour orienter au mieux le modèle. N'hésitez pas à expérimenter en modifiant les prompts et à observer comment l'IA s'adapte aux nouvelles instructions.

Annuaire de liens

Voici les liens directs vers les principales plateformes d'IA conversationnelle, avec leurs applications web et mobiles :

Modèle / Assistant Organisation Application Web Application iOS Application Android
ChatGPT (GPT-5.4) OpenAI chat.openai.com App Store Google Play
Le Chat Mistral AI chat.mistral.ai App Store Google Play
Gemini (ex-Bard) Google gemini.google.com App Store Google Play
Claude Anthropic claude.ai App Store Google Play
Grok xAI x.ai/grok
DeepSeek DeepSeek deepseek.com App Store Google Play
Microsoft Copilot Microsoft copilot.microsoft.com App Store Google Play
Meta AI Meta meta.ai Intégré dans Facebook, Instagram, WhatsApp Intégré dans Facebook, Instagram, WhatsApp
Perplexity AI Perplexity perplexity.ai App Store Google Play
NotebookLM Google notebooklm.google App Store Google Play
Qwen Alibaba qwen.chat
Kimi Moonshot AI kimi.ai App Store Google Play
ChatGLM Zhipu AI chatglm.cn
MiniMax MiniMax minimax.io

Ces plateformes offrent un accès direct aux modèles d'IA les plus avancés. La plupart proposent des versions gratuites avec des limitations, ainsi que des abonnements premium pour un usage intensif et l'accès aux dernières fonctionnalités.

Applications IA locales

Solutions pour exécuter des modèles d'IA en local, sur votre propre machine :

Nom Description Lien
Ollama Framework open-source pour exécuter facilement des modèles de langage (LLM) localement. Interface en ligne de commande simple pour télécharger, gérer et utiliser des modèles comme Llama, Mistral, Code Llama, etc. ollama.ai
LM Studio Interface graphique intuitive pour découvrir, télécharger et exécuter des modèles de langage localement. Compatible avec de nombreux formats de modèles et offre une API locale compatible OpenAI. lmstudio.ai
AnythingLLM Plateforme tout-en-un pour créer et déployer des assistants IA privés. Permet l'intégration de documents, la gestion de bases de connaissances et l'exécution de modèles en local ou via API. anythingllm.com

Liens utiles

Voici quelques liens utiles :

Nom Description Lien
Metaculus – Sondages IA Plateforme de prévisions collaboratives sur des questions liées à l'IA, permettant aux utilisateurs de faire des prédictions et de suivre les tendances. metaculus.com
compar:IA – Comparateur d'IA Outil gouvernemental français permettant de comparer anonymement différents modèles d'IA conversationnelle pour sensibiliser aux enjeux de l'IA générative. comparia.beta.gouv.fr
IA en classe – Réseau Canopé Ressources et formations pour intégrer l'intelligence artificielle dans l'enseignement, proposées par le Réseau Canopé. reseau-canope.fr
Vellum AI – Classement LLM Tableau de bord présentant les performances des modèles de langage de pointe sur divers benchmarks publics. vellum.ai
Leaderboard LLM FR – Hugging Face Classement des modèles de langage adaptés à la langue française, évalués sur des jeux de données spécifiques. huggingface.co