Skip to content
Retour à Tech
GenAI · 7 min de lecture

Le prompting à l'ère agentique — Du prompt engineering à la conception de systèmes

Comment le prompting a évolué des astuces vers la spécification au niveau système — fichiers CLAUDE.md, sorties structurées, patterns d'utilisation d'outils et quand le prompting compte encore.

Le prompting à l’ère agentique

Le changement : du prompt engineering à la spécification système

En 2023-2024, le “prompt engineering” était la compétence en vogue. Les développeurs passaient des heures à rédiger des prompts élaborés avec un vocabulaire précis, des instructions de chaîne de pensée et des exemples few-shot pour obtenir de meilleures sorties des modèles. Il y avait toute une industrie artisanale de cours et certifications en “prompt engineering”.

En 2026, ce monde semble désuet. Non pas parce que le prompting n’est plus important — il l’est — mais parce que la nature de ce qui compte a fondamentalement changé. Les modèles frontière modernes (Claude 4, GPT-5, Gemini 2.5) sont considérablement meilleurs pour comprendre l’intention sans échafaudage élaboré. Plus important encore, le passage à l’IA agentique et à l’utilisation d’outils signifie que la compétence critique n’est plus d’écrire des prompts individuels astucieux mais de concevoir des systèmes qui guident le comportement de l’IA sur des workflows multi-étapes.

Ce qui compte maintenant

1. CLAUDE.md et fichiers de spécification de projet

Le “prompting” le plus impactant que je fais en 2026 n’est pas du tout un prompt — c’est l’écriture de fichiers CLAUDE.md. Ces documents de spécification au niveau projet indiquent aux agents IA tout ce qu’ils doivent savoir sur une codebase : décisions d’architecture, stack technique, conventions de codage, tokens du design system, patterns de nommage des fichiers, stratégies de test.

Un fichier CLAUDE.md bien rédigé vaut plus que mille prompts astucieux car il définit le contexte une fois et s’applique à chaque interaction. C’est la différence entre dire à un employé quoi faire à chaque tâche et lui donner un document d’intégration qui lui permet de prendre de bonnes décisions de manière autonome.

Ce que contient un bon CLAUDE.md :

  • Vue d’ensemble et objectif du projet
  • Stack technique et dépendances clés
  • Patterns d’architecture et conventions
  • Structure des fichiers et règles de nommage
  • Tokens du design system et patterns de composants
  • Attentes en matière de tests
  • Commandes courantes (build, test, lint, deploy)
  • Terminologie spécifique au domaine et règles métier

2. System prompts et définitions d’outils

Pour les fonctionnalités IA en production, le “prompt” est en réalité un problème de conception de système :

  • Les system prompts définissent le rôle de l’IA, ses contraintes et ses limites comportementales. Il s’agit moins d’astuces que de spécification claire de ce que le système doit et ne doit pas faire.
  • Les définitions d’outils (via MCP ou function calling) spécifient quelles actions l’IA peut entreprendre. La qualité de vos descriptions d’outils impacte directement la capacité du modèle à les utiliser. Des descriptions de paramètres claires, de bons exemples et des contraintes explicites comptent énormément.
  • Les schémas de sortie structurée (JSON schema, modèles Pydantic) garantissent que l’IA retourne des données dans des formats que votre application peut analyser de manière fiable. Cela remplace l’ancien pattern consistant à espérer que le modèle formate correctement sa réponse.

3. L’évaluation plutôt que l’intuition

L’approche 2024 : “Est-ce que ce prompt a l’air de fonctionner ?” L’approche 2026 : l’évaluation systématique. Pour toute fonctionnalité IA en production, vous avez besoin de :

  • Un jeu de test d’entrées représentatives
  • Des critères de succès clairs (précision, conformité de format, sécurité)
  • Des pipelines d’évaluation automatisés
  • Des tests A/B pour les changements de prompts

Le “test au feeling” est l’équivalent en prompt engineering de ne pas écrire de tests unitaires. Ça fonctionne jusqu’à ce que ça ne fonctionne plus, et ensuite vous déboguez des problèmes de production sans reproductibilité.

Ce qui fonctionne encore du prompting classique

Tout du l’ère du prompt engineering n’est pas obsolète. Ces fondamentaux restent valables :

Définition du rôle et du contexte

Les modèles fonctionnent toujours mieux quand ils comprennent la perspective à adopter. Mais en 2026, cela est plus souvent défini dans les system prompts ou les fichiers CLAUDE.md que dans les messages utilisateur individuels.

Vous êtes un spécialiste senior de l’automatisation AP examinant les exceptions de factures. Concentrez-vous sur l’identification des paiements en double potentiels et des indicateurs de fraude fournisseur.

Chaîne de pensée pour le raisonnement complexe

Demander aux modèles de réfléchir étape par étape améliore encore la précision sur les tâches complexes. Certains modèles (Claude avec réflexion étendue, série o1/o3) le font automatiquement, mais des instructions CoT explicites aident lors de l’utilisation de modèles plus petits ou locaux.

Exemples few-shot pour la spécification de format

Quand vous avez besoin d’une sortie dans un format très spécifique, montrer 1-2 exemples est toujours plus efficace que de décrire le format de manière abstraite. C’est particulièrement vrai pour les tâches d’extraction de données structurées et de classification.

Contraintes explicites

Définir des limites reste important : longueur maximale, sujets interdits, sections requises, format de sortie. Les modèles respectent mieux que jamais les contraintes, mais vous devez toujours les énoncer.

Ce qui est moins important maintenant

L’échafaudage élaboré de prompts

Vous n’avez plus besoin de tromper les modèles pour obtenir un bon comportement avec des scénarios de jeu de rôle élaborés ou de la manipulation psychologique (“Vous serez pénalisé pour les mauvaises réponses”). Les modèles modernes comprennent des instructions directes.

Le chaînage de prompts pour les tâches simples

Les chaînes multi-prompts qui étaient nécessaires pour contourner les limites de contexte ou de capacité sont souvent inutiles maintenant. Une seule requête bien spécifiée à un modèle frontière gère ce qui nécessitait auparavant 3-4 prompts chaînés.

La formulation hyper-spécifique

L’obsession de la formulation exacte (“Utilisez ‘analyser’ pas ‘regarder’”) s’est estompée. Les modèles frontière sont robustes à la paraphrase. La clarté de l’intention compte ; le choix spécifique des mots rarement.

La nouvelle checklist du prompting (édition 2026)

Pour les fonctionnalités IA en production :

  • Définir des system prompts clairs avec rôle, contraintes et limites de sécurité
  • Concevoir des définitions d’outils avec des descriptions précises et des schémas de paramètres
  • Spécifier des formats de sortie structurée (JSON schema)
  • Construire des datasets d’évaluation avant d’optimiser les prompts
  • Versionner vos prompts aux côtés de votre code
  • Utiliser MCP pour l’intégration d’outils plutôt que du function calling sur mesure

Pour les workflows de développement agentique :

  • Écrire des fichiers CLAUDE.md complets pour chaque projet
  • Définir des spécifications de tâches claires avant d’invoquer les agents
  • Inclure des critères d’acceptation et des attentes de test dans les spécifications
  • Garder le contexte ciblé — ne pas tout déverser, fournir ce qui est pertinent

Pour l’usage ad hoc (recherche, rédaction, analyse) :

  • Énoncer l’objectif clairement et directement
  • Fournir le contexte pertinent dès le début
  • Spécifier le format de sortie si c’est important
  • Itérer naturellement — les modèles modernes gèrent bien l’affinage conversationnel
  • Utiliser les modes de réflexion étendue / raisonnement pour les tâches analytiques complexes

Template pratique pour les system prompts

Vous êtes [rôle] pour [produit/système].

## Comportement principal
[Ce que fait le système et comment il doit aborder les tâches]

## Contraintes
- [Limites strictes : sujets à éviter, actions à ne pas entreprendre]
- [Exigences de sécurité]
- [Exigences de format de sortie]

## Outils disponibles
[Brève description de chaque outil et quand l'utiliser]

## Exemples
[1-2 paires entrée/sortie représentatives]

## Gestion des erreurs
[Que faire en cas d'incertitude, d'échec des outils, d'entrée ambiguë]

La méta-leçon : le prompting a mûri d’un art vers une discipline d’ingénierie. Le “prompt engineer 10x” de 2024 est devenu le “concepteur de systèmes IA” de 2026 — quelqu’un qui pense à l’ensemble du pipeline, du system prompt aux définitions d’outils, en passant par l’évaluation et le monitoring. Le prompt individuel astucieux compte moins ; la conception du système compte davantage.

aipromptingllmclaude-mdstructured-outputtool-useagentic-ai