Intelligence ArtificiellePrompt Engineering avancé : 15 techniques ChatGPT pros
Maîtrisez 15 techniques de prompt engineering avancé pour ChatGPT, Claude et Gemini. Codes Python inclus et exemples pratiques — résultats 67 % plus précis.
Ce que vous apprendrez
- Vous maîtriserez 15 techniques avancées qui distinguent le débutant du professionnel en prompt engineering
- Vous découvrirez comment construire des chaînes de prompts complexes pour résoudre de vrais problèmes
- Vous obtiendrez des codes Python prêts à l'emploi pour automatiser vos prompts avancés
Un développeur dans une startup passait deux jours entiers à rédiger la documentation API de son projet. Après avoir appris trois techniques avancées de prompt engineering (ingénierie de prompts), il accomplit la même tâche en 10 minutes — avec une meilleure qualité. La différence ne venait pas de l'outil, mais de la façon de l'utiliser.
Si vous utilisez ChatGPT ou Claude avec des prompts basiques comme « écris-moi un article sur... », vous n'exploitez que 10 % des capacités de ces modèles. Les techniques que vous allez apprendre ici font passer ce chiffre à 90 %.
Selon le rapport OpenAI 2025, les utilisateurs qui appliquent des techniques avancées de prompt engineering obtiennent des résultats 67 % plus précis que ceux qui formulent leurs requêtes au hasard.
Si vous n'avez pas encore vu les bases, commencez par le guide du prompt engineering pour débutants avant de revenir ici.
Prompt ordinaire vs prompt professionnel : quelle est la vraie différence ?
Un prompt professionnel donne au modèle un contexte clair, des contraintes précises et un format de sortie défini. Ces trois éléments suffisent à transformer des résultats aléatoires en résultats cohérents et directement utilisables. Les quinze techniques suivantes s'appuient sur ce principe de différentes manières.
Niveau 1 : Les techniques fondamentales (1-5)
1. L'attribution de rôle (Role Prompting)
L'attribution de rôle (Role Prompting) consiste à dire au modèle qu'il agit en tant qu'expert dans un domaine précis. Cela change radicalement le ton de la réponse, sa précision et sa profondeur.
Au lieu de : « Explique-moi l'API » Écrivez : « Tu es un ingénieur logiciel senior avec 15 ans d'expérience en conception d'APIs RESTful. Explique à un développeur débutant comment concevoir une API conforme aux standards OpenAPI 3.0. »
La différence est évidente : le second prompt précise l'expertise, le public cible et la norme attendue.
2. L'enrichissement du contexte (Context Enrichment)
Plus vous donnez au modèle d'informations sur votre projet, plus la réponse sera précise. Ajoutez des détails sur les technologies utilisées, la taille de l'équipe et les contraintes techniques.
La règle du 80/20 : consacrez 80 % de votre prompt au contexte et aux contraintes, et seulement 20 % à la question réelle. La plupart des erreurs viennent d'un contexte insuffisant, pas d'une question mal formulée.
3. Le format de sortie (Output Formatting)
Demandez un format précis : JSON, tableau Markdown, liste numérotée, code Python. Cela évite les longues réponses non structurées.
Exemple : « Réponds au format JSON avec les champs : title, description, priority (1-5), estimated_hours. »
4. Les contraintes négatives (Negative Constraints)
Dites au modèle ce que vous ne voulez pas. C'est plus puissant qu'on ne l'imagine.
« N'utilise pas de jargon technique complexe. Ne dépasse pas 200 mots. Ne propose pas plus de 3 options. »
Selon les recherches d'Anthropic en ingénierie de prompts, ajouter 2 à 3 contraintes négatives améliore la précision des réponses de 40 %.
5. L'apprentissage par l'exemple (Few-Shot Prompting)
L'apprentissage par l'exemple (Few-Shot Prompting) consiste à fournir 2 à 3 exemples au modèle avant de lui soumettre votre requête. Le modèle apprend le schéma attendu à partir de vos exemples.
Exemple 1 :
Entrée : « Erreur 404 à la connexion »
Sortie : {"severity": "high", "component": "auth", "action": "check API endpoint"}
Exemple 2 :
Entrée : « La page est lente à charger »
Sortie : {"severity": "medium", "component": "frontend", "action": "run performance audit"}
Maintenant classifie ceci :
Entrée : « L'utilisateur ne peut pas uploader des fichiers de plus de 5 Mo »
Niveau 2 : Les techniques intermédiaires (6-10)
6. La chaîne de pensée (Chain-of-Thought)
La chaîne de pensée (Chain-of-Thought — CoT) demande au modèle d'expliquer son raisonnement étape par étape avant de donner la réponse finale. Ajoutez simplement : « Réfléchis étape par étape » ou « Explique ton raisonnement avant de répondre. »
Selon une recherche de Google DeepMind, cette technique seule améliore de 35 à 50 % la précision sur les problèmes mathématiques et logiques.
7. L'autocritique (Self-Criticism)
Demandez au modèle de revoir lui-même sa réponse : « Réponds, puis relis ta réponse et corrige les erreurs éventuelles. »
Cela fonctionne parce que le modèle est plus précis lors de la révision — comme si vous rédigiez un brouillon puis le relisiez.
8. La décomposition (Decomposition)
Les tâches complexes se divisent en sous-tâches. Au lieu de « Écris une application complète », demandez :
- Conçois la structure de la base de données
- Rédige les interfaces API
- Crée l'interface utilisateur
Chaque étape est exécutée dans un prompt séparé, en réinjectant le résultat de l'étape précédente.
La décomposition est la technique la plus impactante pour les grands projets. Ne demandez pas au modèle de tout faire d'un coup — découpez la tâche et vous obtiendrez des résultats nettement meilleurs.
9. Le raffinement itératif (Iterative Refinement)
Commencez par un prompt général, puis affinez-le progressivement selon les résultats. Chaque itération ajoute des détails ou corrige la direction de la réponse.
Itération 1 : « Écris une introduction pour un article sur la cybersécurité » Itération 2 : « Raccourcis-la et commence par une statistique marquante » Itération 3 : « Ajoute une question qui interpelle directement le lecteur dans la deuxième phrase »
10. Le guidage par persona (Persona Steering)
Plus profond que l'attribution de rôle — ici vous définissez le style d'écriture en détail : « Écris avec le style concis de Paul Graham » ou « Explique comme un professeur de physique patient face à un lycéen. »
Niveau 3 : Les techniques avancées (11-15)
11. Le méta-prompting (Meta-Prompting)
Le méta-prompting (Meta-Prompting) consiste à demander au modèle de rédiger le prompt à votre place plutôt que de l'écrire vous-même.
« Je veux analyser des données de ventes. Rédige-moi le meilleur prompt à utiliser pour analyser ces données en profondeur. »
Le modèle connaît ses propres capacités mieux que vous — laissez-le concevoir le prompt optimal.
12. L'arbre de pensée (Tree-of-Thought)
L'arbre de pensée (Tree-of-Thought — ToT) demande au modèle d'explorer plusieurs pistes de résolution, de les évaluer et de choisir la meilleure. La recherche de Microsoft Research a prouvé sa supériorité sur CoT pour les problèmes complexes.
« Propose 3 solutions différentes à ce problème. Évalue chacune en termes de performance, de complexité et de coût. Puis choisis la meilleure avec une justification claire. »
13. Le modèle ReAct (Reasoning + Acting)
ReAct combine raisonnement et action. Le modèle réfléchit, exécute une étape, observe le résultat, puis décide de la prochaine action.
Réfléchis : quel est le problème fondamental ?
Agis : [exécute la première étape]
Observe : quel est le résultat ?
Réfléchis : la solution fonctionne-t-elle ou faut-il un ajustement ?
14. Le chaînage de prompts par code (Prompt Chaining with Code)
Ici, vous utilisez Python pour relier automatiquement plusieurs prompts — chaque prompt prend en entrée les sorties du précédent :
from openai import OpenAI
client = OpenAI(api_key="YOUR_API_KEY")
def chain_prompts(initial_input: str) -> dict:
"""Chaîne de prompts : analyse → classification → recommandations"""
# Étape 1 : analyse du problème
analysis = client.chat.completions.create(
model="gpt-4o",
messages=[{
"role": "system",
"content": "Analyse le problème technique suivant et identifie la cause racine. Réponds en JSON : {cause, severity, affected_components}"
}, {
"role": "user",
"content": initial_input
}]
).choices[0].message.content
# Étape 2 : génération de solutions basées sur l'analyse
solutions = client.chat.completions.create(
model="gpt-4o",
messages=[{
"role": "system",
"content": "Sur la base de cette analyse, propose 3 solutions classées par priorité. Réponds en JSON : [{solution, effort, impact}]"
}, {
"role": "user",
"content": analysis
}]
).choices[0].message.content
return {"analysis": analysis, "solutions": solutions}
# Utilisation de la chaîne
result = chain_prompts("L'application se bloque lors du chargement de plus de 1000 enregistrements")
print(result)
Selon les expériences des développeurs OpenAI, les chaînes de prompts donnent des résultats 45 % plus précis qu'un seul prompt long qui tente de tout faire.
15. L'évaluation automatisée (Automated Evaluation)
Demandez à un second modèle d'évaluer les sorties du premier. Cette technique est utilisée en production pour garantir une qualité constante :
def evaluate_output(output: str, criteria: list[str]) -> dict:
"""Évalue les sorties du modèle selon des critères définis"""
evaluation = client.chat.completions.create(
model="gpt-4o",
messages=[{
"role": "system",
"content": f"""Évalue le texte suivant selon ces critères : {criteria}
Donne un score de 1 à 10 pour chaque critère avec une brève justification.
Réponds en JSON : [{{criterion, score, reason}}]"""
}, {
"role": "user",
"content": output
}]
).choices[0].message.content
return evaluation
# Évaluation d'un article
criteria = ["Précision scientifique", "Clarté", "Exhaustivité", "Style"]
score = evaluate_output(article_text, criteria)
Les techniques 11 à 15 s'utilisent généralement en environnement de production — de vraies applications au service d'utilisateurs réels. Si vous utilisez ChatGPT manuellement, concentrez-vous d'abord sur les techniques 1 à 10.
ChatGPT vs Claude : le même prompt avancé sur différents modèles
Est-ce qu'un même prompt avancé donne des résultats similaires sur différents modèles ? Voici la comparaison :
En résumé : il n'existe pas de modèle « meilleur » en tout — choisissez selon votre tâche. Pour la comparaison détaillée, lisez GPT vs Claude vs Gemini : comparaison complète.
Questions fréquentes
؟Faut-il des compétences en programmation pour apprendre le prompt engineering avancé ?
Non. Le prompt engineering est avant tout une compétence linguistique — il s'agit de formuler des instructions avec clarté et précision. La programmation aide, mais n'est pas obligatoire. Commencez par les techniques fondamentales comme le Role Prompting et le Chain-of-Thought, puis montez progressivement en niveau.
؟Est-ce qu'un même prompt donne des résultats identiques à chaque fois ?
Pas nécessairement. Les modèles d'intelligence artificielle intègrent une part d'aléatoire (temperature). Pour réduire la variabilité, utilisez des instructions très précises, définissez rigoureusement le format de sortie et demandez au modèle de suivre des étapes claires.
؟Quelle est la différence entre le prompt engineering de base et avancé ?
Le niveau de base consiste à formuler une question claire et obtenir une réponse. Le niveau avancé utilise des techniques comme le raisonnement en chaîne, la décomposition de tâches, la définition de persona, les contraintes négatives et le formatage structuré — pour des résultats plus précis et directement applicables.
Pour aller plus loin
Le prompt engineering n'est plus une compétence optionnelle — c'est une compétence professionnelle essentielle, au même titre que la programmation ou la gestion de projet. La différence entre celui qui écrit « fais-moi ça » et celui qui rédige un prompt soigneusement conçu, c'est la même différence qu'entre utiliser Excel pour additionner des chiffres et construire des modèles financiers complexes — l'outil est identique, mais le résultat est radicalement différent.
Commencez par deux ou trois techniques du niveau 1. Maîtrisez-les. Puis progressez graduellement. Vous remarquerez que votre façon de formuler les problèmes changera — et c'est bien plus précieux que n'importe quelle technique en particulier.
Pour approfondir votre compréhension des fondements de l'intelligence artificielle derrière ces modèles, lisez le guide des fondamentaux de l'intelligence artificielle.
Sources et références
Département IA — AI Darsi
Spécialistes en IA et apprentissage automatique


