À quoi sert cette page
Cette page fixe une idée simple : l’incertitude n’est pas un défaut à supprimer, c’est une propriété à situer.
Sans ce repérage, l’analyse devient fragile :
- on confond ce que l’on sait avec ce que l’on suppose,
- on prend une estimation pour un fait,
- on “décide” sur une confiance implicite, non contrôlée.
Ici, l’objectif est de rendre l’incertitude visible, pour savoir sur quoi une analyse tient, et où elle peut casser.
À retenir
Une analyse robuste ne prétend pas éliminer l’incertitude. Elle la localise : ce qui est mesuré, ce qui est inféré, ce qui est supposé, et ce qui reste hors champ.
Définition
Dans ce site, l’incertitude désigne l’écart entre :
- ce que l’on voudrait savoir pour trancher,
- et ce que l’on peut réellement établir, compte tenu des données, du contexte et des modèles utilisés.
Elle ne signifie pas “on ne sait rien”. Elle signifie : on sait quelque chose, mais pas tout, et pas avec la même solidité.
D’où vient l’incertitude
On peut distinguer quatre sources minimales.
1. Incertitude sur les faits (observation)
- données incomplètes, bruitées, biaisées,
- indicateurs indirects,
- dispositifs de mesure discutables.
2. Incertitude sur l’interprétation (cadrage)
- définition instable du problème à réguler,
- catégories mal posées,
- hypothèses implicites qui verrouillent l’analyse.
3. Incertitude sur les relations (explication)
- corrélations prises pour des mécanismes,
- causalités supposées,
- dépendances et relations non observées (ou mal décrites).
4. Incertitude sur l’action (décision)
- alternatives réelles mal connues,
- effets secondaires,
- risques et coûts futurs,
- réactions des autres acteurs (marché, organisation, régulation).
Ce que “gérer l’incertitude” veut dire ici
Gérer l’incertitude ne veut pas dire la réduire à zéro.
Cela veut dire effectuer trois opérations simples :
1. Séparer
- faits observés,
- inférences,
- hypothèses,
- inconnues.
2. Qualifier
- qu’est-ce qui est solide,
- qu’est-ce qui est plausible,
- qu’est-ce qui est spéculatif.
3. Tester
- quelle conclusion change si une hypothèse change,
- quelle décision reste stable malgré l’incertitude,
- quelles données supplémentaires seraient réellement décisives.
Test simple
Posez deux questions :
1. Qu’est-ce qui, si c’était faux, ferait tomber la conclusion ?
- Cela identifie l’hypothèse critique.
2. Qu’est-ce qui, même incertain, ne change pas la décision ?
- Cela identifie la partie robuste du raisonnement.
Exemple
Une organisation veut “améliorer la rétention”.
Sans expliciter l’incertitude, on conclut vite : “c’est un problème de prix”.
En localisant l’incertitude :
- Perception : le “problème” est-il churn, satisfaction, usage, promesse, concurrence, canal ?
- Repères : quels signaux modifient vraiment le cadrage (cohortes, motifs de départ, segments) ?
- Valeur : quels critères comptent réellement pour l’acteur (coût, effort, risque, crédibilité) ?
- Décision (processus) : quelles alternatives étaient réellement disponibles (offre, service, process, ciblage, canal) ?
Résultat : on ne “résout” pas l’incertitude, mais on sait où elle est, et ce qu’il faut stabiliser avant d’agir.
Piège fréquent
Piège : confondre incertitude et ignorance.
Dire “c’est incertain” peut servir à ne rien trancher.
Mais le vrai problème est souvent inverse : on tranche déjà, avec une certitude implicite.
Une posture robuste n’est pas :
- “on attend d’être sûrs”.
C’est :
- “voici ce qui est certain, voici ce qui est plausible, voici ce qui reste incertain, et voici ce que nous décidons malgré cela”.
Comment utiliser cette page
Quand vous lisez une analyse, vérifiez :
- l’incertitude est-elle explicitée, ou seulement masquée par un ton affirmatif ?
- les hypothèses critiques sont-elles nommées ?
- sait-on ce qui changerait la conclusion, et ce qui ne la changerait pas ?
Si ces points sont clairs, l’analyse devient discutable et donc améliorable.
Pages liées
- → Perception
- → Repères
- → Valeur
- → Décision (processus)
- → Données
- → Contextualiser