Incertitude

À quoi sert cette page

Cette page fixe une idée simple : l’incertitude n’est pas un défaut à supprimer, c’est une propriété à situer.

Sans ce repérage, l’analyse devient fragile :

  • on confond ce que l’on sait avec ce que l’on suppose,
  • on prend une estimation pour un fait,
  • on “décide” sur une confiance implicite, non contrôlée.

Ici, l’objectif est de rendre l’incertitude visible, pour savoir sur quoi une analyse tient, et où elle peut casser.

À retenir

Une analyse robuste ne prétend pas éliminer l’incertitude. Elle la localise : ce qui est mesuré, ce qui est inféré, ce qui est supposé, et ce qui reste hors champ.

Définition

Dans ce site, l’incertitude désigne l’écart entre :

  • ce que l’on voudrait savoir pour trancher,
  • et ce que l’on peut réellement établir, compte tenu des données, du contexte et des modèles utilisés.

Elle ne signifie pas “on ne sait rien”. Elle signifie : on sait quelque chose, mais pas tout, et pas avec la même solidité.

D’où vient l’incertitude

On peut distinguer quatre sources minimales.

1. Incertitude sur les faits (observation)

  • données incomplètes, bruitées, biaisées,
  • indicateurs indirects,
  • dispositifs de mesure discutables.

2. Incertitude sur l’interprétation (cadrage)

  • définition instable du problème à réguler,
  • catégories mal posées,
  • hypothèses implicites qui verrouillent l’analyse.

3. Incertitude sur les relations (explication)

  • corrélations prises pour des mécanismes,
  • causalités supposées,
  • dépendances et relations non observées (ou mal décrites).

4. Incertitude sur l’action (décision)

  • alternatives réelles mal connues,
  • effets secondaires,
  • risques et coûts futurs,
  • réactions des autres acteurs (marché, organisation, régulation).

Ce que “gérer l’incertitude” veut dire ici

Gérer l’incertitude ne veut pas dire la réduire à zéro.

Cela veut dire effectuer trois opérations simples :

1. Séparer

  • faits observés,
  • inférences,
  • hypothèses,
  • inconnues.

2. Qualifier

  • qu’est-ce qui est solide,
  • qu’est-ce qui est plausible,
  • qu’est-ce qui est spéculatif.

3. Tester

  • quelle conclusion change si une hypothèse change,
  • quelle décision reste stable malgré l’incertitude,
  • quelles données supplémentaires seraient réellement décisives.

Test simple

Posez deux questions :

1. Qu’est-ce qui, si c’était faux, ferait tomber la conclusion ?

  • Cela identifie l’hypothèse critique.

2. Qu’est-ce qui, même incertain, ne change pas la décision ?

  • Cela identifie la partie robuste du raisonnement.

Exemple

Une organisation veut “améliorer la rétention”.

Sans expliciter l’incertitude, on conclut vite : “c’est un problème de prix”.

En localisant l’incertitude :

  • Perception : le “problème” est-il churn, satisfaction, usage, promesse, concurrence, canal ?
  • Repères : quels signaux modifient vraiment le cadrage (cohortes, motifs de départ, segments) ?
  • Valeur : quels critères comptent réellement pour l’acteur (coût, effort, risque, crédibilité) ?
  • Décision (processus) : quelles alternatives étaient réellement disponibles (offre, service, process, ciblage, canal) ?

Résultat : on ne “résout” pas l’incertitude, mais on sait où elle est, et ce qu’il faut stabiliser avant d’agir.

Piège fréquent

Piège : confondre incertitude et ignorance.

Dire “c’est incertain” peut servir à ne rien trancher.

Mais le vrai problème est souvent inverse : on tranche déjà, avec une certitude implicite.

Une posture robuste n’est pas :

  • “on attend d’être sûrs”.

C’est :

  • “voici ce qui est certain, voici ce qui est plausible, voici ce qui reste incertain, et voici ce que nous décidons malgré cela”.

Comment utiliser cette page

Quand vous lisez une analyse, vérifiez :

  • l’incertitude est-elle explicitée, ou seulement masquée par un ton affirmatif ?
  • les hypothèses critiques sont-elles nommées ?
  • sait-on ce qui changerait la conclusion, et ce qui ne la changerait pas ?

Si ces points sont clairs, l’analyse devient discutable et donc améliorable.