À quoi sert cette page
Cette page fixe une idée simple : les résultats d’une analyse dépendent d’abord des choix qui la rendent possible.
Avant même les données et les outils, des choix méthodologiques sont faits, souvent implicitement. Ils déterminent :
- ce que vous observez,
- ce que vous comparez,
- comment vous produisez les données,
- et ce que vous acceptez comme incertitude.
Si ces choix ne sont pas explicités, une analyse peut être persuasive sans être contrôlable.
À retenir
Un résultat n’est valable que pour le dispositif qui l’a produit. Expliciter vos choix méthodologiques, c’est dire ce que vous pouvez conclure, et ce que vous ne pouvez pas conclure.
Définition
Dans ce site, un choix méthodologique désigne une décision de conception qui détermine :
- le type de données que vous allez produire ou mobiliser,
- le type de traitement que vous pourrez appliquer,
- et le type d’inférence que vous pourrez défendre.
Ce n’est pas un “détail technique”. C’est une condition de validité.
Les choix qui comptent vraiment
1) Intention et question
Tout commence par une intention : qu’essayez-vous de comprendre ou d’éclairer comme décision ?
Sans question claire, vous produisez des données sans information utile.
Repère simple :
- quelle décision cette analyse doit-elle éclairer ?
- quel problème à réguler est en jeu ?
2) Unité d’analyse
Vous analysez quoi, exactement ?
- un individu,
- une organisation,
- une transaction,
- une relation,
- une situation.
Changer l’unité d’analyse change l’interprétation. Une “même” donnée ne dit pas la même chose selon l’unité retenue.
3) Comparaison
Une conclusion est presque toujours comparative, même si on ne le dit pas :
- comparé à quoi ?
- sur quelle période ?
- dans quel contexte ?
- avec quel groupe de référence ?
Sans contrôle de comparaison, vous confondez “différence” et “effet”.
4) Dispositif de production des données
Pour garder l’analyse contrôlable, quatre distinctions suffisent.
4.1 Source interne vs source externe
- Source interne : données produites par l’organisation (ventes, CRM, SAV, logs, tickets, compta, production, etc.).
- Force : continuité, granularité, coût.
- Limite : angles morts, biais de dispositif, “on ne voit que ce qu’on instrumente”.
- Source externe : données produites hors de l’organisation (études, panels, open data, statistiques publiques, benchmarks, réseaux, médias, etc.).
- Force : comparaison, élargissement du champ, mise en perspective.
- Limite : définitions non maîtrisées, compatibilité incertaine, contexte de production parfois opaque.
4.2 Desk (secondaire) vs field (primaire)
- Desk (recherche documentaire) : exploitation de données existantes (internes ou externes) sans production directe sur le terrain.
- Force : rapide, plutôt économique, utile pour cadrer.
- Limite : vous héritez des catégories et des biais de ceux qui ont produit les données.
- Field (terrain) : production de données ad hoc, au contact des acteurs et des situations.
- Force : accès aux mécanismes, meilleure adéquation à la question.
- Limite : coût, délais, effets d’observation, problèmes d’échantillonnage.
4.3 Avec interrogation vs sans interrogation
- Avec interrogation : vous demandez (entretien, questionnaire, focus group).
- Force : accès aux représentations, motivations déclarées, critères verbalisés.
- Limite : rationalisations a posteriori, désirabilité sociale, limites de mémoire.
- Sans interrogation : vous observez sans demander (traces comportementales, observations, mesures, données d’usage).
- Force : accès aux comportements effectifs, continuité.
- Limite : sens et intentions inférés, contexte parfois manquant.
4.4 Qualitatif vs quantitatif
- Qualitatif : comprendre des logiques, des catégories indigènes, des mécanismes, des cadrages.
- Produit : typologies, hypothèses, mécanismes plausibles, langage du problème.
- Quantitatif : mesurer des distributions, tester des associations, comparer des groupes, estimer des ordres de grandeur.
- Produit : indicateurs, variations, segments, incertitudes chiffrées.
Dans la pratique, les dispositifs robustes sont souvent mixtes : le qualitatif stabilise le cadrage et les hypothèses, le quantitatif mesure et compare.
Point clé : le quantitatif peut viser une inférence statistique vers une population. Cela suppose, au moins en principe, un échantillonnage permettant de défendre une représentativité statistique.
Le qualitatif n’utilise pas d’échantillons statistiquement représentatifs : l’objectif n’est pas de généraliser par probabilités, mais de comprendre une configuration au moyen d’une sélection analytique des cas (pertinence, diversité, saturation).
5) Type de variables et traitements possibles
Le type de variable limite les traitements légitimes :
- nominale, ordinale (non métriques),
- discrète, continue (métriques).
Ce n’est pas un détail : cela conditionne ce que vous pouvez calculer et interpréter sans abus.
6) Modèles et algorithmes
Un modèle réduit la complexité. Il rend visibles certains aspects et en invisibilise d’autres.
Deux exigences :
- annoncer le modèle (même simplement),
- respecter ses contraintes (conditions d’application, limites, sens des sorties).
7) Statut des conclusions
Dernier choix, souvent oublié : quel statut donnez-vous à votre conclusion ?
- description (ce qui est observé),
- interprétation (lecture plausible),
- explication (mécanisme soutenu),
- recommandation (action sous contrainte).
Confondre ces niveaux produit des sur-interprétations.
Exemple
Une entreprise veut “comprendre la baisse des ventes” et hésite entre “étude clients” et “analyse CRM”.
Choix méthodologiques déterminants :
1. Intention
- éclairer une décision : ajuster l’offre, le prix, le ciblage, le canal ou l’organisation.
2. Dispositif (combinaison)
- Interne, desk, sans interrogation : CRM, panier, churn, tickets SAV, délais.
- Objectif : localiser où la baisse se produit (segments, canaux, périodes, étapes).
- Externe, desk : données marché, tendances prix, pression concurrentielle, régulation.
- Objectif : contextualiser (environnements) et éviter “tout vient de chez nous”.
- Field, avec interrogation, qualitatif : entretiens ciblés (clients perdus, fidèles, commerciaux).
- Objectif : stabiliser le cadrage, expliciter le problème à réguler, les critères réels, les alternatives.
- Field, avec interrogation, quantitatif (si nécessaire) : questionnaire court pour estimer l’ampleur des mécanismes identifiés.
Conclusion : “faire une étude” n’est pas une réponse. Le dispositif doit être cohérent avec la décision à éclairer.
Pièges fréquents
Piège 1 : confondre méthode et empilement de données
Erreurs typiques :
- accumuler du “desk” sans maîtriser les définitions,
- interroger des acteurs pour “expliquer” des comportements qu’ils rationalisent,
- croire que des traces d’usage donnent le sens sans contexte,
- choisir un outil parce qu’il est disponible (au lieu de choisir un dispositif adapté).
Test simple : “si je change de source ou de mode (desk/field, interrogation/non), est-ce que ma conclusion tient encore ?”
Piège 2 : appliquer les mauvais critères de validité
Juger une enquête qualitative avec les critères de la représentativité statistique, ou juger un quantitatif non probabiliste comme s’il permettait automatiquement une généralisation à une population, produit des conclusions fragiles.
Comment utiliser cette page
Quand vous lisez une analyse, vérifiez si ces choix sont visibles :
- quelle question est réellement posée ?
- quelle unité d’analyse est retenue ?
- sur quoi porte la comparaison ?
- d’où viennent les données (interne/externe) ?
- comment sont-elles produites (desk/field) ?
- y a-t-il interrogation ou observation ?
- quel est le mix qualitatif/quantitatif ?
- quel statut est donné aux conclusions ?
Si ces points sont explicités, vous pouvez discuter la validité. Sinon, vous discutez des opinions.
Pages liées
- → Méthode
- → Données
- → Relations
- → Contextualiser
- → Incertitude
Pour aller plus loin
- → Contexte
- → Environnements
- → Repères