Overblog
Editer l'article Suivre ce blog Administration + Créer mon blog
Socio-réflexe

Probabilités, modèles et sciences sociales

19 Septembre 2016 , Rédigé par Tristan D.

Comme on a vu dans le dernier billet, selon Karl Popper, les probabilités ne sont pas scientifiques si on ne les prend pas comme des énoncés réfutables et comme une hypothèse d'ensemble. Elles sont dues à une connaissance insuffisante des causes d'un phénomène et doivent toujours être parfaitement claires et explicables logiquement. La mise sous forme de probabilité d'un résultat ou d'une hypothèse ne doit pas nous faire oublier que l'on regroupe plusieurs événements avec chacun leur propre chance de se produire et indépendant des précédents. Ce n'est pas parce qu'une pièce a donné plusieurs fois « face » à la suite qu'elle donnera forcément ou plus probablement « pile » au prochain lancer.

Les probabilités comme des choses : l'exemple de Durkheim

Ces remarques sont très importantes pour les sciences humaines. Il faut rappeler qu'historiquement, une majorité de chercheurs, et même certains encore aujourd'hui, ont une approche objectiviste des probabilités. Ils accordent donc un statut objectif à la notion de probabilité pour des événements susceptibles de se produire indéfiniment dans des conditions identiques. On peut voir un exemple avec l'analyse de Durkheim par Daniel Courgeau : « Les faits sociaux, qui existent hors de la conscience individuelle et qui sont indépendants des diverses actions qu'ils déterminent, s'expriment dans les statistiques, qui fournissent les moyens de les isoler. La méthode des variations concomitantes, qu'il propose pour se faire et qui n'est autre qu'une méthode de régression linéaire, utilise l'hypothèse d'une probabilité objective : l'existence d'une telle probabilité, différente pour le suicide des protestants et celui des catholiques, lui permet de justifier l'utilisation de la méthode des variations concomitantes pour montrer que les protestants se suicident moins que les catholiques. »1.

Rappelons, en faisant un détour par C. Baudelot et R. Establet qui entreprennent un retour sur Le Suicide de notre cher auteur susmentionné, que : « La statistique donne à l'état pur la mesure de la contrainte sociale. Elle est pour Durkheim et le courant sociologique qu'il a suscité la méthode sociologique par excellence. »2. Une méthodologie est toujours emprunt de certains postulats (permettant néanmoins la recherche). Il est donc possible de trouver ici une légère faille dans la pensée de ce père fondateur de notre discipline, qui serait due à une vision quantitative de l'intégration sociale, amenant l'utilisation des statistiques. En effet, envisager le suicide comme une probabilité objective dépendante du milieu social amènerait à prendre l'intégration comme une variable quantitative jouant sur cette probabilité.

Cependant, on peut objecter cette idée, en insistant que l'intégration ne peut se calculer que sur un seul axe et qu'il faut bien entendu ajouter une valeur qualitative plus subtile à son analyse. Formulé autrement, par C. Baudelot et R. Establet : « Or, il est bien évident, si on suit le schéma de passage progressif de l'intégration par ressemblance à l'intégration par différence, que les formes modernes (villes, protestantisme, milieux instruits) actualisent en principe une intégration par différence plus forte et non moindre comme le croit Durkheim, oublieux des formes d'intégration, et qui en est réduit alors à considérer l'intégration comme une réalité unique susceptible de varier seulement en intensité. »3. Si on prend donc en compte cet aspect non pas nécessairement multifactoriel, en dépassant justement une conception numérique, et qu'on s'intéresse à cet aspect qualitatif, les probabilités se révèlent davantage comme un artefact aidant le chercheur que la marque objective et réelle de la contrainte sociale.

Si on ne va pas s'intéresser plus longuement au cas du suicide et de ses déterminantes sociales, on voit en tout cas le réductionnisme (qu'on pourrait juger de superficiel) d'une approche statistique se tenant à chercher les probabilités des événements comme des choses. Cette précaution est tout-à-fait actuelle car si Durkheim n'avait même pas de calculette à quatre opérations, nous disposons aujourd'hui d'ordinateurs et donc d'analyses de probabilités très fines, multiniveaux et ce, surtout dans l'activité de modélisation.

La modélisation et la perte de l'origine des probabilités

Je m'appuie ici sur l'article de Michel Armatte « La notion de modèle dans les sciences sociales : anciennes et nouvelles significations ». Le modèle est, selon lui, un emprunt aux mathématiques par la physique, puis à cette science par l'économie (entre autres). Jean Ullmo y voyait par exemple un moyen pour les sciences de gagner en précision et en rigueur, en transposant en termes mathématiques et testables des propositions parfois abstraites. Les probabilités se sont donc retrouvées naturellement dans ces modélisations.Voilà comment l'auteur de cet article résume la chose :

« Pratiquement, les équations comportent donc un terme aléatoire qui rend compte à la fois des erreurs de mesure, des erreurs d'échantillonnage de l'observateur et de ''Dame Nature'', et des variabilités de comportements individuels autour de la relation moyenne. Le modèle, c'est l'ensemble des hypothèses qui sont formulées sur ces relations et sur ces termes d'erreurs dans la phase de spécification. Tester une hypothèse, c'est la confronter aux observations statistiques par l'intermédiaire de ce modèle. C'est plus précisément tester au sens statistique les hypothèses probabilistes du modèle qui portent sur la loi conjointe des termes d'erreurs. Toute la complexité de l'adéquation d'une théorie à une donnée empirique est ainsi réduite à l'opération plus délimitée d'un test d'hypothèses probabilistes. »4

Le problème de la modélisation est qu'il peut prendre une forme irréfutable. Premièrement, les données empiriques, pour être traitables par le modèle, sont calibrées. On intègre donc à celles-ci, par transformation et pour adéquation, les présupposés théoriques du modèle. Ceci peut donc parfois amener un simuli de test, gardant toujours intact la théorie dans son ensemble sans la confronter en-dehors de ses postulats, tout en permettant de se réclamer attentif à l'empirie : « Dans certains cas, le traitement de ces données peut même jouer un rôle heuristique et inductif important qui se suffit à lui-même. (…) Le modèle n'est plus un système formel qui représente un système physique bien défini et délimité pour lequel on a des lois valables ceteris paribus. Le modèle devient un mécanisme d'intégration de données produites par des sous-systèmes d'information. Le modèle, ensemble d'équations, d'interfaces, de données qui s'est transformé en logiciel, constitue un système de substitution au système réel, dont on n'a pas de théories complètes et qui permet de faire des expériences fictives, pour comprendre le jeu complexe de ses interactions. Et ces expériences fictives constituent bien une méthodologie de rechange, par rapport à la méthode hypothético-déductive aussi bien que par rapport à la méthode expérimentale, dans le cas de systèmes complexes. »5.

Secondement, cette irréfutabilité réside dans la complexité des modèles. Elle a atteint un niveau tel qu'on ne sait pas toujours ce qu'on teste (ceci est surtout vrai pour les modèles climatiques et peut-être un peu moins dans les sciences sociales). « Le modèle n'existe pas sans le logiciel et il se confond avec lui. Comme ces modèles évoluent en permanence, les simulations exhibées sont difficilement attribuables à un système d'équations bien identifiées et difficilement reproductibles. »6. On se retrouve parfois alors à ce que craingnait Karl Popper, c'est-à-dire tester la probabilité plus que l'énoncé probabiliste. Parfois, le « hasard » devient même une variable, la justification étant le caractère stochastique du comportement humain (mais dont il est difficile d'évaluer la part aléatoire de façon convaincante).

Cependant, Michel Armatte appelle à l'analyse de l'activité de modélisation et de ses effets sociaux plus qu'à tenter de prouver ou d'infirmer leur scientificité, surtout qu'elle n'a pas toujours un usage strictement scientifique, comme on peut le voir dans la finance. L'exemple de la dernière crise nous offre un cas intéressant de la construction et des conséquences des modélisations et des probabilités sur le comportement économique des acteurs en présence. Christian Chavagneux nous apprend ainsi que selon l'indice VaR (Value at Risk, utilisé pour évaluer les pertes potentielles de paris risqués depuis les années 1990), certains événements qu'on a pu observé avaient une probabilité d'apparition égale à la probabilité de gagner vingt fois de suite au Loto (car ils étaient à vingt cinq écarts-types). Et pourtant, ils ont eu lieu ! On peut donc douter de la pertinence de cet outil...

Cet indice dénote en réalité d'une volonté de synthétiser un maximum d'informations en un chiffre compréhensible et précis : « C'est ce qui a séduit les financiers : la possibilité d'avoir un indicateur unique de suivi des risques, bâti sur des techniques scientifiques de haut niveau mais facile à interpréter (…). Un chiffre magique ! »7. L'économiste nous décrit également que les méthodes d'évaluation des risques ont parfois été changés afin de les minimiser (car certains rapports de pouvoir au sein des institutions financières étaient bénéfiques à ceux qui souhaitaient prendre des risques). On voit donc à quel point cette activité de modélisation est sociale, c'est-à-dire empêtrée dans des relations entre acteurs et dépendante de certains intérêts.

Conclusion : rendre les probabilités modestes

Dans la finance aussi, les probabilités sont considérées comme objectives. Quelle approche devrions-nous donc avoir face à ces énoncés ? Daniel Courgeau nous propose d'appliquer le calcul des probabilités pour évaluer les degrés auxquels il est raisonnable de croire en la vérité des propositions. C'est-à-dire de nous attacher davantage à ce que nous savons plutôt qu'à ce que nous pourrions savoir (et ne plus considérer alors les données comme l'échantillon d'une ''super population''). Du fait que cette approche soit relative à nos connaissances, il l'appelle épistémique : « L'existence d'une telle ''super population'' est une hypothèse superflue à l'objectif du chercheur en sciences sociales, qui est de tester si une relation peut être considérée comme vérifiée ou non dans la population observée. Il paraît dès lors préférable d'utiliser une approche épistémique qui évite de poser de telles conditions et qui permet une estimation utilisant seulement les données observées. »8.

Ceci appelle à plus de modestie pour les probabilités en sciences sociales. Cette utilisation nous permet également de faire référence à la présence du chercheur sur son terrain qui n'a pas une vue d'ensemble d'une population par l'échantillon mais qui prend en compte le contexte de sa collecte de données en la relativisant. Cette démarche peut s'appliquer durant l'enquête et la présentation des résultats. Ainsi, si les chiffres ont le pouvoir de rendre les choses objectives (parfois illégitimement), le rôle du sociologue pourrait être celui de rappeler la manière de les produire (et de montrer qui les produit) et leur modestie (plus que de revenir sur leur scientificité) et ce, également pour lui-même et ses propres démarches.

1Daniel Courgeau, « Probabilité, démographie et sciences sociales », Mathematics and social sciences, n° 167, 2004 (3), p. 32

2Baudelot C. et Establet R., Durkheim et le suicide, PUF, Philosophie, 1984, p. 24

3Baudelot C. et Establet R., Durkheim et le suicide, PUF, Philosophie, 1984, p. 120-121

4Armatte Michel, « La notion de modèle dans les sciences sociales : anciennes et nouvelles significations », Mathematics and social sciences, n° 172, 2005 (4), p. 106

5Armatte Michel, « La notion de modèle dans les sciences sociales : anciennes et nouvelles significations », Mathematics and social sciences, n° 172, 2005 (4), p. 113

6Armatte Michel, « La notion de modèle dans les sciences sociales : anciennes et nouvelles significations », Mathematics and social sciences, n° 172, 2005 (4), p. 113

7Chavagneux Christian, Une brève histoire des crises financières. Des tulipes aux subprimes, La Découverte, Cahiers Libres, 2011, p. 125

8Daniel Courgeau, « Probabilité, démographie et sciences sociales », Mathematics and social sciences, n° 167, 2004 (3), p. 44

 Bibliographie

Armatte Michel, « La notion de modèle dans les sciences sociales : anciennes et nouvelles significations », Mathematics and social sciences, n° 172, 2005 (4), pp. 91-123

Baudelot C. et Establet R., Durkheim et le suicide, PUF, Philosophie, 1984

Chavagneux Christian, Une brève histoire des crises financières. Des tulipes aux subprimes, La Découverte, Cahiers Libres, 2011

Courgeau Daniel, « Probabilité, démographie et sciences sociales », Mathematics and social sciences, n° 167, 2004 (3), pp. 27-50

Popper Karl, The logic of scientific discovery, Routledge Classics, London and New York, 1992 (1935)


 

Partager cet article
Repost0
Pour être informé des derniers articles, inscrivez vous :
Commenter cet article