AU JOURNAL DE FRANCE 2, le 21 août 2005, Mademoiselle Gessler a interviewé un pilote d’avion implicitement présenté comme un expert. Interrogé sur le pourcentage de risque qu’un bi-réacteur voie ses 2 moteurs tomber en panne à peu de minutes d’intervalle suite à un problème de carburant, si j’ai bien entendu, l’expert a dit que « ce risque est de une chance [sic] sur un milliard, donc quasiment nul ». Ensuite, il a amalgamé « loi de Murphy » et « loi des séries », sans - cela va de soi - justifier ce point de vue.
Pour ce que j’en sais, la « Loi de Murphy » n’est pas une loi, mais un simple truisme (« If it can do wrong, it will », je crois). Quant à la « loi des séries », je n’ai pas réussi à en trouver une formulation intelligible qui puisse justifier sa qualité de loi. On (en gros, la télévision) évoque (invoque ?) cette « loi » seulement après avoir constaté une suite d’accidents catastrophiques mais jamais avant que se produise le premier événement de la suite. Je pense que, si une telle loi existait, on (pas seulement la télévision) pourrait prévenir les victimes potentielles des dangers qu’elles vont risquer de courir durant telle période et dans telles circonstances. En fait, on constate une suite de catastrophes dans un temps assez limité ; au bout d’un certain nombre d’événements négatifs, on interprète cette suite de « coïncidences » en se référant à « la loi des séries » (toujours informulée) pour lui conférer une signification qui n’a rien à voir avec une démarche scientifique. Le châtiment de Dieu n’est pas loin… Qui plus est, cette « loi » est fort utile pour implicitement dédouaner les responsables de leurs erreurs et/ou négligences techniques, de leurs comportements démagogiques, de leurs promesses non tenues, de leur incompétence, de leurs modes de pensée préhistoriques, de leur soumission à l’idéologie dominante, etc.
Mes connaissances en statistique sont nulles, mais je pense ne pas dire de bêtises en écrivant que les statisticiens sont amenés à parler de séries comme événements stochastiques dont le constat sera faisable après qu’ils se seraient produits ; en ce sens, ils sont donc prévisibles, mais sans plus de précision, sans qu’il soit possible de légiférer à leur endroit.
Qu’en pensez-vous ? Merci pour la réponse.
Michel Faligand
Réponse de René Padieu
La « loi de Murphy », n’est pas un « truisme », mais une galéjade. C’est par dérision qu’on dit « loi ». Avant qu’un Anglo-saxon la rende célèbre sous ce nom, nous la connaissions depuis des décennies sous des appellations telles que principe d’Archimerde ou principe de l’enquiquinement maximum (écho au principe de moindre action, de Maupertuis). Ou encore sous des formes locales : théorème de la tartine beurrée, etc. C’est une formulation réactionnelle, d’agacement envers ce qui cloche, due à ce que nous remarquons ce qui cloche, qui donc nous paraît anormalement fréquent puisque cent fois nous n’avons pas remarqué ce qui n’avait pas cloché. Cette « loi », constituerait donc une « projection » d’une loi psychologique qui nous est propre et qui consiste à sélectionner les événements.
La « loi des séries » procède du même mécanisme. Sauf que Murphy-Archimerde s’intéresse à un événement fâcheux isolé, tandis que celle-ci s’intéresse aux répétitions ou coïncidences. (Pas forcément d’événements regrettables : il y a eu 4 naissances ces trois derniers mois dans ma famille proche.) Le mécanisme psychologique est : ce qui n’est pas très fréquent tout en arrivant quand même assez souvent ne nous semble pas devoir se reproduire. Si ça se reproduit, nous disons « avoir joué de malchance » : ce qui dénote la croyance en une probabilité anormale. En réalité, la coïncidence ou succession de deux événements indépendants a une probabilité égale au carré de la probabilité de chacun : si un événement a une chance sur cent, deux ont une chance sur dix mille. Ceci nous semble peu, donc négligeable, donc impossible... Et, si ça se produit, nous le repérons comme insolite. Invoquer la « loi des séries » est alors une façon de recaler les choses : en faisant rentrer dans une certaine normalité un événement normal qui nous paraissait anormal.
Cela dit, une telle « série » peut bel et bien aussi résulter d’une cause sous-jacente qui augmente la probabilité des événements en cause ; ou encore, qui leur confère une corrélation positive. Dans le texte qui nous est envoyé, dire « ses 2 moteurs tombés en panne à peu de minutes d’intervalle suite à un problème de carburant » essaie de nous apitoyer sur l’effroyable coïncidence que les deux moteurs tombent en panne, alors que si l’on n’a plus de carburant, c’est une seule et même panne : avec un quadrimoteur, les 4 moteurs s’arrêteraient. De même, on dit quelquefois qu’un suicide ou un attentat terroriste ou un incendie volontaire, rapporté par la presse, suscite des vocations et qu’on observe alors une série induite par le fait initial et déclencheur.
Des événements aléatoires (c’est aussi bien que « stochastiques ») sont en effet prévisibles en ce sens qu’on peut s’attendre à ce qu’ils se produisent, mais sans qu’on soit sûr qu’ils se produiront ni qu’on sache quand. (Une fois, dans un projet d’étude, j’avais écrit que « la mort est aléatoire » : mes relecteurs m’ont fait remarquer qu’elle est certaine, mais que c’est sa date qui est aléatoire.) On pourra en effet constater le fait après qu’il se sera produit (s’il se produit). Et, auparavant, on ne peut que lui affecter une probabilité : au moins une probabilité subjective (reflet de nos espoirs et craintes) et parfois une probabilité mesurée par le décompte d’événements antérieurs : c’est ainsi que les actuaires construisent leurs « tables de mortalité » pour calculer les barèmes d’assurance (Murphy n’a pas ses entrées chez eux) ; mais ils pourraient éventuellement prendre en compte des probabilités sérielles, s’ils sont capables de mesurer la corrélation ou l’induction de plusieurs événements.
..
EN PERIODE de campagne électorale ou préélectorale, les sondages fleurissent. On nous précise le nombre de sondés, la méthode de sondage, la période durant laquelle les gens ont été interrogés, mais jamais l’intervalle de confiance des résultats diffusés : les fourchettes sont réservées pour le cas où les valeurs absolues sont trop différentes des résultats réels pour sauvegarder la crédibilité des organismes de sondages. Mais, déformé par la fréquentation de Pénombre, je me pose d’autres questions. Un sondage portant sur 1 042 personnes est-il plus fiable qu’un sondage sur seulement 984 personnes ? Un sondage par téléphone est-il valable ? La méthode des « quotas » est-elle la seule utilisable ou la plus fiable ? J’espère que les spécialistes de Pénombre pourront lever mes doutes.
J. Barrault, Carpentras
Réponse de Daniel Cote-Colisson
Nos vieux maîtres avaient voulu nous convaincre de la suprématie des échantillons aléatoires et, voici une quarantaine d’années, passaient généralement sous silence les autres méthodes, dont celle des quotas qui, soit dit en passant, n’est pas la seule alternative. Pourtant, dans l’immense majorité des travaux, les instituts de sondage ont toujours utilisé les quotas. De même, l’interview téléphonique, encore rejetée par de nombreux spécialistes au début des années 1980, s’est développée massivement avec la généralisation du téléphone et l’apparition d’outils de gestion et de traitement des enquêtes très performants.
Première interrogation sur la supériorité du sondage aléatoire ? Avec cette méthode, chacun présente a priori la même probabilité d’être interrogé. Mais certaines personnes ne pourront être jointes (absence, horaires décalés, etc.) et d’autres refuseront l’interview. L’échantillon final ne sera donc pas strictement conforme et, à défaut d’ajustement sur la base d’un tirage complémentaire, sera d’une taille inférieure à celle prévue. En outre, on ne saura pas si les opinions des non répondants sont ou non différentes de celles des répondants.
À l’inverse, avec les quotas, on a toutes les chances de parvenir à un échantillon proche de la taille recherchée mais sans l’assurance que la maquette ainsi constituée est conforme (supposons deux quotas de sexe – moitié hommes, moitié femmes, et d’âge – un tiers de moins de 30 ans, un tiers de 30 à 49 ans et un tiers de 50 ans et plus : que vaudrait un échantillon dont les quotas auraient été satisfaits mais dont tous les moins de 30 ans seraient de sexe féminin, tous les plus de 50 ans de sexe masculin et les 30 à 49 ans à parité, puisque les quotas ne sont généralement pas croisés ?) Et la question des personnes refusant de répondre reste pendante.
Différents travaux de comparaison entre les deux méthodes ont été effectués (deux exemples : http://www.sidos.ch/publications/f_ns_dj_sampling.pdf et http://www.refips.org/files/international/4%E8mes%20rencontres%20du%20REFIPS.pdf ) et ne démontrent pas de supériorité absolue d’une méthode. Néanmoins, la mesure que donne le sondage présente toujours une incertitude ou marge d’erreur, liée à (mais pas seulement) la taille de l’échantillon, et que l’on ne sait déterminer en toute rigueur que dans le cas des sondages aléatoires mais qu’on étend (abusivement ?) aux sondages réalisés suivant la méthode des quotas.
Et quid d’un échantillon de 984 versus 1 042 ? Avec 50 % de réponses « oui » à une question, l’intervalle de confiance serait respectivement de ± 3,12 % (échantillon de 984 personnes interrogées) et ± 3,04 % (1 042) à 95 % ou de ± 1,59 % et ± 1,55 % à 66 %…, soit une différence ténue qui se creuserait si on augmentait la taille de l’échantillon (on diviserait l’intervalle par 3 en multipliant l’échantillon par 9).
Ceci suggère à certains que les résultats sont d’autant plus sûrs que l’échantillon est grand. Ainsi, les médias ont-ils largement cité l’étude « The European Music Census 2005 » réalisée sur Internet par la chaîne Music Choice avec quelque 45 000 répondants dont 10 000 Français, dont les réponses montrent qu’ils ont « des goûts musicaux très classiques » avec les Beatles pour pleurer, les Bee Gees pour danser et Céline Dion à écouter en cachette. Mais le sondage, quelle que soit la taille de l’échantillon, n’est ici représentatif que des Français qui y ont répondu et non des Français en général. De même, la taille de l’échantillon total est moins importante que celle de la sous-population concernée.
À l’opposé, des enquêtes sont réalisées sur de petits, voire très petits échantillons (cas des contrôles industriels destructifs), avec des résultats convaincants. Car la qualité du sondage n’est pas seulement reliée à la taille de l’échantillon mais bien aux conditions de sa réalisation : le matériau humain est un matériau fragile qu’il faut approcher avec soin.
Rappelons-nous toujours l’adage : « garbage in, garbage out » (voir aussi le principe SISO - Shit In Shit Out – des informaticiens) et ne nous focalisons pas sur la taille des échantillons.
..
Un lecteur de la Réunion lève le voile sur les chiffres de l’épidémie de chikungunya qui y sévit. Chikungunya : « marcher courbé » en swahili, en référence au fortes douleurs articulaires provoquées par le virus.
Aux dernières nouvelles, il y aurait 1 922 cas « suspectés » de chikungunya ! Ce chiffre ne veut pas dire grand-chose. D’une part, la méthode de comptage des cas est très discutable car elle est loin d’être organisée et systématique. D’autre part, le nombre de cas « déclarés » ne peut qu’augmenter puisque c’est une addition des cas depuis le début de l’épidémie... sans qu’on en déduise les personnes guéries entre-temps. Il y a donc, en réalité aujourd’hui, moins de 1 922 cas (hors insuffisances du comptage, bien sûr). Heureusement pour les personnes qui ont été atteintes au début de l’épidémie, on leur souhaite de s’être rétablies depuis...
On tire de ce chiffre qui ne cesse d’augmenter des conclusions aberrantes du style : « de plus en plus de cas » (certains médias l’ont écrit ou dit). Évidemment qu’il y a de plus en plus de cas. Si dans cette semaine, seulement 10 cas étaient comptabilisés, on se retrouverait avec 1 932 cas, donc plus que la semaine passée et ainsi de suite ! En fait, il est impossible de savoir si l’épidémie augmente ou diminue. Pourtant, il ne devrait pas être très difficile au service responsable de mettre à la disposition des médias des sous-totaux hebdomadaires, par exemple, qui auraient le mérite de nous permettre de savoir si l’épidémie s’accentue ou se ralentit.
Charles Durand
Pénombre, Décembre 2005