Rastell Toull

Site web consacrée à la Bretagne,
à l'Afrique du nord
à la chanson française,
à la recherche scientifique,
et à bien d'autres sujets ...

Théorème de Bayes et causalité

par Jacques-Deric Rouault

Article original
Page publique
Page opérationnelle

Version 4.1 du
4 Mai 2012

Table thématique
Table chronologique
Administrateur du site
Comment citer ce document ?
Jacques-Deric Rouault, 2012. Théorème de Bayes et causalité. Rastell Toull page C119.

Présentation

    Le théorème de Bayes, première pierre sur laquelle repose tout l'édifice de la statistique mathématique, est aussi appelé Probabilités des causes et est couramment interprété de la façon suivante : Si l'on considère les événements Ai comme des causes diverses pouvant  engendrer l'événement B, le théorème de Bayes permet, après réalisation de cet événement, de savoir quelle est la probabilité de chacune des causes (Lebart, Fénelon, 1975 p26).

    Dans cette formulation, il est question de causes, donc de conséquences, et il est alors fait référence, de façon implicite à un phénomène temporel. Cette introduction du temps dans le calcul des probabilités est très troublante dans le cas d'une théorie mathématique. D'après Costa de Beauregard (1967), le théorème de Bayes constitue la première apparition de l'irréversibilité du temps dans la démarche scientifique, avant le principe de Carnot (1824) en thermodynamique et le principe de retardation des ondes en mécanique statistique quantique, qui peuvent être considérées comme des specifications particulières du principe de Bayes. Le théorème de Bayes introduit une dissymétrie essentielle entre problèmes de prédiction et problèmes de retrodiction statistique (problème de probabilité des causes).

    Ce théorème constitue le principe fondateur de l'inférence statistique et c'est le point de départ et de divergence des principales théories statistiques (Bretthorst, 1994).
Ce théorème fait aujourd'hui l'objet d'un regain d'intéret avec les méthodes dites néobayesiennes (Malakoff 1999).

    Comme la théorie des probabilités n'intègre pas de dimension temporelle explicite, nous cherchons dans cet article à comprendre comment ce facteur d'asymétrie temporelle irréversible a pu être subrepticement introduit dans le raisonnement, et ce que cela représente.


Le texte originel de Bayes

    Thomas Bayes serait né en Angleterre en 1701 ou 1702. Vers 1720, il est ordonné pasteur de Eglise presbytérienne, comme son père, et poursuivra son ministère jusqu'en 1752, date à laquelle il prendra sa retraite. Il est décédé en 1761.

    De son vivant, il a publié deux textes, mais le Théorème de Bayes figure dans un texte posthume Essay towards solving a problem in the doctrine of chances, essai que son ami Richard Price, pasteur presbytérien comme lui, a retrouvé dans ses archives, et qu'il a présenté à la Royal Society deux ans après son décès. Ce texte a été republié en 1958 dans Biometrica.
Il s'agit d'un texte relativement long, et qui traite de plusieurs questions. Ce texte a déjà été analysé par Droesbeke et al (2002) et a fait l'objet d'un commentaire sur Internet pa Xi'An. Nous suivrons la numérotation des pages de la re-édition dans Biometrica, 1958.

    Le texte commence par trois pages (296-298) d'introduction écrites par Richard Price. Le texte de Bayes commence au bas de la page 298 par l'énoncé d'un problème :

    Given the number of times in which an unknown event has happened and failed: Required the chance that the probability of its happening in a single trial lies somewhere between any two degrees of probability that can be named.

    Que je traduis par : Etant donné le nombre de fois qu'un événement inconnu a été tiré et s'est ou ne s'est pas réalisé : on recherche sa probabilité de réalisation dans un seul tirage qui soit comprise entre deux degrés de probabilités qu'on pourra évaluer.

    Suit ensuite une section I avec 7 définitions, et les propositions 1 à 7 (pages 198-302), puis une section II avec les propositions 8 à 10 (302-308). A partir du bas de la page 308, il y a des règles 1 à 3 (308-311) et une appendice (311-315), qui seraient de la main de de Richard Price, ou au moins des notes de Bayes re-rédigées par ce dernier. Au bas de la page 312 et en haut de lapage 313, il y a un exemple que nous reprendrons par la suite : 
   
    Let us imagine to ourselves the case of a person just brought forth into this world, and left to collect from his observation of the order and course of events what powers and causes take place in it. The Sun would, probably, be the first object that would engage his attention; but after losing it the first night he would be entirely ignorant whether he should ever see it again. He would therefore be in the condition of a person making a first experiment about an event entirely unknown to him. But let him see a second appearance or one return of the Sun, and an expectation would be raised in him of a second return, and he might know that there was an odds of 3 to 1 for some probability of this. This odds would increase, as before represented, with the number of returns to which he was witness. But no finite number of returns would be sufficient to produce absolute or physical certainty.

Les successeurs

    Pierre Simon de Laplace retrouve en 1774 le théorème de Bayes, publié en 1763, sans en avoir probablement eu connaissance. Il en déduit la règle de succession, en partant du nombre s de succès pour un nombre n total de tirages : la probabilité que le prochaintirage est un succès est (s+1)/(n+2). Par exemple, Laplace calcule la probabilité que le soleil se lève demain à (d+1)/(d+2), en estimant d à 5000 ans ou 1826313 jours.

    George Boole

    John Venn (Fisher 24+) La règle des succession

    D'après O'Connor & Robertson, l'attribution de ce théorème à Bayes serait due à Poincaré.

Le théorème, dans sa version actuelle

    Nous reprenons ici de façon très synthétique la démonstration du théorème de Bayes, en suivant l'exposition de Lebart, Morineau et Fénelon (1979). Cette démonstration est élémentaire et accessible à un élève de lycée qui connait la définition d'une probabilité. La seule difficulté réside dans la notation des probabilités conditionnelles P(A|B) qui signifie Probabilité de l'événement A sachant que l'événement B a été réalisé.

    Considérons un tirage où 3 types d'événements sont observables : un événement A de probabilité P(A), un événement B de probabilité P(B) et l'ensemble des autres événements de probabilité 1-P(A)-P(B).

    Nous effectuons 2 tirages en les considérant dans un ordre arbitraire de référence (le premier puis le second) qui n'est pas nécessairement l'ordre temporel.         L'ordre temporel sera précisé ultérieurement quand nécessaire. Il y a sept possibilités :
        1) Tirage de A puis de A.
        2) Tirage de A puis de B.
        3) Tirage de A puis d'un événement différent de A ou B.
        4) Tirage de B puis de A.
        5) Tirage de B puis de B.
        6) Tirage de B puis d'un événement différent de A ou B.
        7) Tirage d'un premier événement différent de A ou B.

    Nous cherchons à présent à calculer la probabilité de la 4e possibilité, à savoir la probabilité (dite conditionnelle) de réalisation de l'événement A suivant la réalisation de l'événement de B, notée P(A|B) et qui est définie par le quotient de 
(probabilité de réaliser A et B en deux tirages indépendamment de l'ordre) par P(B) (probabilité de réaliser B) :

                                                                       (1)

    Si nous considérons la seconde possibilité, nous pouvons écrire de même :
                                                                     (2)

    On remarquera que somme des 7 probabilités correspondant aux 7 événement énumérés ci-dessus donne bien 1 (il s'agit d'une vraie probabilité).

    Ces deux relations permettent de définir la loi de multiplication :
      
                                       (3)

    De la seconde égalité, on déduit la formule de Bayes :
                                                          (4)

    Si nous considérons une famille complète Aj d'événements (les événements Aj sont deux à deux disjoints), la loi des probabilités totales s'écrit :
        
                                                                                     (5)
    La somme est effectuée sur j da 1 à n.

    En appliquant la formule (3) à l'événement Aj
        
                                                       (6)

    Nous reprenons la formule de Bayes (4) en l'appliquant à un événement Ai particulier. Nous obtenons le théorème de Bayes :
          
                         (7)

    Dans cette formule, P(Ai) est appelé la probabilité a priori de Ai, autrement dit la probabilité initiale d'observer Ai. P(Ai|B) est appelé la probabilité a posteriori de Ai. P(B|Ai) est la vraisemblance. La division par la somme permet d'avoir une vraie probabilité, dont la somme des valeurs est égale à l'unité.

    Dans le contexte classique du théorème de Bayes également appelé théorème de probabilités des causes, on considère que le premier tirage a déjà été effectué et on s'apprête à effectuer le second tirage. On sait qu'un événement B s'est réalisé, et l'on veut tenir compte de cette information pour apprécier la probabilité de réalisation d'un autre événement A. (Lebart, Morineau, Fénelon, 1979 p14). Si l'on considère les événements Ai comme des cause diverses pouvant engendrer l'événement B, la formule (6) permet, après réalisation de cet événement, de savoir quelle est la probabilité de chacune des causes (Lebart, Fénelon, 1975).

    Le théorème de Bayes se généralise directement aux variables aléatoires continues (Lefort p510)


Exemples d'application

    Voici quelques exemples classiques d'application du théorème de Bayes.
  
    Considérons ici le paradoxe proposé par Gamov et Stern (1961) : On place trois cartes dans un chapeau ; une des cartes a deux cotés rouges, une autre deux cotés blancs, et la troisième a un coté rouge et un coté blanc. Quand on tire une carte et qu'on regarde l'une des faces, il y a 6 possibilités. A présent, on tire une carte, et on observe qu'elle est rouge (événement B). Quelle est la probabilité que l'autre coté soit rouge (carte rouge-rouge) (événement A) ?  Une première réponse consiste à observer qu'il y a au total autant de faces rouges que de faces blanches, donc que la probabilité est 1/2. Ce raisonnement intuitif est faux, car on n'a pas pris en compte le fait qu'on dispose d'une première information, à savoir l'événement B comme quoi on sait que l'une des deux faces de cette carte est rouge. Quand on prend en compte l'information apportée par l'événement B, le nombre de possibilités se réduit de 6 à 3 : l'événement B peut correspondre aux deux cotés de la première carte, au coté rouge de la troisième carte, quant à la seconde carte aux deux cotés blancs, elle est à présent exclue. Donc il a 2 chances que la seconde face soit rouge, et une qu'elle soit blanche, ce qui nous donne un probabilité de 2/3. En appliquant directement la formule de Bayes, nous avons bien P(A|B) = P(A) * P (B|A) / P(B) =
/ P(B) = (1/3) / (3/6) = 2/3.

    Considérons un second exemple élémentaire, donné dans Lebart et Fénelon (1975). Nous avons 2 urnes contenant chacune 10 boules. La première U1 contient 2 boules blanches et 8 noires. La seconde U2 contient 6 boules blanches et 4 noires. On sait d'autre part qu'on a deux fois plus de chances de tirer dans l'urne U1 que dans l'urne U2. On sait que la boule tirée est noire. Quelles est la probabilité qu'elle provienne de l'urne U1 ? Nous commençons par définir les deux événements A et B. L'événement B est le tirage d'une boule noire. Les événements A1 et A2 sont les tirages dans les urnes U1 et U2, donc P(A1)=2/3 et P(A2)=1/3. La probabilité de tirer une boule noire dans l'urne U1 est P(B|A1) = 8/10, de tirer une boule noire dans l'urne U2 est P(B|A2)=4/10. On applique alors le théorème de Bayes (7) : P(A1|B) = (2/3 * 8/10) / (2/3*8/10 + 1/3*4/10) = 0.8.  Si les deux urnes U1 et U2 avaient été équiprobables, on aurait
P(A1)=P(A2)=1/2 et P(A1|B) = (1/2 * 8/10) / (1/2*8/10 + 1/2*4/10) = 0.666...

    Un troisième exemple, emprunté à la génétique est donné par Lefort (p 447) et concerne le croisement de pois à fleurs jaunes et vertes. La couleur des fleurs est un phénotype lié à deux allèles J et v. Un individu a 4 génotypes possibles : JJ, Jv, vJ et vv. L'allèle J est dominant sur l'allèle v, et les fleurs de génotype JJ, Jv et vJ ont une couleur jaune alors que les fleurs de phénotype vv sont vertes. Nous partons du croisement des deux homozygotes  JJ * vv. Les plantes de première génération sont toutes hétérozygotes Jv ou vJ, de couleur jaune. A la seconde génération, nous aurons les 4 génotypes possibles, donc 3 fleurs jaunes pour une fleur verte.  La probabilité qu'une plante à fleurs jaunes de la seconde génération soit hétérogygote (événement H, donc de phénoype Jv ou vJ, sur les 3 possibilités JJ, Jv et vJ, est donc P(H)=2/3, celle qu'elle soit homozygote est P(D)=1/3. Maintenant nous croisons une plante à fleurs jaunes avec une plante à fleurs vertes et nous obtenons à la génération suivante l'événement A soit 5 plantes à fleurs jaunes. Nous recherchons la probabilité que la plante mère à fleurs jaune soit héterozygote (événement B). Si la plante à fleurs jaunes est homozygote, toutes ses plantes filles sont également jaunes donc P(A|D)=1. Si la plante à fleurs jaunes est hétérozygote, il y une chance sur deux qu'une plante fille soit jaune, donc P(A|H)=(1/2)^5 = 1/32. On applique alors le théorème de Bayes :
P(D|A) = (1/3) * 1 / [
(1/3) * 1 + (2/3)*(1/32) ] = 16/17 = 0.941...

L'inférence statistique

    Probabilités et statistiques : dans le calcul des probabilités, on connait la distribution a priori de façon certaine, et on en déduit de façon rigoureuse, selon un raisonnement hypothético-déductif, la distribution a posteriori. Dans un raisonnement statistique, on dispose d'observations correspondant à la distribution a posteriori, dont on ignore sa distribution exacte, et on cherche à déterminer la distribution a priori. Pour cela on suit un raisonnement inférentiel, qui part d'observations pour arriver à des lois générales, avec un risque de se tromper.

    L'inférence combinatoire s'applique à des observations discrètes, de l'ordre du dénombrable. Il est alors possible de recenser tous les possibles et de leur associer une probabilité. (voir les deux exemples ci-dessus). Mais cette approche n'est plus pratiquable si le nombre de possibles devient trop élevé ou si les observations appartiennentau domaine du continu.

    Dans l'inférence fréquentiste on considère que les lois a priori et a posteriori sont gaussiennes, et sous ces hypothèses, on cherche à maximiser la fonction de vraissemblance (likelihood). Les hypothèses de normalité des distribution sont des approximations, qui peuvent être assez grossières dans certains cas, et leur utilisation est critiquée par les (neo)bayesiens.

    Dans l'inférence (neo)bayesienne, on suppose qu'on connait la distribution des lois a priori, et on en déduit la distribution des lois a posteriori. On peut supposer que les lois a priori sont sont gaussiennes, mais en général, en absence totale d'information, on prendra des distributions uniformes, appliquant en cela le principe d'équirépartition de l'ignorance de Laplace. En règle générale, les lois a priori sont totalement inconnues, et le choix de distributions de référence est critiqué par les tenants de l'inférence statistique classique.

Le second théorème de Bayes

    Reprenons la loi de multiplication (3)
      
                                       (3)

    Et cette fois, exprimons la probabilité P(A) en fonction des autres termes :
                                                          (9)

    Plus généralement :
                               (10)  

    Ce second théorème de Bayes exprime la probabilité a priori P(A) de l'événement A comme égale au produit de la probabilité a posteriori P(A|B) de A sachant B par une quantité qui est l'inverse de la vraisemblance, et qu'on pourrait appeler l'invraissemblance. A partir de ce second théorème de Bayes, il devient possible de construire, en miroir, de nouvelles inférences statistiques, par exemple une inférence fréquentiste basée sur la recherche d'un minimum d'invraissemblance ...

   
Si nous interprétons ce second théorème de Bayes (de probabilités des conséquences) dans les mêmes termes que le premier (théorème de probabilités des causes), cela donne : ce théorème permet de prédire la probabilité a priori, qui se place dans le passé déjà réalisé, en fonction de la probabilité a posteriori, qui se projette dans le futur non encore réalisé. Donc d'expliquer les causes passées comme fonction des conséquences futures. Nous nous trouvons ici devant une contradiction majeure avec le principe fondamental de la relation de cause à effet (Descartes, le discours sur la méthode, 1637) : la cause doit précéder l'effet dans le temps.

    La question est déterminer la source de cette contradiction majeure. De toute évidence, il ne s'agit pas des formules mathématiques elles-mêmes, mais de leur interprétation. Ces deux théorèmes
demeurent valables si on se place avant le premier tirage, après le second tirage, où même si on inverse l'ordre des tirages. En effet, pour établir ces deux théorèmes, il apparaît que l'ordre temporel des deux tirages considérés n'a pas besoin d'être précisé. Autrement dit, on n'a pas besoin d'introduire une quelconque hypothèse temporelle.  Il apparait donc ici clairement que l'interprétation temporelle, et donc en termes de causalité est non seulement inadéquate mais totalement fausse. Contrairement à ce qu'écrivait Costa de Beauregard en 1967, le temps du théorème de Bayes est bien réversible, comme le prouve son second théorème.
   
    Dans le théorème de Bayes, nul n'est besoin de faire intervenir une dimension temporelle : ce théorème est vrai qu'on se place avant le premier tirage, entre les deux tirages, après le second tirage ; il reste vrai si on inverse l'ordre des tirages, si on les réalise simultanément, et même si ceux-ci ne sont jamais réalisés ! Comme souvent en mathématiques, il y a une contradiction patente entre la variable temps du modèle (totalement réversible par exemple en cinématique) et le temps à sens unique dans lequel nous vivons, qui s'écoule du passé vers le futur. C'est notre interprétation du théorème de Bayes, avec notre fausse intuition du temps mathématique, qui est erronnée. Il faut reconnaitre ici que c'est Bayes lui-même qui a mis le ver dans le fruit !

La question sous-jacente

    Tout d'abord, il faut replacer Bayes dans le contexte phylosophico-scientifique des son époque. Contrairement à aujourd'hui, la démarche scientifique était alors intimement liée aux croyances religieuses. En 1600, Giordano Bruno, dominicain défroqué qui avait soutenu l'héliocentrisme de Copernic et inventé la pluralité des mondes - thème récurrent de la littérature de science-fiction du XXe siècle - avait été succéssivement déclaré hérétique par les catholiques, les anglicans, les protestants ... et est brulé vif à Rome pour avoir refusé de se rétracter. Trente ans plus tard, Galilée, plus prudent, préfère abjurer en disant tout bas E pur si muove (Et pourtant elle tourne : formule très probablement apocryphe) et finira sa vie en résidence surveillée. Les mathématiques, si abstraites soient-elles, sont surveillées par les religions, au même titre que les sciences expérimentales, on ne sait jamais ....

    Ce qui n'empêche pas la science de se développer, en prenant appui sur la religion. Faire de la systématique, dénombrer les espèces présentes dans un biotope ? Aucun problème, car ce n'est rien d'autre que recencer l'oeuvre du créateur, et dresser la liste de ce qu'il a créé lors des 6 jours de la création du monde, 4004 jours avant JC. Faire de la logique ? des statistiques ? C'est trouver de nouvelles façons d'établir des preuves de l'existence de Dieu.

    N'oublions surtout pas que Bayes (1701-1761), est un pasteur presbytérien,
tout comme son père, tout comme Price qui publie ses travaux deux ans après sa mort. Et si Bayes se lance sur cette question des probabilités conditionnelles, c'est dans le but sous-jacent de prouver mathématiquement l'existence de Dieu. Le texte du bas de lapage 312 et du haut de la page 313 est loin d'être innocent. Reprenons le en français :

    Imaginons le cas d'une personne qui débarque dans ce monde, et commence à recueillir ses observations sur l'ordre et le cours des événements qui s'y placent et s'y déroulent. Probablement, le Soleil sera lepremier object qui retiendra son attention ; mais après l'avoir perdu du fait de la première nuit, il sera totalement ignorant de savoir s'il le verra à nouveau. Il sera alors dans la position d'une personne faisant une première expérience sur un événement dont il ignore tout. Mais qu'il le revoie une seconde fois, germera en lui l'espoir d'un second retour (le jour suivant) et il saura qu'il pourra y associer une chance de 3 contre 1. Cette cote va augmenter, comme montré ci-dessus, avec le nombre de fois dont il sera le témoin. Mais aucun nombre fini de retours (du soleil) ne sera suffisant pour obtenir une certitude absolue ou physique.

    Price et/ou Bayes font ensuite référence à des nombres d'observations de 1.4 et 1.6 millions de fois. Quel est le sens de ces nombres pour des levers de soleils ? Je les rapprocherai
du calcul de Laplace qui, lui-même, a repris ce cas d'école, en calculant la probabilité que le soleil se lève demain sur la base de 5000 ans soit 1826313 jours. Ces valeurs correspondent à la théorie créationniste jeune-terre, qui postule une création récente de la terre en interprétant à la lettre les textes religieux. Ainsi vers 1650, l'archévèque James Ussher date la création du monde le 23 Octobre 4004 avant JC, sur la base d'un décompte de la Genèse. L'an 1800 de notre ére correspond en gros à une durée de 5800 ans, soit 2 117 000 jours, et à l'époque, il était prudent de laisser de la marge en prenant des valeurs inférieures ... Par exemple, le zodiaque de Denderah arrive au Louvre an 1821, et une première datation effectué par Joseph Fourier lui donne plus de 40 siècles, soit plus ancien que le déluge biblique, daté de 2700 ans et lors duquel tout aurait été détruit, ce qui pose alors une problème politico-religieux majeur. D'autres savants annoncent même 15 000 ans, bien avant la création du monde ! On demande ensuite à Champollion de le dater, et en s'entourant d'historiens et d'astronomes, il annonce la date -50 avant JC, ce qui a évité un conflit ouvert entre la science et la religion. Rappelons ici que le lever du soleil est une création directe de Dieu au deuxième jour : Ainsi, il y eut un soir, et il y eut un matin (Genèse 1.8). Dans un tel contexte de croyances religieuses, il n'est pas possible d'envisager un plus grand nombre d'observations ...

    Que penser maintenant du théorème de Bayes, comme de la règle de succession de Laplace ? Cette terminologie de probabilités a priori et de probabilités a posteriori me gêne toujours beaucoup, et ce d'autant plus, comme je l'ai montré ci-dessus, que son interprétation temporelle est totalement incorrecte et impropre. La nature de l'inférence statistique, basée sur le théorème de Bayes, n'est pas spécialement claire, et s'il y a eu jusqu'ici beaucoup de débats, il y en aura encore beaucoup dans l'avenir ...
   
    Actuellement, j'en suis arrivé à penser que la question a été mal posée dès le départ. La principale raison résidant dans le fait que cela avait été fait dans un cadre temporel, alors que celui-ci n'est pas intégré (sinon intégrable ?) dans les théories mathématiques. Alors que reste-t-il ? Peut-on envisager une théorie statistique (au sens large) qui ne fasse pas référence au théorème de Bayes ? Question énimemment hérétique pour tout statisticien de l'establisment !

    Revenons simplement à la question, telle qu'elle est posée par Bayes dans son introduction :

    Given the number of times in which an unknown event has happened and failed: Required the chance that the probability of its happening in a single trial lies somewhere between any two degrees of probability that can be named.

    Etant donné le nombre de fois qu'un événement inconnu a été tiré et s'est ou ne s'est pas réalisé : on recherche sa probabilité de réalisation dans un seul tirage qui soit comprise entre deux degrés de probabilités qu'on pourra évaluer.

    Cette question est très claire, et il existe aujourd'hui un outil du calcul des probabilités qui permet de répondre exactement à la question posée, sans faire intervenir de cadre temporel, c'est le calcul de l'intervalle de confiance pour une proportion. Pour la proportion s/n (nombre de succès sur le nombre total d'observations), et une valeur du risque d'erreur fixée a priori, cette fonction mathématique permet de calculer une fourchette de deux nombres, dans laquelle se situe, au risque fixé, la probabilité théorique. En particulier, on peut calculer l'intervalle de confiance pour la proportion 0/n, relative à des événements qu'on n'a jamais observés et qui ne se sont jamais produits. Certes, cela demande des calculs, mais aujourd'hui, nous avons les outils nécessaires.Ne serait-ce pas exactement cela que recherchait Bayes ?

    Je développerai cet outil dans de futurs articles de Rastell Toull. A partir des intervalles de confiance ainsi calculés sur les observations, il devient possible de valider ou d'invalider (au sens de Popper) des modèles théoriques plus ou moins arbitraires ou réalistes. N'est-ce pas justement ce typr de raisonnement que l'on cherche à faire avec l'outil statistique ?

Commentaires

    Quand j'avais soumis une version antérieure de ce texte aux Comptes-rendus de l'Académie des sciences en 2003, il m'avait été répondu que ce texte relevait d'une rubrique Epistémologie, qui malheureusement n'existait pas, ou alors d'une rubrique Histoire des probabilités et statistique, qui n'existait pas davantage. A fins d'expertise, le comité de lecture m'avait conseillé de soumettre ce texte à Bernard Bru, ancien professeur à l'Université Paris V, mathématicien et spécialiste de l'histoire des probabilités, ce que j'avais fait. Voici la réponse que m'avait adressé Bernard Bru le 9 Mars 2004.

    Cher Monsieur Rouault,

    J'ai bien lu votre envoi et je vous en remercie.

    J'ai lu votre texte, qui est clair et intéressant, mais je suis embarrassé pour vous donner un avis ou un conseil à son sujet.

    La thèse que vous défendez est tout à fait juste, mais elle n'a rien d'original. La formule de Bayes (ou dite de Bayes) est fondée sur la notion de probabilité conditionnelle, ou de conditionnement statistique, comme vous voudrez. Or une liaison statistique est symétrique, comme une indépendance statistique. Donc le temps est surajouté, et on peut l'inverser. Vous avez raison de le rappeler.
   
    Il se trouve que Bayes utilise une liaison orientée du passé vers le futur. Il s'agit pour lui de donner un fondement théorique à l'empirisme, mis à mal par Hume, et de justifier l'augmentation de la certitude, au cours d'expériences et d'observations répétées dans le temps. En ce sens, sa contribution est importante. A la même époque Condorcet et Laplace, à la suite de d'Alembert, se sont posés le même genre de questions. L'histoire est longue et la littérature sur le sujet est immense.

    Je pense que votre texte ne peut intéresser ni les mathématiciens ni les historiens. En revanche, il peut intéresser les philosophes. Peut-être auriez-vous intérêt à le présenter à une revue philosophique, spécialisée en philosophie des probabilités, ou en épistémologie.

    Il me semble que vous avez toutes les qualités souhaitables pour discuter, au point de vue critique philosophique, les notions si mal comprises de liaison en probabilités, ou "simplement" de cause au sens du calcul des probabilités. Ce que vous dites, à cet égard, me paraît très juste, notamment en ce qui concerne Costa de Beauregard.

    Ceux sont hélas des sujets où il est difficile d'innover vraiment, tout a été dit et redit mille fois, mais il est plus difficile encore d'en présenter à un public non scientifique les aspects scientifiques véritables.

    Si je peux vous être utile en quoi que ce soit, n'hésitez pas à faire appel à moi de nouveau.

    Croyez en mes sentiments très cordiaux.

    (signature)

    A l'époque, je n'avais pas donné suite, et ce texte avait été archivé dans mes dossiers. Aujourd'hui, je le mets sur la place publique grâce à ce formidable outil qu'est Internet.

Sources

Présentation
Bretthorst G. L.; 1994. An Introduction to Model Sélection Using Probability Theory as Logic, in Maximum Entropy and Bayesian Methods, Santa Barbara 1993, G. Heidbreder éd., Kluwer Academie Publishers, Dordrecht the Netherlands.
Mallakoff D, 1999. Bayes offers a 'new' way to make sense of numbers. Sciance, 286:1460-1464.
Costa de Beauregard 0, 1967. La grandeur physique «temps ». In Logique et connaissance scientifique. Jean Piaget éd. 726-751. Encyclopédie de la pléiade, NRF Gallimard. Paris

Thomas Bayes
http://fr.wikipedia.org/wiki/Thomas_Bayes
http://en.wikipedia.org/wiki/Thomas_Bayes
http://www5555.morris.umn.edu/~sungurea/introstat/history/w98/Bayes.html

Le théorème de Bayes
Bayes Rev. T.; 1763. An Essay Toward Solving a Problem in thé Doctrine of Chances. Philos. Trans. R. Soc. London 53, 370-418 . .
Bayes Rev. T.; 1763-1958. An Essay Toward Solving a Problem in thé Doctrine of Chances. Biometrika 45:293-315.
http://xianblog.wordpress.com/2011/05/02/re-reading-an-essay-towards-solving-a-problem-in-the-doctrine-of-chances/
http://en.wikipedia.org/wiki/An_Essay_towards_solving_a_Problem_in_the_Doctrine_of_Chances
Droesbeke JJ, Fine j, Saporta G, 2002. Méthodes bayesiennes en statistiques. Technip, 418 pp.

Lebart L, Fenelon JP, 1975. Statistique et informatique appliquées. 3e édition. Dunod. 439 pp.
Lebart L, Morineau A, Fénelon J-P, 1979. Traitement des données statistiques. Méthodes et programmes. Dunod, Paris, 610 pp.

Les successeurs
http://fr.wikipedia.org/wiki/Pierre-Simon_de_Laplace
Boole G.; 1854. An investigation of thé laws of thought. Dover Publications. Traduit par S B Diagne sous le titre Les lois de la pensée. Mathesis, Librairie Philosophique VRIN, Paris. 1992.
Laplace P. S. 1820. Oeuvre complètes de Laplace. Tome septième. Théorie analytique des probabilités. Gauthiers villars 1886.
Laplace P. S. 1825. Essai philosophique sur les probabilités. 5e édition. 1986. Christian Bourgeois. Paris. Translated by L W Truscott and F L Emory 1901 as A Philosophical Essay on Probabilities. Dover Publications, Inc., New York, 1951.
O'Connor JJ & Robertson EF. Pierre-Simon Laplace. http://www-groups.dcs.st-and.ac.uk/~history/Mathematicians/Laplace.html

L'inférence statistique
http://www.mi.parisdescartes.fr/~lerb/rouanet/index.html
Fisher RA, 1956-1959.
Statistical methods and scientific inference. Oliver and Boyd. 175 pp.
Hacking I, 1965. Logic of statistical inference. Cambrifge University Press. 232 pp.
Lindley DV, 1965. Introduction to probability and statistics froma baysian point of view. Part 1 Probability. Cambridge at the University press. 259 pp.
Lindley DV, 1965. Introduction to probability and statistics froma baysian point of view. Part 2 Inference. Cambridge at the University press. 292 pp.

Second théorème de Bayes
http://fr.wikipedia.org/wiki/Causalit%C3%A9_%28physique%29
http://fr.wikipedia.org/wiki/Ren%C3%A9_Descartes
http://fr.wikipedia.org/wiki/Discours_de_la_m%C3%A9thode

Science et religion
http://fr.wikipedia.org/wiki/Giordano_Bruno
http://fr.wikipedia.org/wiki/Galil%C3%A9e_%28savant%29
http://fr.wikipedia.org/wiki/James_Ussher
http://fr.wikipedia.org/wiki/Cr%C3%A9ationnisme
http://www.info-bible.org/lsg/01.Genese.html
http://fr.wikipedia.org/wiki/Cr%C3%A9ationnisme_Jeune-Terre
http://fr.wikipedia.org/wiki/Cr%C3%A9ationnisme
http://fr.wikipedia.org/wiki/Zodiaque_de_Dend%C3%A9rah
http://joseph.fourier.free.fr/egypte.htm
http://joseph.fourier.free.fr/rapegypt.htm
http://joseph.fourier.free.fr/jfchampo.htm
http://fr.wikipedia.org/wiki/Jean-Fran%C3%A7ois_Champollion

Bernard Bru
http://www.ehess.fr/revue-msh/pdf/N176R1268.pdf

Liens internes

Autolien
Numéro
Article
Auteur
Rubrique Sous-rubrique Nature
C119
Théorème de Bayes et causalité
Jacques-Deric Rouault B40 Recherche scientifique
B46 Proba-Stats
Epistémologie Article original

Cette page utilise les articles
Articles utilisant cette page
Articles connexes

    L'article Bayes theorem and causality est la version de ce texte en langue anglaise (en préparation).

Page d'accueil
Table thématique
Table chronologique
Administrateur du site / Contact