Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

Les Bayésiens, deux

On avait glosé sur Bayes, mais il y a mieux. 

D'abord, une reformluation bayésianiste, voire bayésiatrice: 

On a des données et on fait des hypothèses, et la question de Bayes se trouve inverse de celle de l'habitude et qui consistait à déduire des hypothèses à partir de données, ces hypothèses évaluées en fonction de données apparaissant avec régularité s'appelant une "vraisemblance". 

Allons y carrément. H est la probabilité de l'hypothèse (que l'hypothèse soit valide), D celle des données (que la donnée se manifeste) et comme de juste, 

D|H  = D ^ H / H  est la vraisemblance, probabilité que D se manifeste si l'hypothèse est valide. 

D^H est l'intersection de D et H. Cette expression qui ne veut rien dire en elle même, qualifie un monde hétérogène qu'il convient de décrire avec rigueur. Ce monde là est formé de couples, chaque couple décrivant un état du monde où l'hypothèse est vraie et la donnée manifestée et tutti quanti. L'ensemble des cas du type donné en exemple ici est l'intersection dont on parle, noté D^H. H est l'ensemble de couples ou l'hypothèse est vraie, que la donnée soit manifestée ou on et tutti quanti pour D. 

Bon, Bayes veut calculer la valeur de l'hypothèse, soit mesurer sa validité, et cela dans le cas ou la donnée qui s'en déduit se manifeste. Le "contraire". 

La cible est donc H|D , la probabilité de H valide , ou plus simplement la validité de H sachant que D se manifeste, qu'on veut exprimer en fonction de la vraisemblance. 

Le bien connu théorème de Bayes est donc:  H|D = D|H * H / D

Postérior (que ce nom est mal choisi) = Vraisemblance * APriori / Manifesté 

Ici, "Posterior" ou "a posteriori" ou "nouvelle évaluation de l'hypothèse"  est égal à : 

( Vraisemblance / Manifesté ) * "validité à priori de l'hypothèse"

On a là tout le drame bayésien, la "validité à priori de l'hypothèse" étant une probabilité surgie du néant, en tout cas sans mesure fréquentielle, et interprétée comme une croyance pure, le nombre entre zéro et un étant précisément une validité, substance ontologique totalement distincte d'un comptage d'occurences... 

La nouvelle évaluation, résultat du calcul "de Bayes", est une progression dans la croyance, réalisée après UN seul tirage. 

Pour illustrer cela, on copiera le texte produit par ChatGPT : 

> "En plusieurs paragraphes expliquer l'approche bayesienne de progression dans le savoir pour évaluer si une pièce est truquée ou non en procédant à des tirages successifs. Donner l'exemple précisément en faisant les calculs sur plusieurs étapes"

Supposons que nous lancions une pièce et que nous voulions savoir si elle est truquée (en supposant qu'une pièce truquée donne toujours face).

Pour commencer, nous n'avons aucune information sur la pièce, nous commençons donc avec une probabilité a priori neutre. Disons que la probabilité que la pièce soit truquée est de 0.5 (ou 50%). C'est notre point de départ.

Lançons la pièce une fois. Supposons que nous obtenons face.

Selon le théorème de Bayes, notre probabilité postérieure (P(H|D), la probabilité que la pièce soit truquée étant donné que nous avons obtenu face) est égale à la probabilité a priori (P(H), la probabilité que la pièce soit truquée) multipliée par la vraisemblance (P(D|H), la probabilité d'obtenir face si la pièce est truquée), divisée par la probabilité totale des données (P(D), la probabilité d'obtenir face).

Si la pièce est truquée (H), la vraisemblance de voir face est de 1. Si la pièce n'est pas truquée (~H), la vraisemblance de voir face est de 0,5. Par conséquent, P(D|H) = 1 et P(D|~H) = 0,5.

La probabilité totale des données, P(D), peut être calculée comme la somme de P(D|H)P(H) et P(D|~H)P(~H), qui est égale à (1 * 0,5) + (0,5 * 0,5) = 0,75.

Par conséquent, notre probabilité postérieure P(H|D) est (1 * 0,5) / 0,75 = 0,67 (ou 67%). Notre nouvelle croyance, après avoir vu face, est que la probabilité que la pièce soit truquée est de 67%.

Maintenant, supposons que nous lancions la pièce une deuxième fois et que nous obtenions à nouveau face. Nous répétons le processus en utilisant notre probabilité postérieure précédente comme notre nouvelle probabilité a priori. Donc P(H) devient 0,67 et P(~H) devient 0,33. Nous recalculons P(D) comme (1 * 0,67) + (0,5 * 0,33) = 0,83. Notre nouvelle probabilité postérieure devient (1 * 0,67) / 0,83 = 0,81 (ou 81%).

Nous répétons ce processus après chaque lancer de pièce, en utilisant à chaque fois notre probabilité postérieure précédente comme notre nouvelle probabilité a priori. Avec chaque face que nous obtenons, la probabilité que la pièce soit truquée augmente.

C'est ainsi que nous utilisons l'approche bayésienne pour mettre à jour notre connaissance de la probabilité qu'une pièce soit truquée."

 

Me voilà donc grand remplacé par une intelligence neuronale à défaut d'être bayésienne... 

 

Les commentaires sont fermés.