Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

Les risques

Mon coté youtubeur est tombé dans la marmite: j'ai regardé des youtubeurs  (1).

Et c'est pas mal, le fantasme de l'absolue clarté est beau à voir, on peut l'éprouver mais à l'envers, et je suis donc dans le genre un minable obscur looser, ce que les faits prouvent. 

Une remarque: le youtubeur est authentiquement cultivé. Peut on capter du vrai savoir (au deuxième degré) en l'écoutant ? 

La statistique, c'est ce qui permet de "réduire" des données multiples à une valeur, mais qui reste significative, faire la moyenne, donc. 

Ecarts moyens et Ecarts types

D'abord, l'écart moyen, qui est la moyenne des écarts à la moyenne est absolument différent de l'écart type, qui n'est que la racine carrée de la moyenne du carré des écarts... 

Imposée par Fisher, l'écart type décrit bien sur la distribution normale, et 2 sigma c'est le fameux 95% des données situées sous la cloche.  1 sigma c'est 68%. 

Au fait le 2 sigma c'est faux: 2,5% c'est la proba à 1,96. C'est pas pareil. 5% c'est 1,64. On se comprend on voulait dire 5% et 10% si on tient compte des deux cotés de la cloche... 

Le tableau de contingences

Notre youtubeur parle du tableau de contingences, l'alpha et l'oméga de la donnée. 

On a donc 4 chiffres et on peut gloser. On va prendre un biais particulier et considérer une notion de "risque". 

Le risque c'est d'avoir ou pas et on le portera en colonnes. Colonne A : j'ai , colonne B, j'ai pas. 

Avoir, c'est avoir le cancer, ou le gain du loto: on essaiera d'abstraire ces contingences là... 

La contingences sont ce qui va permettre d'avoir ou pas, ou du moins d'avoir ou pas dans un cas et dans un autre. Un risque, c'est d'abord quelque chose qu'on évalue et évaluer c'est comparer, bien sur. 

On a donc deux cas, et deux lignes faire comme çi ou comme ça:

                 J'AI           J'AI PAS
comme çi               j'ai çi            j'ai pas çi
comme ça               j'ai ça            j'ai pas ça

 

Le "risque" ici ou "la bonne fortune", selon les cas, c'est la chance d'avoir dans une ligne... 

Ainsi le risque de comme çi sera :   j'ai çi / j'ai çi + j'ai pas çi

On a une sorte de probabilité, le risque étant inférieur à 1. 

Pour comparer comme çi et comme ça, on fera la division entre les risques, ce qui donnere un risque "relatif" entre les deux options. 

On peut utiliser une autre mesure, qui est la "cote", utilisée par les parieurs. La cote de "j'ai" par exemple dans le cas "comme çi" est la division de "j'ai çi" par "j'ai pas çi". 5 contre 1. C'est ce qu'on appelle un "odd".

La comparaison de deux cotes consiste à les diviser et on obtient un "odds ratio". 

Le "risque relatif" et l'"odds ratio" sont deux choses différentes qui sont égales quand la probabilité (base de la mesure du risque) est faible: p est alors égal à p /(1-p). 

Intéressant la différence entre la cote, qui mesure le pari sur une occurrence, et la probabilité, qui mesure l'occurrence seule.

Statistoches

Un bref rappel des bases. Si on fait la moyenne d'un ensemble de N variables aléatoires indépendantes de moyennes mu et d'écart type sigma, on va trouver une distribution normale de moyenne N*mu et de variance sigma/racine(N), c'est le théorème central limite (Laplace 1809).

Un ensemble de distributions plutôt étalées tend ainsi à l'infini vers une belle cloche bien étroite (centrée sur zéro, bien sur).

A partir de là, on peut déjà faire plein d'exos d'une part et on peut se souvenir qu'une fois centrée réduite, la gaussienne a plein de bonne propriétés. On considèrera les parties aux extrémités, loin de la moyenne. 

A 1,68 on a 10% , et à 1,96 on a 5% (bilatéral).  hop.

la comparaison des moyennes

Le problème fondamental des stats c'est bien sur la comparaison des moyennes entre deux mesures ou objets semblables statistiquement mais différents: la différence est elle du au hasard ou non? Et bien c'est toute la question. 

On va passer sur les ridicules et oiseuses gaussiennes et autres cloches et sauter directement à Willcoxon et bien sur au tryptique  Wilcoxon-Mann-Withney , le seul qui compte au delà de 20 individus. 

L'idée est d'intercaler les deux séries de nombres et de mesurer les recouvrements. 

^^^^^^ VVV ^^^^VVVVVVVV ^^VVVVVVVV 

C'est pareil ou non? 

La méthode suppose un tri rapide accessible uniquement si on dispose d'un ordi: la méthode est ultra moderne.

En gros: on trie TOUTES les mesures (en gardant leur références et leur nom de série) et on calcule. On a donc une suite de rangs pour les séries x et y de longueur nx + ny. La SOMME des rangs de nx, Sx, est une gaussienne de moyenne (nx * ny)/2 et de variance nx * ny * (nx + ny + 1) / 12. 

Le risque alpha

Un risque est quelque chose d'apriori c'est à dire qu'il précède la situation à risque. C'est donc une notion purement théorique, et qui ne se tire pas de l'expérience... Ce qu'on tire de l'expérience c'est une mesure, qui peut être interprétée. 

On a suivi l'excellent et classique (2) Ancelle et on a retenu que le petit p, qui pose des problèmes d'interprétation à tout le monde et depuis longtemps, n'est pas un risque... 

Risque de quoi? On partira de l'hypothèse "nulle" c'est à dire l'hypothèse qu'il n'y a PAS de différence dans un test entre deux hypothèses. Le résultat du test est une mesure de différence entre les deux situations. On calculera alors, suivant la situation, une valeur "p" (petit p), probabilité que la différence soit au moins aussi grande que celle mesurée. Plus le petit p sera petit, plus la différence sera significative et plus on pourra rejeter l'hypothèse nulle.

Le risque c'est alpha, le risque alpha, quoi, celui qu'on se donne à l'avance. C'est le risque ACCEPTé que l'hypothèse nulle soit rejetée à tort, alors qu'elle est vraie. On dit "sous l'hypothèse nulle".  Il faut bien voir que le contexte est lourd: l'hypothèse nulle est supposée vraie d'une part, et en plus, on ne démordra de cette confiance que pour un petit p exhibé inférieur à alpha, c'est à dire un évènement mesuré qui ne peut se produire, si alpha vaut 5%, que dans moins de 5% des cas.

i au contraire, le petit p est supérieur au risque alpha, et bien on ne peut pas conclure: l'hypothèse nulle n'est pas rejetée et reste un vrai provisoire en attente de réfutation. 

Le risque béta, c'est l'autre: le risque accepté que l'hypothèse nulle soit fausse alors qu'on la croit vraie. En gros, que la mesure soit conforme à l'hypothèse nulle sans justification. Il n'existe rien qui puisse mesurer ça et c'est tout le problème. En fait béta dépend des tailles d'échantillonnage, c'est pour cela que  1 - beta est la PUISSANCE du test... Le risque béta est de l'ordre de 20%, pour une puissance raisonnable du test de 80%... 

Pour en rajouter une couche, et pour parler de "méthode scientifique", il faut  bien noter que l'affirmation de l'hypothèse nulle n'est pas une assertion de vérité, mais une hypothèse qu'on garde ("sous l'hypothèse nulle") tant qu'elle n'est pas rejetée. Si le test est négatif, c'est à dire si le petit p est inférieur au risque alpha, et bien c'est l'hypothèse alternative qui est rejetée, et donc, "on ne peut pas conclure" avec le test effectué, par le rejet de l'hypothèse nulle. Si en fait, l'hypothèse nulle est fausse, c'est que le test pour la démasquer n'a pas été assez puissant, typiquement, il faut augmenter la taille de l'échantillon !!! . 

L'asymétrie de l'hypothèse nulle est doublement poperrienne ! 

Supposons qu'on veuille "prouver" l'hypothèse nulle. Et bien on ne pourra que la garder que comme hypothèse, ne pouvant que refuser une hypothèse alternative. Réciproquement, si on veut "prouver" une hypothèse alternative, tout ce qu'on arrivera à faire, c'est à réfuter l'hypothèse nulle. On a bien un vrai provisoire non concluant, environné de simples réfutations... 

Le vilain petit p

Le petit p d'abord dépend de la taille de l'échantillon utilisé pour le test de différence entre les deux situations.

Simplement, il est une mesure de la probabilité que le risque estimé soit trop faible: si inférieur à ce risque, et bien c'est l'hypothèse nulle qui devra être remise en cause. etc etc, on peut en faire des phrases, sur cette base.

Par exemple: plus il est petit, plus la différence est significativement différente. 

De toutes façons, le petit p n'est PAS:

- un risque d'erreur: le risque d'erreur c'est alpha

- la probabilité de la véracité de l'hypothèse nulle : il reste faible quand que l'hypothèse nulle est surement vraie;

- la mesure d'un effet contraire à l'hypothèse nulle.

Mais il y a pire. Le petit p est satanique et reptilien. 

Il y a plusieurs critiques. Retenons que:

- le petit p ne quantifie rien. C'est un indicateur binaire en fait: oui/non on rejette ou non, suivant qu'il est ou non inférieur au risque alpha posé au départ. 

- sa valeur dépend du nombre d'échantillons, un comble. 

- il est instable: si on refait l'expérience plusieurs fois, la probabilité de tomber "juste" n'étant pas nulle, on peut finir par avoir à rejeter l'hypothèse nulle. Typique des petits acharnés: à 5% il suffit de répéter 20 fois... Etonnant non? Le parangon de la dénonciation de l'établi aussi grossièrement facile à tromper: toute une "science" bidon est basée sur ce genre de manip. 30 % des publications "scientifiques" seraient vérolé par le petit p. Pas petit, quand même. 

Les Bayésiens 

Puisqu'on en aux youtubeurs, je voudrais réexprimer ma nouvelle compréhension (après visionnage) du mystérieux bayésianisme. Celui ci se voudrait "principe du savoir" comme appuyé exclusivement sur les probabilités... 

En gros, il introduit la notion de savoir "a priori" en différenciant données (D) et théories (T). 

La probabilité "sachant que " se trouve alors exprimée avec une asymétrie, et LA question que l'on doit se poser, c'est d'abord et avant tout: quelle est la probabilité que LA théorie soit vraie, sachant que ces données là le sont ? 

Tout le truc est alors d'exprimer une fonction EF telle que:   T%D = EF(  D%T, T, D%N ) avec N une ou plusieurs alternatives à T. Les probabilités des T sont données à priori, c'est l'état de départ, et les D% se calculent dans chacun des cas... 

La formule de Bayes est alors:  T%D = 1 / 1 + SIGMA (N)  (     N . D%N   /   T . D%T    )

 

Le raisonnement Bayésien c'est donc: 

0) on a des données 

1) On détermine les théories à confronter et on leur attribue des probabilités

2) Pour chacune d'entre elles, on calcule en la supposant vraie, la vraisemblance des données.

3) On score les théories avec la formule de Bayes.

 

Par exemple, le coup du rideau, des 2 chèvres et de la voiture: le problème de Monty Hall, qui donna lieu en 1990 à une polémique grandiose, l'auteur de la rubrique "ask marilyn", Marilyn vos Savant s'étant fait traiter de conne par tout l'establishment mathématique pour sa solution au problème, pourtant vraie... On choisit un rideau, et après la découverte d'un rideau dévoilant une chèvre, faut il changer son choix initial ? 

Une exploration basique de la combinatoire en partant des 3 situations possibles, et des 9 choix initiaux possibles, monte qu'il FAUT changer son choix. Pourtant "évidemment", rien n'y oblige.

Que dirait un bayésien? Qu'il y a 3 théories, une par position de la voiture, avec une probabilité 1/3.

Supposons que le choix initial soit le rideau 1. 3 cas suivant les 3 théories: 

- si la voiture est en 1, la probabilité de dévoiler un rideau ou l'autre sera 1/2

- si la voiture est en 2 ou 3, la probabilité de dévoiler le rideau sera 1 (pas le choix). 

Bayes en éliminant tout de suite les 1/3 multiplicateurs partout : 

- Théorie voiture en 1,   D%T = 1/2,   1/(1 + 2 * (1/2)/ (1/2) ) = 1/3   (les 2 alternatives sont 1/2) 

- Théorie voiture ailleurs ,    D%T = 1 ,  1/ ( 1 + 1/2 + 1) = 2/3   (les alternatives sont 1 et 1/2) 

 

Le raisonnement bayésien est donc un moyen de résoudre les problèmes de probabilité, et toute l'astuce est dans la somme sur les théories alternatives, qui transforme la formule de Bayes en moteur de résolution. 

 

 

 

 

 

 

(1) les risques relatifs par "risque alpha" https://youtu.be/e5QMapt8Wfg ça c'est du youtubage.

(2) critique du petit p  Thierry Ancelle https://www.youtube.com/watch?v=G7kqxPMP2yg

(3) stats fac https://www.math.univ-toulouse.fr/~san/proba5.pdf

(4) le pas beau petit p, par un youtubeur brillant: https://www.youtube.com/watch?v=1P-HyzGvde4

 

Les commentaires sont fermés.