Bonjour. Au cours de cette séance d'exercices, nous allons étudier une loi de probabilité particulière qui régit de nombreux phénomènes naturels, et en particulier ceux que l'on appelle processus de Markov ou markoviens. Ces processus, du nom de leur inventeur Andrey Markov, mathématicien russe du XIXe siècle, sont caractérisés par une absence de mémoire. La probabilité d'occurrence d'un événement est totalement indépendante de l'histoire du système. Autrement dit, l'obtention d'éléments d'informations concernant le passé n'améliore en rien la prédiction du futur. Dans le cas d'événements discrets, comme par exemple un tirage de dés ou les jeux de hasard en général, on parle de chaîne de Markov reliant les événements les uns aux autres. Les chaînes de Markov ont de multiples applications. Que ce soit en physique statistique : mouvement brownien ; en biologie : analyse statistique du génome, mutations génétiques ; ou en informatique : techniques de compression sophistiquée, gestion de files d'attente ou classification des pages Web à travers les liens qu'elles tissent entre elles. Dans cette séance d'exercices, nous étudierons le cas d'un processus de Markov continu. De façon générale, la plupart des jeux de hasard, Loto, dés, roulette, sont des processus de Markov. La probabilité de tirer les bons numéros au Loto est totalement indépendante des nombres sortis les fois précédentes. Contrairement à l'intuition populaire, les numéros gagnants d'hier ont exactement la même probabilité de sortir à nouveau aujourd'hui que n'importe quelle autre combinaison. La désintégration radioactive est un autre exemple de processus de Markov. La probabilité de désintégration d'une particule pendant un intervalle de temps est totalement indépendante de son histoire et en particulier de son âge. Ainsi, une particule ne vieillit pas. Dans le même ordre d'idées, on peut citer par exemple l'apparition de mutations génétiques, le bombardement de la terre par des rayons cosmiques, les processus de diffusion thermique ou chimique, l'apparition d'erreurs dans un processeur et plein d'autres exemples. La désintégration radioactive est un exemple de processus de Markov à temps continu. La probabilité de survie, c'est-à -dire de non désintégration d'une particule est totalement indépendante du temps que la particule a entre guillemets déjà vécu. On note Ps(t) la probabilité de survie d'une particule au temps t. Cette probabilité peut se comprendre comme la probabilité que la particule ne se soit pas désintégrée entre l'instant initial et l'instant t. On note également γ dt, la probabilité infinitésimale de désintégration pendant un temps dt. La propriété d'absence de mémoire permet d'écrire la probabilité de survie à un instant t plus dt en fonction de celle à l'instant t. La survie de la particule au temps t plus dt est la combinaison de deux événements indépendants. La survie au temps t puis la survie pendant un temps dt. La probabilité de survie au temps t plus dt est alors le produit des probabilités de ces deux événements indépendants : PS (t + dt) = PS (t) x PS (dt). La probabilité de survie pendant le temps infinitésimal dt est égale à 1 moins la probabilité de désintégration pendant ce même temps. PS(dt) = 1- γdt. On obtient alors rapidement une équation différentielle du premier ordre. dPS(t) / dt = -γPS(t). Ce qui se résout sous la forme d'une loi exponentielle : PS(t) = exp(-γt). La date de désintégration d'une particule est une variable continue. On peut donc la caractériser par une densité de probabilité PD(t). La probabilité que la date de désintégration d'une particule soit comprise entre t plus dt est le produit de la probabilité de survie au temps t par la probabilité élémentaire de désintégration pendant l'intervalle de temps dt. Cela s'écrit PD(t) dt = PS(t) x γdt. On obtient ainsi la densité de probabilité PD(t) = γ x exp(-γt). Il s'agit bien d'une densité de probabilité. Elle est positive et vérifie la condition de normalisation ∫ PD(t) dt = 1. La durée de vie moyenne se calcule comme une intégrale sur la date de désintégration multipliée par la densité de probabilité de désintégration. Par intégration par partie, on obtient rapidement 1 sur gamma. Attention toutefois, cette durée de vie est différente de la demi vie qui est définie comme le temps au bout duquel la moitié des particules se sont désintégrées. Ce temps correspond à PS = 1/2, ce qui donne un temps logarithme de deux sur gamma. La variance est définie comme la valeur moyenne du carré moins la valeur moyenne au carré. Il faut donc tout d'abord calculer la valeur moyenne du temps de désintégration au carré, ce qui se fait avec deux intégrations par parties successives. On obtient alors 2/γ². Le calcul de la variance immédiat donne 1/γ². L'écart type sur la durée de vie est égal à la durée de vie moyenne, ce qui est une caractéristique des distributions exponentielles. On s'intéresse maintenant à une assemblée de N particules que l'on observe pendant un temps macroscopique delta T, que l'on suppose faible devant la durée de vie des particules de façon à pouvoir négliger l'évolution de la population dans l'échantillon. Et on souhaite déterminer la loi de probabilité PS(k), d'observer k désintégrations pendant ce temps dt. Il s'agit maintenant d'une loi de probabilité discrète. Il y a deux façons de la déterminer. Soit par récurrence, à partir de la probabilité d'observer k moins 1 désintégrations, soit directement en utilisant la loi binomiale. Nous allons ici utiliser la loi binomiale. La probabilité d'observer k désintégrations peut s'écrire comme le nombre de combinaisons de k particules parmi N, multiplié par la probabilité de désintégration de ces k particules et et par la probabilité de survie des moins N moins k autres particules. La probabilité de désintégration étant le complément à 1 de la probabilité de survie, on obtient l'expression PN(k) = CKN (1-PS(ΔT)) à la puissance k, fois PS(ΔT) à la puissance N-K. Plusieurs simplifications proviennent du fait que le temps d'observation est faible devant la durée de vie des particules, ce qui implique également que le nombre de particules se désintégrant est faible devant N. En premier lieu, le nombre de combinaisons se simplifie en CKN = N!/K!(N-k)! sous la forme N puissance k sur k factoriel. en second lieu, la probabilité de désintégration 1- PS (ΔT) vaut à peu près γΔT. Au bout du compte, la probabilité d'observer k désintégrations s'écrit sous la forme : PN(k) = (γNΔT) à la puissance 4/k! fois exp(-γN ΔT). Cette forme est celle d'une loi de Poisson de paramètres gamma fois N delta T. La loi de poisson est une loi discrète. La variable aléatoire ne peut prendre que des valeurs entières et asymétriques. Bornée par la valeur zéro, elle possède une queue vers les grandes valeurs plus prononcée que pour les distributions gaussiennes. La vidéo ci-contre montre la forme de la distribution de Poisson en fonction de son paramètre mu. Pour des petites valeurs de mu, la distribution est piquée en 0 et possède une queue à droite. Au fur et à mesure que mu augmente, la distribution se décale vers la droite et devient de plus en plus symétrique et de plus en plus large. En fait, elle tend à ressembler à une distribution gaussienne. Essayons de quantifier cela. La valeur moyenne de k se calcule comme une somme de 0 à l'infini, de k fois PN(k). En combinant k et la factorielle de k au dénominateur, puis en réordonnant la somme, on obtient simplement la valeur mu. Le calcul de la valeur moyenne de k carré est similaire. Il faut just décomposer k carré en 4 fois k moins 1 plus k avant d'effectuer la combinaison avec la factorielle. On obtient ainsi la valeur mu au carré plus mu. La variance de la distribution valeur mu tout comme la valeur moyenne, ce qui est une caractéristique des distributions de Poisson. On s'intéresse maintenant à la forme de la distribution de Poisson pour des grands nombres. On sait que la distribution est centrée sur mu, et que son écart [INAUDIBLE] vaut racine carrée de mu. On va donc utiliser la formule de Stirling pour la factorielle de k et remplacer la factorielle par son expression. On fait ensuite entrer le terme mu sur k à la puissance k dans l'exponentielle. On va ensuite effectuer un développement limité aux voisinages de mu en posant k est égal à mu fois 1 plus x. Il est nécessaire de développer le logarithme en second ordre en x pour aboutir au résultat correct. L'argument de l'exponentiel peut être approché par la forme nettement plus simple moins mu fois x carré sur 2. Pour finir, en remplaçant x par k moins mu sur mu, on obtient une distribution gaussienne centrée sur mu et de largeur racine de mu. La vidéo ci-contre montre l'évolution de la distribution de Poisson et de son approximation gaussienne en rouge, en fonction du paramètre mu. Aux petites valeurs de mu, la distribution est fortement asymétrique et l'approximation gaussienne ne peut reproduire cette asymétrie. Par contre, dès que le paramètre mu est supérieur à quelques unités, l'approximation gaussienne devient très bonne, et s'améliore au fur et à mesure que mu augmente. Cette séance d'exercices est maintenant terminée. Merci et à très bientôt.