[MUSIQUE] Bonjour. Au cours de la deuxième partie de cetteséance d'exercices, nous allons étudier deux lois de probabilités différentes, l'une continue et l'autre discrète, afin de mettre en application les rappels de la séquence précédente. Pour chacune de ces deux lois, nous allons vérifier qu'elles satisfont bien au principe définissant une loi de probabilité, puis nous déterminerons la valeur moyenne et la variance de la variable aléatoire. Nous allons maintenant étudier une loi discrète relativement simple, la loi binomiale, qui décrit le nombre de succès obtenus lors de tirages aléatoires successifs et indépendants. On effectue ainsi N tirages indépendants, comme par exemple des lancers de dés. À chaque tirage, la probabilité de succès est la même et vaut p. Par exemple, cette valeur vaut un sixième si l'on ne gagne que si le chiffre six sort sur le dé. On s'intéresse maintenant à la loi de probabilité décrivant le nombre de succès obtenus. La probabilité p(k) d'obtenir k succès peut s'écrire sous la forme : p(k) = (C N k) (p à la puissance k) (1- p) à la puissance (N- k). Le terme p à la puissance k correspond à la probabilité de succès pour k tirages choisis. Le terme (1- p) à la puissance (N- k) correspond à la probabilité d'échec pour les (N- k) tirages restants. Enfin, le terme C N k placé en tête du résultat, correspond au nombre de combinaisons de k éléments parmi N, c'est-à-dire le nombre de possibilités différentes de choisir les k tirages qui auront abouti à un succès. Déterminons ce nombre de combinaisons. Lorsque nous voulons choisir le premier élément, c'est-à-dire le premier tirage ayant abouti à un succès, nous pouvons le choisir parmi tous les tirages. Nous avons donc N choix possibles. Pour le second tirage, nous avons (N- 1) choix possibles, car nous ne pouvons plus choisir le tirage précédent. Ainsi de suite, pour le dernier tirage, il nous reste (N- k + 1) choix possibles. Pour finir, le nombre total de choix possibles s'écrit N! / (N- k)!. Cependant, parmi tous ces choix, il y en a beaucoup d'équivalents. Toutes les sélections qui correspondent au choix des mêmes tirages, mais choisis dans un ordre différent, sont identiques, car l'ordre des choix n'est pas important. Il faut donc diviser le résultat précédent par le nombre possible de façons d'ordonner k éléments, également appelé nombre de permutations de k éléments, qui vaut k!. Pour finir, le nombre de combinaisons de k éléments parmi N s'écrit C N k = N! / ( k! (N- k)! ). Et l'on obtient la loi de probabilité sous la forme finale, p(k) = N! / k! (N- k)! fois (p à la puissance k) (1- p) à la puissance (N- k). Vérifions que la loi binomiale ainsi obtenue est bien une loi de probabilité. Pour cela, vérifions tout d'abord la condition de normalisation. En écrivant la somme des probabilités p(k), on retrouve le développement de (p + (1- p)) à la puissance N. Donc, la somme des probabilités est bien égale à 1. Enfin, les probabilités ainsi obtenues sont bien positives ou nulles, et elles sont inférieures à 1, du fait de la condition de normalisation précédente. La loi binomiale est donc bien une loi de probabilité. Calculons maintenant la moyenne et la variance de la distribution. La moyenne s'exprime comme la somme des nombres de succès k, multipliée par leurs probabilités respectives. On intègre alors le facteur k au numérateur, dans la factorielle de k au dénominateur, pour la remplacer par la factorielle de (k- 1). On remplace la factorielle de N par celle de (N- 1), pour faire sortir un facteur N. Au dénominateur, la factorielle de (N- k) peut aussi s'écrire comme celle de (N- 1)- (k- 1). On effectue la même opération sur les puissances de p et (1- p). Ce faisant, on retrouve une loi de probabilité binomiale, de paramètres (N- 1) et (k- 1), multipliée par (N p). La somme des probabilités valant 1, la valeur finale de la valeur moyenne de k s'écrit N p. Pour la moyenne quadratique, on procède de même, en écrivant la somme des petits k au carré, multipliée par leurs probabilités respectives. De la même façon, on fait rentrer le k au carré dans la factorielle de k. Pour cela, il faut remplacer k au carré par (k (k- 1)), auxquels on ajoute un k dans un second terme. On fait alors apparaître deux sommes, une sur les termes de loi binomiale de paramètres (N- 2) et (k- 2), et l'autre sur les termes de loi binomiale de paramètres (N- 1) et (k- 1). On obtient pour finir, N (N- 1) (p au carré) + (N p). En combinant la moyenne de k et celle de k au carré, la variance s'écrit finalement, (N p) (1- p). Elle est évidemment nulle lorsque la probabilité p est égale à 0, on perd à chaque fois, ou égale à 1, on gagne à chaque fois, car alors tous les tirages deviennent identiques. Elle est maximale lorsque l'on a une chance sur deux de gagner, c'est-à-dire lorsque p est égal à un demi. Considérons maintenant une distribution continue, sous la forme d'une Gaussienne à une dimension. Cette distribution est caractérisée par un paramètre sigma qui, on va le voir, définira sa largeur. Vérifions tout d'abord qu'il s'agit bien d'une loi de probabilité. En tous points, p de x est positif. Il faut donc juste vérifier la condition de normalisation. On écrit alors l'intégrale de p(x) entre moins l'infini et plus l'infini, que l'on simplifie à l'aide d'un changement de variable, u est égal à (x- x 0) divisé par sigma. Cela fait disparaître totalement le paramètre sigma de l'expression. La technique classique pour calculer l'intégrale I restante consiste à la mettre au carré en utilisant deux coordonnées orthogonales, x et y, puis à passer en coordonnées polaires ; dx dy se transforment alors en r fois dr d phi, ce qui permet de faire une intégration directe donnant le résultat 2 pi. Cela permet de vérifier que p est bien normé, ainsi que positif en tous points, et est donc bien une densité de probabilité. Le calcul de la valeur moyenne et de la variance ne pose pas de difficulté particulière. La valeur moyenne s'écrit comme l'intégrale de x fois p de x. Le même changement de variable que précédemment, suivi d'une simple intégration par partie, permet d'obtenir la valeur x 0, ce qui est attendu, car la distribution est symétrique par rapport à cette valeur. Le calcul de la valeur moyenne du carré de x se fait de la même manière, et nécessite deux intégrations successives par partie. On obtient alors (x 0) au carré + sigma au carré. À partir des moyennes de x et de x au carré, on obtient directement la variance, qui vaut précisément sigma au carré. Ainsi, le paramètre sigma de la distribution gaussienne caractérise bien sa largeur, c'est-à-dire la dispersion des valeurs. C'est d'ailleurs pour cette raison que l'on note souvent les quartiques d'une distribution par la lettre sigma. Au cours de la seconde partie de cette séance d'exercices, nous avons étudié deux lois de probabilités particulières. La première, discrète, est la loi binomiale qui sert à décrire le nombre de succès dans un grand nombre de tirages. Elle pourra servir, notamment en mécanique quantique, pour décrire les résultats obtenus lorsque l'on répète un grand nombre de fois la même mesure. La seconde loi, continue, est la distribution gaussienne. Elle sera omniprésente en mécanique quantique, servant, entre autres, à décrire, sous la forme d'un paquet d'ondes, le comportement d'une particule individuelle. Cette séance est maintenant terminée. Merci de l'avoir suivie et à bientôt. [AUDIO_VIDE]