[SON] Bonjour. Dans la séance 2 du chapitre 3, nous avons défini ce qu'était une loi à densité. Et dans cette séance 3, nous allons voir des exemples, en fait des exemples de variables aléatoires, dont la loi à densité les plus usuellement utilisées. Nous allons aussi commencer dans cette séance à parler de simulation, et voir comment on peut faire des expérimentations sur machine qui visualisent la réalisation de variables aléatoires dont la loi est donnée a priori. Donc premier exemples fondamental, c'est l'exemple de variables aléatoires qu'on appelle uniformes, ou dont la densité est dite uniforme sur u intervalle de R. Donc on va définir ce que c'est qu'une variable aléatoire de loi uniforme sur l'intervalle a,b pour a strictement plus petit que b. Donc c'est une variable aléatoire qui va prendre toute valeur possible de l'intervalle a, b. Donc grand X de Oméga est égal à a, b. Et on va caractériser sa loi par la densité de cette loi, et cette densité en fait va être constante sur l'intervalle a, b. Donc cette densité vaut une valeur constante, comme l'intégrale sur a, b de petit f doit être égal à 1, nécessairement cette constante est égale à l'inverse de la longueur de cet intervalle c'est à dire 1 sur b moins 1. Donc la densité f de x va être égale à 1 sur b moins 1 pour x compris entre a et b et va être égale à 0 sinon. Je répète, on a bien défini ainsi une fonction de densité c'est à dire une fonction positive et d'intégrale égale à 1. Alors vous voyez que la densité est constante si vous vous rappelez de la représentation graphique que j'ai fait de la densité dans la dernière séance ça veut dire ici vous avez juste comme graphe une valeur horizontale de la densité ce qui veut dire qu'en fait la chance que vous avez de tomber dans un petit intervalle aussi petit soit il autour de x et qui tend x si vous faites varier x. alors vous voyez les variables c'est un petit peu difficile de les visualiser, puisque ce sont des variables à densité donc on a vu qu'une variable à densité ne chargeait pas les points, la probabilité qu'une variable grand X soit égale à un petit x donné est égale à 0. Mais néanmoins, on est en train de dire que la probabilité que la variable aléatoire qui nous intéresse prenne une valeur quelconque de l'intervalle a, b est à peu près identique pour chacune de ces valeurs. On peut pas parler de la probabilité d'avoir x égal à un point, mais on peut parler de la probabilité que x soit dans un intervalle autour de ce point, un intervalle avec une longueur aussi petite soit-elle du moment que ça n'est pas 0. Alors on va voir un exemple numérique de telle variable aléatoire uniforme et pour ce faire on va regarder les horaires de la navette qui conduit de la station RER de Massy-Palaiseau à l'Ecole Polytechnique. Ce cours est issu de l'Ecole Polytechnique dont les élèves connaissent bien cette navette qui les relie au train qui les mène à Paris. Donc on regarde les navettes du matin et les horaires de cette navette sont 8 heures 12, 8 heures 20, 8 heures 26, 8 heures 32. Et nous savons par ailleurs que l'arrivée du RER, qui est le métro qui relie Massy-Palaiseau à Paris, suit une variable aléatoire uniforme sur l'intervalle 8 heures 15, 8 heures 30. Et donc je vous demande quelle est la probabilité d'attendre la navette moins de 3 minutes et quelle est la probabilité d'attendre la navette plus de 5 minutes. Donc nous allons répondre ensemble à la première question et à titre d'exercice vous pourrez répondre à la deuxième question. nous allons donc modéliser l'arrivée du RER par une variable aléatoire, nous avons dit qu'elle était uniforme sur l'intervalle 8 heures 15, 8 heures 30 donc on va écrire cette variable sous la forme 8 heures plus grand U où grand U est une variable aléatoire de loi uniforme sur l'intervalle 15, 30. Cela veut donc dire que grand U prend toutes les valeurs possibles entre 15 et 30 et que sa densité, la densité de sa loi sera la fonction qui vaut f de x égal 1 sur 15 qui est 15 et la longueur de l'intervalle 15, 30 si x appartient à 15 30 et f de x égal 0 sinon. donc je vous rappelle l'exercice, nous voulons que, à la sortie du RER, l'attente pour la navette soit de moins de 3 minutes. Donc quelle est la probabilité d'être dans cette situation optimale. donc nous avons vu les horaires de la navette qui était de 8 heures 12, 8 heures 20, 8 heures 26, 8 heures 32 Donc la probabilité d'attendre moins de 3 minutes, ça va être la probabilité puisque le RER arrive après 8 heures 15 donc la probabilité que grand U soit compris entre 17 et 20 plus la probabilité d'avoir grand U compris entre 23 et 26, la troisième navette est à 8 heures 26 plus la probabilité d'avoir U compris entre donc notre troisième navette qui est à 8 heures 3é mais on sait que notre RER arrive avant 8 heures 30, donc ici nous allons avoir U bornée par 30, et on va attendre donc moins d'une minute dans ce cas là . Il faut que U arrive pardon entre 29 et 30 pour être sûr d'attendre moins de 3 minutes pour la navette de 8 heures 32. Donc maintenant on applique les règles de calcul, donc ici ces 3 calculs là correspondent à des probabilités d'intervalle et nous avons vu que ça vaut donc, alors on peut le faire très en détail pour le premier cas, donc la probabilité d'avoir U compris entre 17 et 20 c'est égal à la probabilité d'avoir, alors je vous rappelle on a vu que, on peut mettre une remarque que j'ai déjà signalée, des inégalités strictes ou des inégalités larges puisqu'on sait que si on a une variable aléatoire à densité, elle ne charge pas les points. Donc c'est exactement la même chose vous avez la choix, vous savez que la probabilité d'avoir U égal 17 est égale à la probabilité d'avoir U égal 20 est égale à 0. Donc ici vous allez pouvoir écrire cette quantité là sous la forme probabilité d'avoir U plus petit que 20 moins probabilité d'avoir U plus petit que 17, donc comme je viens de dire soit vous mettez des inégalités strictes soit vous mettez des inégalités larges, et donc vous reconnaissez ici la fonction de répartition de U en 20 moins la fonction de répartition de U en 17. Et puisque U a la densité petit f vous allez avoir moins l'intégrale de moins l'infini à 20 de f de x, dx moins l'intégrale de moins l'infini à 17 de petit de x, dx c'est à dire l'intégrale de 17 à 20 de f de x, dx. Donc là , je suis vraiment à un niveau de grand détail et en vert, on a vu que cette intégrale là c'était exactement f est égale à une constante est égale à 15, donc vous avez 3 sur 4,bien, donc je vous laisse finir le calcul avec, donc, les 2 autres probabilités et voir finalement le calcul final qui vous donnera la probabilité d'attendre moins de 3 minutes. Et je vous sonseille donc de faire en exercice quelle est la probabilité d'attendre plus de 5 minutes. alors ce qui va être très intéressant maintenant c'est que grâce à ces variables aléatoires là nous allons pouvoir commencer à parler de simulation. Alors une variable aléatoire particulièrement intéressante est la variable aléatoire de loi uniforme sur l'intervalle 0, 1 donc vous voyez que cette variable là aura pour densité la fonction qui vaut 1 sur l'intervalle 0, 1 et 0 sinon. Donc en fait c'est une variable aléatoire donc quand vous regardez sa valeur en Oméga, elle vaut un nombre quelconque entre 0 et 1, et la chance de tomber dans un voisinage de même longueur de n'importe quel point est la même. Et bien ces variable aléatoires là peuvent essentiellement être générées sur machine par ce qu'on appelle un générateur de nombres aléatoire mais qui sont en fait des nombres pseudo-aléatoires pseudo-aléatoires et qui correspondent sur vos ordinateurs à une touche RANDOM ou qui peut avoir des noms approchants. Donc, cette touche qui vous génère des nombres aléatoires, vous génèrent en fait des nombres compris entre 0 et 1 qui sont essentiellement les valeurs d'une variable aléatoire qui suit une loi uniforme sur 0, 1. Donc, dès que vous appuyez, donc, sur cette touche RANDOM, vous avez un nombre compris entre 0 et 1, et si vous appuyez un certain nombre de fois, vous aurez un histogramme des valeurs que vous obtenez et vous pourrez voir ainsi, que si vous répétez l'expérience un très grand nombre de fois, votre histogramme vous donnera une image de rectangle, puisqu'on a vu que la densité pour cette variable uniforme était une fonction constante de valeur égale à 1. Alors, ce qui est fondamental, c'est qu'à partir, donc, de ces simulations qui sont intégrées dans les ordinateurs, et qui vous sont données a priori, vous allez pouvoir en fait simuler un grand nombre de variables aléatoires, pour l'instant, on va voir le cas des variables aléatoires à valeurs réelles, et au fur et à mesure du cours, on verra d'autres cas de figure. Donc, pour l'instant on va voir que grâce à ces générateurs de nombres aléatoires, nous allons pouvoir simuler les valeurs d'une variable aléatoire, de fonction de répartition F donnée. Donc, la méthode que nous allons montrer maintenant s'appelle la méthode de l'inversion de la fonction de répartition et je vais vous expliquer, donc, comment on fait. Donc, cette méthode est basée sur le théorème suivant, vous vous donnez, donc, une fonction de répartition, c'est-à -dire une fonction qui vérifie les propriétés 1, 2 et 3 que nous avons vu à la séance 1 de ce troisième chapitre. Donc, nous avons vu que cette fonction n'était pas toujours une fonction continue, elle peut sauter, donc, elle n'est pas forcément, en particulier, on a vu des cas, des exemples de telles fonctions, qui sont des fonctions en escaliers, donc, elle n'est pas forcément bijective, mais néanmoins, on peut donner un sens à son inverse. Donc, ce qu'on va définir, c'est ce qu'on appelle l'inverse généralisé de la fonction F, donc la fonction F est défini de R à valeurs dans 0, 1, donc son inverse généralisé va être défini de 0, 1, à valeurs réelles, et à tout u de 0, 1, nous allons associer le minimum des x réels tels que F de x est plus grand que u. Donc, ce minimum est bien défini, et nous allons voir ultérieurement des exemples de telle fonction inverse F (- 1). Donc, je vous laisse réfléchir tranquillement, à tête reposée, sur la définition de cet inverse, et on va voir nous, ce qu'on peut en faire. Ce que l'on va montrer c'est que si vous avez, ici, une variable aléatoire U, qui suit une loi uniforme sur 0, 1, si je regarde maintenant la variable aléatoire X qui est égale à F (- 1) de U, cette variable aléatoire est une variable aléatoire de loi P indice X, dès lors que P indice X a pour fonction de répartition la fonction F. Donc, nous pouvons ainsi construire une variable aléatoire de fonction de répartition F, et ceci nous donne une méthode de simulation de la variable aléatoire X, puisque, je, simuler cette variable aléatoire, ça veut dire générer des valeurs possibles de cette variable aléatoire, et nous allons pour se faire simuler, donc générer des valeurs de la variable aléatoire U et prendre leur image par la fonction F (- 1). Alors, bien sûr, nous devons prouver ce théorème et regarder ce que vaut la fonction de répartition de cette variable aléatoire, définie par X égale F (- 1) de U. Donc, nous devons calculer la probabilité que X soit inférieur ou égal à x, pour un x réel. C'est-à -dire la probabilité que F (- 1) de U soit plus petit ou égal à x. Mais pour un oméga F (- 1) de U de oméga, c'est le minimum des x, tels que U de oméga soit inférieur ou égal à F de x. Donc, si F (- 1) de U de oméga est plus petit ou égal à x, nécessairement U de oméga est inférieur ou égal à F de x. Et réciproquement, si U est inférieur ou égal à F de x, alors, x est dans l'ensemble qui nous intéresse ici, avec u égale U de oméga, et donc, il est plus grand que le minimum de cet ensemble, c'est-à -dire F (- 1) de U de oméga. Donc, les ensembles F (- 1) de U inférieur ou égal à x et U inférieur ou égal à F de x coïncident et leurs probabilités sont égales. Donc, maintenant, nous avons identifié la probabilité de X inférieur ou égal à x, avec la probabilité de U inférieur ou égal à F de x. F de x est un nombre compris entre 0 et 1, U est une loi uniforme, je vous rappelle que, sur 0, 1, sa densité, c'est la fonction, et constante, égale à 1 sur 0, 1, et fonction égale à 0 partout ailleurs, et donc, la probabilité d'avoir U plus petit ou égal à F de x, c'est exactement F de x, c'est exactement, ce qu'on voulait montrer. Nous avons donc identifié la fonction de répartition X avec cette fonction F. Donc, je répète, ce théorème nous donne une méthode de simulation de X, c'est-à -dire de création par une expérience numérique, de valeurs de X de oméga, pour petit oméga, donc, dans cet espace abstrait qu'on ne représente jamais. Alors, nous allons voir un exemple, 2 exemples, en fait, qui visualisent ce théorème. Un premier exemple, qui peut paraître très simple, mais qui est en fait assez subtil, qui va nous permettre de simuler une variable aléatoire de Bernoulli à partir d'une loi uniforme, et un deuxième exemple, on verra une simulation d'une variable aléatoire, ayant, elle, une loi à densité, à partir de ce théorème. Alors, vous voyez, donc, premier exemple, comment simuler une variable aléatoire de Bernoulli, de paramètre p, à partir d'une loi uniforme. Donc, voyez, on veut simuler une variable aléatoire qui ne peut prendre que 2 valeurs, soit 0 avec la probabilité 1- p, soit 1 avec la probabilité p, à partir d'une variable aléatoire de loi uniforme sur 0, 1. Donc, ce que l'on va montrer, je vais vous le faire de manière précise sur papier, c'est qu'on va simuler notre loi uniforme, si on récupère quand on simule cette loi U, un nombre compris entre 0 et 1- p, nous allons poser X égale 0, et si nous tirons une valeur de U qui est dans [1- p, 1], chaque tirage d'une valeur de U correspond, en fait, à choisir une expérience aléatoire, petit oméga, et le tirage vous donne la valeur de U de oméga, eh bien, si ce U de oméga est dans 1- p, 1, nous allons poser X de oméga égale 1. Alors, expliquons pourquoi on fait ça. Nous allons représenter la fonction de répartition de la loi de X, donc, X est une variable de Bernoulli de paramètre p. [AUDIO_VIDE] Alors, déjà , je peux représenter sa loi qui est particulièrement simple, donc elle ne charge que 0 et 1, et je vous rappelle que pour une variable discrète, la loi est représentée par un histogramme, un diagramme en bâtons, où on a la probabilité d'avoir X égale 0 qui vaut 1 moins p, et la probabilité d'avoir X égale 1, qui vaut p. Donc, par exemple, ici, la hauteur du bâton, c'est p et ici, c'est 1 moins p. Bien. Nous avons vu que la fonction de répartition correspondante pour une variable discrète, c'était une fonction en escaliers, et qui va sauter à chaque point chargée par la variable X, donc c'est une fonction qui prend toutes ses valeurs entre 0 et 1, donc je vais mettre 1 ici par exemple. Donc, là , en fait, ça ne représente pas l'axe des x, j'ai mis 0 à la même place, c'est juste pour avoir un ordre de grandeur des hauteurs, sur ma fonction en escaliers. Alors, la fonction en escaliers, elle vaut 0, pour tout R moins, alors je vais peut-être essayer de la superposer ici en rouge, voilà , et au point 0 elle va sauter, et on a vu qu'elle sautait de la valeur, probabilité d'avoir X égale 0, c'est-à -dire 1 moins p. Donc, ici, on va sauter d'une amplitude 1 moins p, et ma fonction en escaliers qui est continue à droite, va donc être égale à 1 moins p jusqu'à 1. Et là , la fonction en escaliers va sauter d'une hauteur d'amplitude p et elle saute jusqu'à 1, et elle vaut 1 ensuite sur tout l'intervalle 1 compris jusqu'à + l'infini. Donc ici, ce saut est de longueur p. Alors tout ça n'est pas très à l'échelle, j'en suis désolée j'aurais dû, ici, faire un intervalle de même hauteur que ce bâton, donc je vous laisse rectifier cela sur vos notes. Maintenant, ce qu'on veut, c'est se poser la question : que vaut f-1 de U? [AUDIO_VIDE] Je vous rappelle que c'est, f-1 de U, c'est le minimum des x tel que f(x) est plus grand que U. Donc U appartient à l'intervalle [0, 1]. C'est-à -dire que U appartient à cet intervalle, ici, et à chaque U de cet intervalle, je veux associer un antécédent x dans R+ ici, puisque X ne charge que R+. Et même, en fait on veut associer uniquement (0, 1). Si U appartient à l'intervalle fermé en [0, 1- p [ ouvert en 1- p, eh bien nous voyons que dans ce cas, f-1 de U est nécessairement égal à 0. En effet, ça va être le minimum des x tel que f(x) est plus grand que U, et vous voyez que f(x) prend souvent la valeur 0, et sinon, elle prend au moins la valeur 1- p. Ce qui n'est pas possible, puisque nous avons pris l'intervalle ouvert en 1- p. Et si U maintenant, appartient à l'intervalle [1- p, 1] fermé, eh bien nous allons poser f-1 de U est égal à 1 puisque c'est la valeur minimum à partir de laquelle f va être supérieur ou égal à U. Donc, ainsi, vous voyez que nous pouvons simuler une variable aléatoire, ou v.a., de Bernoulli. Alors maintenant, nous allons vous présenter une simulation d'une v.a. à densité, et essayez de visualiser sur cette simulation le théorème que nous venons de démontrer. Nous voulons donc simuler une v.a. dont la fonction de répartition et la densité sont représentées sur les graphiques que vous avez sous les yeux. Donc vous voyez que cette v.a. prend ses valeurs sur l'intervalle [0, 3] ces valeurs vont se lire en abscisse sur ces graphes, et nous savons, que la fonction de répartition est définie de [0, 3] à valeur dans [0, 1], [0, 1] se lit sur l'ordonnée. Ici la fonction de répartition est une fonction continue, essentiellement croissante, et nous allons essayer de visualiser la fonction inverse généralisée f-1. En tirant au hasard des v.a. sur [0, 1], donc on va représenter numériquement des valeurs de notre v.a. uniforme U, et voir ce que donne f-1 de U. Je vous rappelle que les valeurs f-1 de U, vont être les valeurs simulées de notre v.a. X. Donc, tirons au hasard une v.a. uniforme sur [0, 1] cela nous donne ce petit point rouge à peu près au niveau 0.7. Nous calculons son inverse par la fonction de répartition F, et nous avons ainsi simulé une valeur pour la v.a. X, vous voyez, on voit là ce point vert, entre 2.6 et 2.7. Donc, nous recommençons l'expérience, une fois, deux fois, alors vous voyez, ce troisième point, ici, est presque en 0 donc il est moins visible. Donc pour voir maintenant, évidemment, on a déjà vu que simuler 3 valeurs d'une v.a. ne peut pas nous permettre de nous assurer que la v.a. suit bien la loi dont la densité est représentée dans le deuxième graphique, donc nous allons simuler 100 valeurs de la loi uniforme, sur [0, 1], et voir ce que ça nous donne comme valeurs pour la v.a. X. Alors, vous voyez progressivement, l'obtention de ces valeurs de la variable X. Elles sont essentiellement situées, soit dans l'intervalle [0, 1.5], soit dans l'intervalle [2, 3], et vous soyez que ça correspond, en fait, aux intervalles qui sont chargées par la densité. Vous voyez que pour l'intervalle [1.5, 2], la densité est extrêmement petite, ce qui veut dire que la probabilité que la v.a. prenne ces valeurs, est extrêmement petite. Alors, nous pouvons nous amuser à regarder l'histogramme des valeurs vertes, c'est-à -dire que nous allons associer, à chacun des sous-intervalles, des unités, qui sont dessinées ici sur l'intervalle [0, 3], nous allons associer le nombre de valeurs de X, c'est-à -dire les points verts, qui tombent dans ces sous-intervalles. Donc on regarde cet histogramme, et vous voyez qu'il est ici, donc il ressemble quand-même très grossièrement à la surface qui se trouve sous la densité de X, mais c'est vraiment grossier, parce qu'on n'a fait que 100 expériences. Donc, nous avons vu dans le cours 1 que toute cette théorie des probabilités est fondée sur la répétition de l'expérience, ce que je vous ai dit et que nous justifierons dans le cours 5 par la loi des grands nombres, et donc, ce qu'on sait, c'est que plus on fait d'expériences, plus on a de chances de mieux réaliser les valeurs de la v.a. X. Donc nous allons recommencer maintenant, 1000 fois l'expérience, et donc là on va avoir un algorithme accéléré, pour simuler 1000 valeurs de la v.a. X en tirant 1000 fois une loi uniforme sur [0, 1]. Donc voilà , alors là évidemment, comme on a 1000 valeurs, ça fait presque une répartition continue des points sur [0, 3]. Maintenant, si l'on regroupe ces valeurs de manière graphique sous la forme d'un histogramme, on va donc faire l'histogramme de ces 1000 valeurs, et vous voyez que l'on obtient un histogramme qui est beaucoup plus précis, et dont la surface approche beaucoup mieux la surface qui se trouve sous la densité de la v.a. X.