[SON] [AUDIO_VIDE] Bonjour, dans la séance 4 du cours 3, nous avons défini l'espérance d'une variable aléatoire réelle comme, en fait, l'intégrale de Lebesgue de la variable aléatoire X, X de oméga, par rapport à la mesure P, P la probabilité des oméga. Donc une notion très abstraite, que nous avons construite sur l'espace abstrait de probabilité oméga a P. Alors que je vous rappelle que nous avons introduit l'espérance dans le cours 2, comme étant une quantité numérique qui nous permettrait de résumer quantitativement donc la variable aléatoire X. Donc, bien que le cours de la séance 4 puisse paraître très abstrait, nous allons maintenant voir comment dans la pratique, nous pouvons calculer des espérances de variables aléatoires. Nous allons commencer par un rappel du théorème que nous avons donné en fin de séance 4, qui était un théorème qui nous montrait que, pour obtenir cette espérance de la variable aléatoire X, quand X est une variable aléatoire intégrable, bien sûr, en fait, on pouvait transporter la structure abstraite oméga a P vers la structure de l'espace d'arrivée, R muni de sa tribu borélienne et muni de la probabilité qui est la loi de X. Et je vous rappelle que nous avions montré que pour toute fonction mesurable ou bornée g où tel que g(X) est intégrable, eh bien, l'espérance de g(X) que nous avons construite comme intégrale de Lebesgue de la fonction de l'aléa g(X) est égale à l'intégrale de g(x) intégrée par rapport à la loi de X. Ce qu'on a gagné ici, c'est que cette loi de X est définie, est une mesure de probabilité sûre R et qu'on connaît mieux ces lois. Donc on a vu comment décrire ces lois, en particulier par la fonction de répartition, mais on verra dans la séance 6 d'autres moyens de caractériser les lois de variables aléatoires réelles. En particulier, si l'on suppose que cette loi de x a une densité f, ce qui est le cas dans la proposition suivante, et si l'on considère une fonction g qui nous assure que g(X) est intégrable, qui va donc vérifier le fait que l'intégrale sur tout R de valeur absolue de g(X) fois f(x) d x est fini, la fonction valeur absolue de g est convergente pour la mesure f(x) d x. Eh bien, l'espérance de g(X) va être égale à l'intégrale de moins l'infini à plus l'infini de g(x) f(x) d x. Donc vous voyez que si vous connaissez la fonction f, la densité donc de la loi de X, eh bien, par un calcul d'intégrale, soit de Riemann, soit de Lebesgue, je vous laisse le choix en fonction de vos connaissances de l'intégration, on pourra calculer l'espérance de g(X). Alors pourquoi je dis soit de Riemann, soit de Lebesgue? Bien, parce qu'on a mis une condition d'absolue convergence de la fonction g f, je vous rappelle que f est positive, puisque c'est une densité de probabilité, et quand on a absolue convergence comme ça, d'une fonction g f, eh bien, on sait que les intégrales de Riemann et de Lebesgue coïncident. Bien. Donc cette proposition ici, c'est vraiment un outil de calcul pour le calcul de l'espérance de X ou de n'importe quelle bonne fonction de X. Quand je dis bon, ça veut dire une fonction qui nous permet d'effectivement définir l'espérance de g(X). Alors, en particulier, si on regarde l'espérance de X, pour g(x) égal x, l'identité, nous aurons que l'espérance de X est égale à l'intégrale de moins l'infini à plus l'infini de x f(x) d x, et si l'on veut calculer la variance de X, nous savons que c'est l'espérance de x moins E(X), le tout au carré, donc ça va être l'intégrale de moins l'infini à plus l'infini de la fonction x moins E(X), le tout au carré, intégrée donc par f(x) d x, où f est la densité de X, et si vous développez en fonction de la formule du binôme, vous aurez encore l'autre écriture de la variance de X comme étant l'espérance de x 2 à savoir l'intégrale de moins l'infini à plus l'infini de x carré f(x) d x moins l'espérance de X au carré, où espérance de X a été calculé ici. Donc,ça, ce sont des règles de calcul dès lors qu'on connaît la densité de la loi de la variable aléatoire X. Je vais vous donner un argument heuristique pour comprendre cette proposition qui nous relie la loi de X et cette intégrale, l'intégrale de Riemann, par exemple, en f(x) d x. Pour cela, je vous rappelle qu'on a construit l'espérance de X comme la limite d'espérance de fonctions étagées qui approchaient X, on a vu un exemple particulier dans la séance 4, qui était construit sur les ensembles dyadiques, mais je vous ai dit que cette espérance de X, ce nombre-là était indépendant de la suite croissante de fonctions étagées qui convergeaient vers X. Ici, nous en voyons un autre exemple. Je considère ma variable aléatoire X et pour n, un nombre entier positif strictement fixé, je vais définir la variable aléatoire X n (oméga) comme valant i sur n pour i un entier relatif, i dans Z, et X n (oméga) sera égal à i sur n si X (oméga) est compris au sens large, entre i sur n, et au sens stricte, i plus 1 sur n. Donc si X oméga) est dans l'intervalle i sur n i plus 1 sur n, fermé en i sur n et ouvert en i plus 1 sur n, on pose X n (oméga) égal i sur n. Donc vous voyez qu'ici encore, on va définir une suite de variables aléatoires, puisque ces variables sont indexées par n, qui sont définies par les valeurs que prend la fonction X. Alors regardons ce que vaut l'espérance de g (X n). Remarque, (X n) prend ses valeurs dans un ensemble dénombrables, donc on sait que l'espérance de g (X n), c'est la somme sur tous les i entiers et relatifs possibles de g de i sur n probabilités que X n égal i sur n. Or, la probabilité que X n égal à i sur n est exactement égale à la probabilité que X soit dans l'intervalle i sur n, i plus 1 sur n, ce que j'ai écrit ici. Maintenant, je vous rappelle que cette probabilité-là, c'est la probabilité que X soit dans moins l'infini, i plus 1 sur n, moins la probabilité que X soit dans moins l'infini, i sur n. Quand n tend vers l'infini, la largeur de cet intervalle qui vaut 1 sur n tend vers 0. Comme nous savons que la densité est la dérivée de la fonction de répartition, je vous rappelle que nous avons vu que cette probabilité d'avoir X dans l'intervalle i sur n, i plus 1 sur n, je viens de rappeler que c'est donc f la fonction de répartition de X pris en i plus 1 sur n, moins la fonction de répartition de X pris en i sur n. Et si on regarde donc l'accroissement de cette fonction de répartition, c'est-à-dire cette probabilité-là divisé par la largeur de l'intervalle 1 sur n, nous avons vu que quand n tend vers l'infini, eh bien, ces accroissements étaient très proches de la valeur de la densité en i sur n. Donc en fait, nous allons pouvoir écrire cette probabilité-là comme le produit de f de i sur n fois la largeur de l'intervalle 1 sur n. Ce que j'ai fait ici. Là, on est content, parce qu'on reconnaît une somme de termes qui est en fait une somme de Riemann. Alors, vous avez l'habitude de définir des sommes de Riemann sur des intervalles fermés, bornés de R. Ici, vous accepterez, j'espère aisément, qu'on peut généraliser cette forme-là sur tout R et cela vous permet de comprendre pourquoi, quand on fait tendre n vers l'infini, cette quantité-là va tendre vers l'intégrale sur tout R de g (X) f (x) d x, alors qu'ici, cette quantité va tendre vers l'espérance de g (X). Bon, j'ai bien dit que c'est un argument heuristique, pas une preuve complètement détaillée, mais je voulais vous donner une idée de la justification de ce calcul. Donc c'est vraiment lié à cette vision de la densité dont on a vu que c'était la dérivée de la fonction de répartition. Dans les bons cas, bien sûr. Bien. Alors voyons maintenant quelques exemples d'application et quelques calculs d'espérance et de variance des variables aléatoires usuelles que nous avons introduites dans les séances précédentes. Premier exemple, le plus simple, on va considérer comme variable aléatoire X, une variable aléatoire de loi uniforme sur un intervalle a, b. Donc nous savons que dans ce cas, X est une loi à densité et que sa densité vaut 1 sur b moins a sur l'intervalle a, b et vaut 0 ailleurs. L'espérance de X, c'est l'intégrale de a à b de X f (x) qui est ici 1 sur b moins a d x, donc on sait que la fonction x a pour primitive x 2 sur 2, et donc, espérance de X sera égal à ce que j'ai noté, x 2 entre crochets pris entre a et b, c'est-à-dire b au carré moins a au carré divisé par 2 b moins a, et on trouve a plus b sur 2. et donc vous voyez que pour une loi uniforme dont on a vu qu'elle était liée à la mesure de Lebesgue qui mesure les longueurs des intervalles, ben on a quelque chose de très cohérent avec la géométrie, puisque si les valeurs peuvent tomber dans n'importe quel petit sous-intervalle de même taille avec même probabilité, eh bien l'espérance de cette variable, donc la moyenne des valeurs de la variable, c'est le milieu de l'intervalle. Donc c'est tout à fait l'intuition, bien sûr. Alors si maintenant on veut calculer la variance de x, on a vu que c'était l'intégrale de x au carré fois la densité f(x) dx, donc ici on aura un sur b moins a l'intégrale de x deux dx, moins l'espérance de x, au carré, donc moins ((a+b)/2) au carré. Donc je vous laisse faire le calcul en utilisant le fait qu'une primitive de x au carré est égale à x trois sur trois, et on trouve finalement donc ce nombre, b moins a au carré sur 12. Je vous rappelle qu'une variance est toujours positive, ça peut être une indication d'erreur de calcul si vous trouvez quelque chose de négatif. Donc, l'écart-type ici, c'est b moins a sur deux racine de trois, donc il va vous quantifier l'erreur moyenne que l'on peut avoir quand on tire au hasard une variable aléatoire de loi uniforme sur a, b, donc erreur par rapport à cette moyenne qui est le milieu de l'intervalle a, b. Alors regardons maintenant dans le cas d'une loi exponentielle donc ce que valent l'espérance donc et la variance de X. Donc on va prendre une loi exponentielle de paramètre lambda, ou lambda est strictement positif, et on écrit, donc je vous rappelle que la densité dans ce cas-là, de cette loi, elle vaut lambda puissance moins lambda x s x est strictement positif, et elle vaut zéro sinon. Donc l'espérance de x est égale à l'intégrale de zéro à plus l'infini de lambda x et puissance moins lambda x dx, et nous pouvons ici intégrer cette quantité-là par exemple, par une intégration par partie, en remarquant que lambda et puissance moins lambda x, c'est égal à la dérivée de moins e puissance moins lambda x. Donc en fait l'espérance de x vaudra la fonction moins x et puissance moins lambda x calculée entre plus l'infini, donc entre plus l'infini et sa valeur en zéro, et puis donc, j'applique la formule d'intégration par partie, donc il y a un moins fois le moins qui est ici donc plus, intégrale de zéro à l'infini, je dérive la fonction x ça me donne un, et donc, plus l'intégrale de zéro à plus l'infini de e puissance moins lambda x dx. Ici vous voyez que en plus l'infini, puisque lambda est strictement positif, l'exponentielle tend très fortement vers zéro, donc la quantité, cette quantité ici va être nulle en plus l'infini, elle est bien sûr de manière évidente nulle en zéro, donc ce terme-là est nul, et notre intégrale ici eh bien on sait qu'une primitive de e puissance moins lambda x ça va être moins un sur lambda e puissance moins lambda x, qui va donc être égal à zéro en plus l'infini et qui vaudra un sur lambda en zéro. Donc finalement l'espérance de x va nous donner un sur lambda. Hein, je vous liasse écrire le calcul et prendre le temps de le faire à tête reposée. Alors je vous rappelle que je vous ai dit qu'une loi exponentielle modélisait une variable aléatoire de loi exponentielle modélisait très souvent une durée de vie, donc vous voyez que si le paramètre de la loi exponentielle est lambda, eh bien la durée de vie moyenne, hein, on avait parlé de durée de vie de bactéries, ou de temps entre deux communications téléphoniques par exemple, eh bien la durée de vie moyenne d'une bactérie ou le temps moyen de communication sera égal à un sur ce paramètre. Donc quand vous voyez un paramètre faut avoir tout de suite l'intuition hein que le temps moyen associé dans la modélisation est un sur le paramètre. Alors je vous laisse à titre d'exercice montrer par vous-mêmes que la variance de cette loi exponentielle est égale à un sur lambda au carré. Donc vous aurez à calculer ce même type de quantité mais avec x au carré au lieu de x, et je vous laisse appliquer, là encore, une formule d'intégration par partie pour obtenir le résultat. Bien. Alors maintenant nous allons regarder ce qui se passe pour une loi normale, x, donc, de une loi normale centrée réduite, donc on a vu que la densité était égale à un sur racine de deux pi fois exponentielle moins x au carré sur deux, et que cette densité pouvait prendre toutes valeurs sur moins l'infini plus l'infini. Donc l'espérance de x vaut un sur racine de deux pi, intégrale de moins l'infini à plus l'infini de x e puissance moins x deux sur deux dx, et là nous n'avons pas de calcul à faire, alors bien sûr une remarque cette intégrale est convergente parce que vous avez cette exponentielle moins x carré sur deux qui tend très violament vers zéro à l'infini, et cette fonction x puissance moins x deux sur deux est impaire, et donc nous savons que dans ce cas-là l'intégrale va être donc égale à zéro par des arguments de symétrie. Alors nous allons calculer la variance de cette loi normale, et nous allons montrer que la variance de x, pour x une loi normale de paramètre zéro et un, est égale à un. Je vous rappelle donc que variance de grand X est égale à l'espérance de x au carré moins l'espérance de x le tout au carré, mais nous venons de voir que cette quantité-là est égale à zéro. Donc nous sommes ramené ici à calculer uniquement le moment d'ordre deux de la variable aléatoire x. Donc, en appliquant toujours notre théorème, nous savons que c'est égal à un sur racine de deux pi, l'intégrale de moins l'infini à plus l'infini, de x au carré que je vais écrire x fois x, e puissance moins x deux sur deux, dx. Alors pourquoi j'ai écrit x fois x, parce que pour calculer cette intégrale, je vais là encore utiliser une formule d'intégration par partie en remarquant que cette quantité ici est, je vais l'écrire g', hein là je vais développer un peu mon intégration par partie, donc je vais avoir f(x) qui vaut x, et g'(x) qui vaut x e puissance moins x deux dx. Donc dans ce cas-là, je vais avoir g(x) qui est égale à moins e puissance moins x deux sur deux. Donc je peux appliquer le théorème d'intégration par partie, et j'aurai comme variance de x est égale à un sur racine de deux pi, facteur de x facteur de moins e puissance moins x deux sur deux pris entre moins l'infini et plus l'infini, plus, hein donc j'ai le moins de l'intégration par partie fois le moins de la fonction g(x), donc plus un sur racine de deux pi, intégrale de moins l'infini à plus l'infini, donc f'(x) vaut un, puisque f(x) vaut x, donc ici on a juste e puissance moins x deux sur deux, dx. Alors, Je réécris un peu. Donc ici c'est ce calcul, beh on a rien à faire, puisqu'on sait que e puissance moins x deux sur deux divisé par racine de deux pi et la densité d'une mesure de probabilité, on sait que son intégrale vaut un. Hein, donc cette quantité-là vaut un et puis donc, dans ce premier terme, ben on a l'exponentielle moins x deux sur deux qui tend violament vers zéro, et beaucoup plus violament que x ne tend vers l'infini en plus l'infini et en moins l'infini donc toute cette quantité-là est égale à zéro. Nous avons bien montré que variance de x est égale à un. Nous allons utiliser ce calcul pour montrer que si y est une variable aléatoire normale de loi paramétré par petit m et sigma au carré, hein, je vous renvoie aux séances précédentes pour voir la définition donc de ces lois, eh bien, l'espérance de Y est égale à m, et la variance de Y est égale à sigma au carré. Donc en fait ces deux paramètres que nous avons introduit un peu artificiellement sont en fait l'espérance et la variance de la variable aléatoire normale, et en fait cette classe de loi normale où voyez qui est paramétrée par son espérance et sa variance. Hein, alors qu'on a vu que par exemple la loi exponentielle qui ne dépend que d'un paramètre, ce paramètre est lié fortement à l'espérance. A la variance aussi bien sûr, mais il suffit de connaître l'espérance d'une loi exponentielle pour en connaître sa loi. Bien, donc nous allons montrer ce dernier résultat, sur les variables aléatoires normales, donc je vous rappelle que la densité de y est égale à un sur sigma racine de deux pi, exponentielle moins x moins m, heu moins y, on va prendre y, au carré, sur deux sigma deux, voila. Donc nous allons appliquer maintenant nos règles de calcul, et nous avons que l'espérance de Y est égale à un sur sigma racine de deux pi, intégrale de moins l'infini à plus l'infini de y, exponentielle moins y moins m au carré sur deux sigma deux, dy. En fait nous voulons nous ramener au calcul que nous avons fait précédemment, et donc nous allons poser x égale y moins m sur sigma. Donc je fais un changement de variable, je vais entourer ça pour qu'on le, voila, je fais un changement de variable dans mon intégrale, donc je vais avoir un sur sigma racine de deux pi, intégrale, intégrale, bon je vais mettre sur R pour faire plus vite, y est donc égal à sigma x plus m, et je vais avoir e puissance moins x deux sur deux, et dy, on peut l'écrire ici en vert, dy est égal à sigma dx. Bien. Donc je vais écrire sigma dx. Alors, première remarque, les sigma qui sont ici se simplifient, et deuxième remarque, donc, cette intégrale vaut intégrale, vaut un sur racine de deux pi intégrale de sigma x e puissance moins x deux sur deux dx, or nous avons vu que l'intégrale de x x puissance moins x deux sur deux dx c'était nul par des argument de symétries, et donc finalement, il nous reste, hein donc on peut le réécrire, un sur racine de deux pi, intégrale sur R, de sigma x e puissance moins x deux sur deux dx qui est donc égale à zéro, plus, donc j'ai m sur racine de deux pi, intégrale sur R de e puissance moins x deux sur deux dx. Or, cette quantité est égale à m fois un sur racine de deux pi, qui vaut un. Donc cette quantité-là vaut m, on a bien montré que l'espérance de Y était égale à m. Donc exercice, je vous laisse faire à titre d'exercice, le calcul de la variance de Y, hein, je vous rappelle que la variance de Y c'est l'espérance de Y au carré moins m au carré, puisque nous avons déjà vu ici que l'espérance de Y était égale à m, et par un argument de changement de variable de même type, vous pourrez montrer que la variance de Y est égale à sigma au carré.