[SON] [AUDIO_VIDE] Bonjour. Nous allons aujourd'hui commencer un nouveau chapitre. Donc, dans ce chapitre 2, nous allons étudier de manière systématique les variables aléatoires qui sont à valeurs sur un espace d'état Oméga fini ou dénombrable. En fait, nous avons terminé le premier chapitre par un exemple, l'exemple du lancer de 2 dés, où on avait étudié la variable aléatoire somme des résultats des 2 dés, et nous avions vu comment décrire, graphiquement, la loi de cette variable aléatoire, et nous allons maintenant, dans ce chapitre, faire ça de manière systématique. Donc, dans cette première séance, nous allons étudier la loi d'une variable aléatoire à valeurs, donc définie sur un espace d'état qui est discret, c'est-à -dire fini ou dénombrable. Donc, je vais appeler X une variable aléatoire définie de grand Oméga, à valeurs dans F égale X de Oméga. Puisque Oméga est supposé fini ou dénombrable, eh bien, nécessairement F va être dénombrable et je vais pouvoir énumérer les valeurs prises par la variable aléatoire X, donc, je vais les noter x1, x2, etc., et de manière générale, x indice i, la i-ième valeur prise par X. Cette possibilité d'énumérer les valeurs de X va nous permettre de définir très simplement la loi de X. Comme nous l'avons déjà dit précédemment, dans ce cas particulier où Oméga et F sont finis ou dénombrables, nous allons munir ces 2 ensembles de la tribu de toutes leurs parties. Donc, je note P de Oméga, l'ensemble de toutes les parties de Oméga et P de F, l'ensemble de toutes les parties de F. Donc, X considéré comme application de Oméga muni de l'ensemble de ses parties sur F muni de l'ensemble de ses parties, et de manière évidente, une variable aléatoire, puisque l'image réciproque par X d'un ensemble de F est un ensemble de grand Oméga. Notre but est donc de caractériser la loi de X. Je vous rappelle que nous avons vu dans la séance suite du chapitre 1, ce qu'était la loi de X, c'est une probabilité sur F, qui est défini ainsi, pour tout sous-ensemble B inclu dans F, la loi P indice X de B est égale à la probabilité d'avoir X dans B. Je vous rappelle qu'ici cette notation signifie l'ensemble des petits oméga de grand Oméga, tel que X de oméga est dans B. Nous avons vu précédemment, dans le chapitre 1, qu'une probabilité sur un ensemble dénombrable, est caractérisée par les probabilités de ses singletons. Donc, nous pouvons, ici, F est dénombrable, nous avons décrit ces éléments par les données x1, x2 etc., xi. Donc, pour connaître, une probabilité sur F, il suffit de connaître les probabilités des singletons xi, pour i appartenant à N. Donc, la proposition qui est fondamentale ici, c'est que la loi P indice X, de X, est caractérisée par les données des valeurs possibles xi de X, et des probabilités de réalisation de ces valeurs. Donc, je vais noter p indice i, et [INCONNU] ici, X, ça va être la probabilité d'avoir X égale xi, je vous rappelle, ça, c'est la probabilité de l'ensemble des Oméga tels que X de Oméga égale xi, et qui est aussi la loi P indice X du singleton xi. Donc, la loi de X est caractérisée par ces données-là . On peut revoir, donc, rapidement la preuve, dans, dans ce cas-là , même si on a déjà plus ou moins écrit cette preuve, dans le premier chapitre. Si je veux, donc, je veux décrire la loi de X, donc je veux connaître P X de B pour un sous-ensemble quelconque de F, P X de B, c'est P X de l'union sur i, tel que xi soit dans B, des singletons xi. Les xi sont, pour des xi distincts, les singletons xi sont disjoints, donc, par propriété de sigma additivité de la probabilité P X, nous avons que cette quantité vaut la somme des i, tels que xi est dans B, des P X de xi, qui est égal à la probabilité de l'union sur i, tels que xi dans B, des ensembles de oméga, tels que X de oméga égale à xi, alors vous voyez que, là , j'ai écrit, donc, je vous rappelle que cette quantité ici P X de xi, c'est égal à la probabilité d'avoir X égale xi. Comme les xi sont distincts, les événements ici, X égale xi sont disjoints, et donc, la somme de ces probabilités d'événements disjoints est égale à la probabilité de la réunion. Une fois que j'ai remarqué ça, eh bien, c'est fini, puisque là , je vais pouvoir écrire que ça, c'est la probabilité d'avoir X dans B. Et donc, j'ai bien montré que cette loi P X caractérisée par les probabilités des singletons xi, eh bien, me permet bien d'obtenir la loi de X, au sens où on l'a définie avant, c'est-à -dire à chaque partie B de F associée à la probabilité d'avoir X dans B. Alors, une remarque fondamentale qui est la suivante, c'est que, là , on a supposé que Oméga était dénombrable, on en a déduit que F était dénombrable et ça nous permet de caractériser la loi de X de cette manière-là . En fait, dans de nombreux cas, et c'est le gros intérêt des variables aléatoires, il est très difficile de décrire Oméga. Oméga n'est pas forcément dénombrable, mais ce qu'on a comme information, c'est que X de Oméga, c'est-à -dire F est dénombrable. Et dès lors que F est dénombrable, on va pouvoir caractériser la loi de X, c'est-à -dire P X par les probabilités de réalisation des singletons de F, de la même façon. Donc, cette proposition-là est vraie, même si grand Oméga n'est pas fini ou dénombrable, du moment que F l'est, et décrit par les valeurs xi, bien sûr. Alors, nous allons maintenant regarder des exemples très standards et importants de variables aléatoires, qu'on appelle discrètes, puisqu'elles prennent leurs valeurs dans un espace fini ou dénombrable. Et je vais essayer de vous les introduire à partir de l'exemple du pile ou de face, mais ce sont des variables aléatoires, qui interviendront dans de nombreux modèles différents. Donc, la plus simple des variables aléatoires qu'on puisse considérer, va prendre 2 valeurs. En effet, si une variable aléatoire prend une seule valeur, bien, voyez, il n'y a plus d'aléa, puisque toutes les valeurs de votre variable aléatoire seront identiques, on va mettre un aléa, si on a au moins 2 valeurs possibles pour la variable aléatoire. Donc, pensez à un pile ou face, Oméga est un pile ou face, et si dans le résultat, dans votre expérience, vous obtenez un pile, vous allez lui associer la valeur X égale 1, et si vous obtenez un face, vous allez supposer que X de face, c'est égal à 0. Donc, cela vous définit une variable aléatoire avec 2 valeurs, qui sont 0 et 1. Une telle variable aléatoire s'appelle une variable de Bernoulli. Alors, bien sûr, pour définir la loi de cette variable aléatoire, il faut connaître la probabilité d'avoir X égale 1 et la probabilité d'avoir X égale 0. Une remarque, comme l'ensemble des valeurs est 0, 1, eh bien, la probabilité d'avoir X égale 1, plus, la probabilité d'avoir X égale 0, est égale 1, donc, il nous suffit, en fait, de connaître la probabilité d'avoir X égale 1. C'est-à -dire, ici, la probabilité d'avoir pile. Donc, vous voyez que dès que je me donne un nombre p, compris entre 0 et 1, qui est probabilité d'obtenir pile, j'aurais que la probabilité d'avoir X égale 1, c'est-à -dire la loi de X prise en le singleton 1, qui vaut p, et la probabilité d'avoir X égale 0, qui est la loi de X prise en le singleton 0, qui vaut 1- p. Une telle loi, donc caractérisée par 1, p, et par 0, 1- p, s'appelle une loi de Bernoulli de paramètre p. Supposons maintenant qu'on fasse une infinité de lancers de pile ou face, et on s'intéresse à la loi du premier succès, si on considère qu'on aura succès, si on obtient un pile. Donc, nous avons déjà calculé calculer en fait, ce type de probabilité dans la séance sur les événements indépendants du chapitre 1. Nous supposons que tous nos lancers sont indépendants, et on va regarder, calculer la probabilité qu'on ait notre premier pile au k-ième lancer. Cet événement-là est traduit par le fait que dans les k moins 1 premiers lancers, nous avons obtenu un face et au k-ième lancer, nous avons obtenu un pile. Comme les expériences sont indépendantes, nous savons que cette probabilité-là est égale au produit des probabilités d'obtenir un face k moins 1 fois, fois, la probabilité d'obtenir un pile, pour décrire la probabilité de la succession, face, face, face, k moins 1 fois, et pile. La probabilité d'obtenir un pile, c'est p, la probabilité d'obtenir une face, c'est 1- p et donc, nous trouvons finalement que la probabilité d'avoir un premier pile au k-ième lancer, c'est p facteur de (1- p), puissance (k- 1). Et ceci pour n'importe quel entier k supérieur ou égal à 1. Cela nous permet de définir une nouvelle loi de variables aléatoires ou une nouvelle variable aléatoire, qu'on appelle une variable géométrique de paramètre p dans 0, 1, ou une variable aléatoire ayant la loi géométrique de paramètre p dans 0, 1, et ça va être une variable à valeur dans N étoile, tel que pour tout k de N étoile, la probabilité d'avoir X égale k, est égale à p (1- p), (k- 1). Je vous rappelle que pour décrire une telle loi, on va décrire ça par des points, qui vont être les valeurs possibles de X, ici, ce sont les valeurs entières, non nulles k, et la probabilité p facteur (1- p) puissance (k- 1) de réalisation de ses valeurs. Donc, je vous montre maintenant sur un diagramme, ces couples k, p (1- p) puissance (k- 1) pour différentes valeurs de p. Donc, ici, les valeurs, vous avez une distribution de X pour une loi géométrique de paramètres 0, 2, donc ça, ce sont les points rouges, pour p égale 0, 5, vous avez là les points en vert, et pour p égale 0, 8, vous avez les points en violet. Donc, remarque, pour k égale 1, la probabilité que la loi géométrique de paramètre p va être 1, eh bien, c'est p fois (1- p), puissance 0, qui vaut 1 donc, c'est p. Donc, c'est normal qu'ici, vous ayez le point d'abscisse 1, et de valeur p pour les différentes valeurs de p. Alors, vous pouvez remarquer que suivant les valeurs de p, vous allez avoir une décroissance plus ou moins violente, de ce diagramme en bâtons ou de ces courbes, ici, correspondant aux valeurs p indice k, pour chaque des valeurs entières de k. Alors, une autre loi, donc, là , vous voyez ces lois géométriques, c'est toujours des lois de succès, des lois qui décrivent des variables aléatoires qui définissent un premier événement, une première arrivée d'un événement. Maintenant, on va s'intéresser à une autre loi extrêmement fondamentale dans la pratique, qu'on appelle une loi binomiale, liée à une variable binomiale, qui elle va être paramétrée par 2 valeurs, n et p. Donc, pour l'introduire, nous allons revenir à notre jeu de pile ou face, et on suppose maintenant qu'on a fait n lancers, donc n va être un entier naturel, non nul pour que ça ait un sens, donc on fait toujours des lancers indépendants, et je regarde le nombre de pile obtenu après n lancers. Donc, ça me définit une variable aléatoire S indice n, qui est indexée par l'entier n et qui est, donc, égale à la somme de i égale 1, à n, des Xi, si je désigne par Xi, la variable aléatoire X que j'avais introduite par la loi de Bernoulli qui correspond au résultat de mon i-ième lancer. C'est-à -dire que Xi vaut 1, si j'ai eu un pile et 0 si j'ai eu un face. Donc, si je somme les Xi pour i égale 1, à n, j'aurais bien le nombre de pile au cours de mes n premiers lancers. Remarquons que l'ensemble des valeurs de cette variable aléatoire Sn varie entre 0 et n, il y a donc n + 1 valeurs dans cet ensemble. Quelle est la loi maintenant de Sn? Je vais prendre une valeur k quelconque, comprise entre 0 et n, et je dois calculer la probabilité d'avoir Sn égale k. C'est donc la probabilité de l'ensemble des suites de résultat de mon lancer de pile ou face, sur n tirages, sur Oméga, tel que le nombre de pile soit égale à k, c'est-à -dire la somme de i égale 1, à n, des Xi de Oméga doit être égale à k. Alors, nous avons déjà vécu ce type de calcul, vous avez une suite de résultats de vos lancers de pile ou face, et parmi cette suite de n résultats, k seront des piles et (n- k) seront des faces. On va donc, d'abord, choisir dans cette suite de n lancers la place des k piles, et on a le coefficient binomial n, k manières de choisir ces k piles, c'est le nombre de parties à k éléments parmi n éléments, fois la probabilité de tirer un pile, p puissance k, puisque j'ai k endroits où je vais avoir un pile, et fois, dire que sur les autres tirages, je vais obtenir un face, donc j'ai une probabilité (1- p) d'avoir un face et donc, si j'ai (n- k) tirages pour lesquels j'obtiens un face, ça me donnera la probabilité (1- p) puissance (n- k). Ici, bien sûr, j'ai utilisé fondamentalement le fait que mes tirages sont indépendants. Donc, vous voyez que j'ai construit ainsi une variable aléatoire, à valeur dans 0, n, telle que la probabilité de Sn égale k, soit égale à ce coefficient binomial de k parties parmi n, p puissance k, (1- p) puissance (n- k). Je vous rappelle que, enfin, je suis dans la même hypothèse que précédemment où p est la probabilité d'obtenir un pile. Donc, p, ici, c'est un nombre compris entre 0 et 1, il n'y a aucune confusion possible entre n, qui est un entier naturel et p qui est un nombre strictement compris entre 0 et 1, pour que les choses aient de l'intérêt. Donc, une variable aléatoire qui a cette loi-là , s'appelle une loi binomiale de paramètres n et p, et je vais la noter B ronde indice n, p, dans ce sens-là , je vous rappelle n est un entier et p un nombre compris entre 0 et 1. Alors, voyez si on veut comprendre un peu comment on calcule la loi d'une telle variable, on va le faire sur un exemple, on va par exemple regarder la loi binomiale de paramètres 4, un quart, si on étudie par exemple S4 qui a une loi binomiale de paramètres 4 et un quart, on peut décrire ainsi donc, la loi de S4. En fait, on va avoir P de S4 égale k, qui est égal à la manière de choisir une partie à k éléments, parmi 4, un quart puissance 4 et 1 moins un quart, ça va faire 3 quarts, puissance 4 moins k, et cela pour tout k appartenant à 0, 1, 2, 3, 4. Il y a donc 5 valeurs possibles pour S4. Donc, on peut s'amuser à calculer, par exemple, P de S4 égale à 0, eh bien, voyez le nombre de parties par définition, je vous rappelle le nombre de parties à 0 élément parmi 4, c'est le même que le nombre de parties à 4 éléments parmi 4, c'est 1, donc, vous avez un quart puissance 0, qui vaut 1 et donc, il vous reste juste 3 quarts puissance 4. Si on regarde P de S4 égale 1, le nombre de parties à 1 élément parmi 4, eh bien, vous en avez 4, fois, un quart puissance 1, fois, 3 quarts puissance 4 moins 1, égale 3, c'est-à -dire qu'on obtient finalement 3 quarts puissance 3. On peut s'amuser encore à regarder la probabilité d'avoir S4 égale 2, donc là , on va regarder l'ensemble des parties à 2 éléments parmi 4. Donc, je vous rappelle que ça, c'est factorielle 4 sur factorielle 2, factorielle 2, par définition des coefficients binomiaux, fois, un quart au carré, fois, 3 quarts au carré, puisque k égale 2. Et ici, finalement, vous voyez, on trouve factorielle 4, c'est 4 fois 3 fois 2, qu'on divise par 4, et on va donc avoir un 3 fois 2, 6, divisé, on va mettre 6, divisé par 4 au carré, je vous laisse arranger le résultat finalement, et vous avez encore du 3 au carré divisé par 4 au carré, c'est immédiat de simplifier tout ça. Donc, je vous laisse aussi à titre d'exercice continuer, et calculer vous même, P de S4 égale 3, et P de S4 égale 4. Et puis, Pour finir l'exercice, vous pourrez faire une représentation graphique par diagramme en bâtons de cette loi binomiale de paramètre (4, 1/4) Alors un exemple peut-être un peu plus concret, c'est l'exemple suivant, qui consiste à étudier les grandes dépressions météorologiques, au mois de mai, en France, en 2013 on a eu un temps particulièrement épouvantable au mois de mai, donc c'était amusant de regarder cet exemple-là , et donc on suppose qu'il y a en moyenne 2 grandes dépressions météo au mois de mai en France par siècle, et on se demande si cette hypothèse est réaliste. Donc on a regardé les dépressions dans les 100 dernières années et il s'avère qu'elles se sont passées, donc les dépressions météorologiques du mois de mai, elles se sont passées en 1967, 2000, 2002, 2013. Donc, si on suppose que ce nombre de dépressions suit une loi binomiale, nous on cherche à tester, à savoir si effectivement, on peut supposer qu'en moyenne il y a 2 dépressions, donc ça veut dire que ce nombre de dépressions aura une loi binomiale de paramètre 100, puisqu'il y a 100 années, et de paramètre p, où p c'est la probabilité d'obtenir une dépression. Si on suppose qu'il y en a en moyenne 2 pour 100 années, ça sera 0.02. Donc maintenant regardons si c'est cohérent avec nos observations du dernier siècle, nous on a vu qu'il y avait eu quatre dépressions, et donc on va regarder, pour une variable aléatoire, de loi binomiale, de paramètre 100 et 0.02, s'il est raisonnable d'obtenir un nombre de dépressions qui est inférieur ou égal à 4. Alors comment on peut calculer un tel événement? Eh bien, être inférieur ou égal à 4 pour une variable aléatoire, alors ici vous voyez que la variable aléatoire prend toutes les valeurs discrètes entières entre 0 et 100. Mais nous on ne va s'intéresser qu'à celles qui sont inférieures ou égales à 4. Donc, soit X peut être inférieur ou égal à 0, ou à 1, ou à 2, ou à 3, ou à 4, et on peut énumérer la probabilité que X soit plus petit ou égal à 4 par additivité, c'est la probabilité P(X = 0) + P(X = 1) + P(X = 2) + P(X = 3) + P(X + 4). Et on remplace ici chaque probabilité par sa valeur, du fait que X suit une loi binomiale, et si vous suivez le calcul, on doit trouver qu'on a une probabilité qui est presque de 0.95 donc c'est raisonnable, alors après si on veut rentrer plus dans le détail de tout ça il faut vraiment utiliser des arguments statistiques qu'on ne va pas voir ici. C'est juste pour vous donner une idée que c'est raisonnable de supposer que, notre nombre de dépressions peut suivre cette loi binomiale de paramètre 100 et 0.02. Alors maintenant, ce qui peut être intéressant, c'est de se poser la question : qu'est-ce qui se passe si la probabilité p de mon événement, de base, est très petit? On a vu que pour définir ici une loi binomiale, ce paramètre p ici dans mon exemple du nombre de Piles, représente la probabilité d'obtenir un Pile au cours d'une expérience. Alors évidemment dans le jeu de Pile ou Face, on a du mal à penser autre chose que p = 1/2, ou p peut être différent de 1/2 mais le fait que p soit très petit n'a pas beaucoup de sens, mais il y a des cas de figure où on peut s'intéresser à des lois pour lesquelles la réalisation de l'événement dont on compte les occurrences est très petit. Dans ce cas-là , qu'est-ce qui va se passer? Comment se comporte notre loi binomiale? Donc vous voyez que l'on va toujours regarder une loi binomiale, qui est de premier paramètre n, mais on suppose que la quantité, que j'avais notée p ici, est très petite et on va le modéliser par le fait qu'elle est, en gros, de la forme : un certain nombre thêta, strictement positif, sur n. Alors je dis en gros, parce que on peut prendre soit (an), ici égal (thêta / n), soit supposer qu'asymptotiquement, quand n tend vers + l'infini, (an) se comporte comme (thêta / n). n(an) tend vers thêta. Donc dans ce cas-là , quelle tête a notre loi binomiale? La probabilité pour notre loi binomiale d'avoir la valeur j, c'est : (le nombre de parties à j éléments parmi n) . (an) puissance j (1- an) puissance (n- j). Et ce, pour tous les entiers j compris entre 0 et n. Et bien sûr on peut étendre cette probabilité à tout N en lui associant la valeur 0 pour j supérieur ou égal à n + 1. Donc j'ai défini ces nombres-là , pour tout j entier de N. Et ma question maintenant c'est : qu'est ce qui se passe quand n tend vers + l'infini? j est fixé et je fais tendre n vers l'infini. Eh bien ce qu'on va montrer tout-de-suite, c'est que pj, cette quantité-là , pj (an, n) va tendre, quand n tend vers l'infini, vers : (exponentielle- thêta) (thêta puissance j / j!) Donc montrons-le tout-de-suite : P indice j de (an, n) c'est donc (le nombre de parties à j éléments parmi n) (an) puissance j (1- an) puissance (n- j) et je vous rappelle que asymptotiquement, (an) se comporte comme (thêta / n). Alors développons ici, on a : (n! / i! (n- j)! ) (an) puissance j (1- an) puissance (n- j) Je vous rappelle que j est fixé, et c'est : on va faire tendre n vers + l'infini. Donc, je vais déjà mettre 1/j en facteur, et n! / (n- j)! on sait que ça vaut n (n- 1)... (n- j + 1) J'ai exactement j termes, dans ce produit, et j'ai un (an) puissance j. Donc je vais développer ce (an), je vais mettre, euh, regrouper, chacun des termes de mon produit de j termes, ici, je vais glisser un (an) accolé à chacun des termes de mon produit. Donc je mets (an) là , (an) là , et (an) là . Et puis il me reste (1- an) puissance (n- j). Quand n tend vers l'infini, nous avons vu que n (an) tendait vers thêta. Mais de même, (n- 1) (an) va tendre vers thêta, et (n- j + 1) (an), j est fixé, va tendre vers thêta. Donc j'ai j termes dans mon produit, je vais donc obtenir thêta puissance j. Il nous faut donc maintenant regarder la limite, quand n tend vers l'infini, de (1- an) puissance (n- j) Donc je l'écris, (1- an) puissance (n- j), vous savez que dans ce cas-là , il faut reprendre la définition d'une puissance à partir de l'exponentielle, ça c'est exponentielle de (n- j) facteur du ln (1- an). Or maintenant, je sais que (an) se comporte quand n tend vers + l'infini, comme (thêta / n). C'est donc petit. Donc ln (1- an) est équivalent quand n tend vers + l'infini, à :- (an) Donc vous voyez que, j est fixé donc (n- j) est équivalent à n quand n tend vers l'infini, et donc l'exponentielle ici va tendre, finalement, vers exponentielle moins la limite de n à n, qui vaut thêta. Donc quand n tend vers + l'infini. Nous avons donc bien montré la formule puisque si l'on regroupe tout ça, vous voyez que la limite, vous avez le (1 / j!) (thêta puissance j) (e puissance (- thêta) ) qui était donc ce que nous avions annoncé ici. Eh bien, vous voyez que maintenant, on a définit ces nombres là pour tout j dans N. On reconnaît, en fait, des quantités qu'on a déjà introduites dans le chapitre 1, quand on a décrit des probabilités sur un espace dénombrable, et donc, qu'on va redéfinir ici, on reconnaît ce qu'on avait appelé la loi de Poisson de paramètre Thêta. Donc on peut décrire ainsi, définir, une variable aléatoire de Poisson, de paramètre Thêta strictement positif, ça sera donc une variable aléatoire, donc j'ai mis v.a. comme abréviation de variable aléatoire, une v..a. X à valeur dans N et qui est caractérisée par sa loi, sa loi est donc définie pour chaque k un entier, défini par P(X = k) = (e puissance -(thêta) ) ( (thêta puissance k) / k!). Donc ce qu'on a vu, donc vous voyez, je vais la noter P(Thêta) cette loi de Poisson, et là , on l'a définie, introduite comme une limite de loi binomiale, quand le paramètre qui décrit la probabilité de réalisation de l'événement de base hein, de l'occurrence qui nous intéresse, tend vers 0. Donc en fait ça modélise des événements qui ont en fait une probabilité très, très petite d'être réalisés, on appelle cela des occurrences rares ou des apparitions rares. Typiquement vous aurez, si vous regardez le nombre de tremblements de terre qui se sont passés dans les 20 dernières années, le nombre de crises financières qui se sont passées dans les 30 dernières années, le nombre de, des choses qui sont assez rares, vous allez le modéliser par des lois de Poisson. Alors je vous ai mis un exemple numériquement pour la visualisation dont on parle, de la convergence que l'on a vue précédemment, précédemment on a vu que si n est grand on peut approcher cette loi binomiale par la loi de Poisson, donc numériquement, et que si j'appelle X la loi binomiale qu'on avait introduite avant, c'est-à -dire celle qui correspondait à notre exemple sur les dépressions météorologiques de paramètre 100, de n = 100 et p = 0.02 donc dans ce cas-là , le thêta vous voyez je vous le rappelle c'est en, gros nan donc np 100 fois 0.02 ça vous donne un np = 2, donc on va comparer notre variable binomiale de paramètre 100 et 0.02 avec la loi de Poisson de paramètre 2. Mais je vous donne les calculs pour k = 0 k = 1, k = 2, k = 3, k = 4 et vous voyez que les données sont très, très proches. Donc on a une bonne approximation et ça, dans la pratique, c'est vraiment très intéressant, parce que j'ai fait exprès déjà de vous montrer comment on pouvait décrire la loi de S4 juste pour n = 4 et voir que quand-même c'est assez lourd, juste pour une loi binomiale, de décrire les probabilités de réalisation de chaque singleton. Vous imaginez bien que pour une loi binomiale de paramètre 100, n = 10, ben il faut décrire les probabilités de réalisation des (n + 1) singletons, en calculant des nombres de parties qui sont lourds, et donc en fait, ce qu'on fait ici, c'est que systématiquement, on approchera ces lois binomiales pour n grand, par la loi de Poisson correspondant, si p est petit, petit devant n en tous cas. Alors il faut garder ça en tête et ce qu'on verra beaucoup plus tard dans le cours, au sixième chapitre, c'est une manière systématique de décrire ce type de convergence de probabilités, vous avez en fait cette suite de probabilités des lois binomiales de paramètres n à n qui convergent, vers la loi de Poisson. Donc on parlera de convergence en loi dans ce cas-là , mais ça sera sujet à un cours ultérieur.