que nous avons énoncé en séance 4, qui vous dit que si la suite de fonctions
caractéristiques des (Y n) converge point par point vers
une fonction continue en 0, eh bien, ici on reconnaît que c'est la fonction
caractéristique de la loi normale, centrée, réduite, eh bien, nous savons
que la suite (Y n) va converger en loi vers cette variable aléatoire X.
C'est une convergence en loi, on n'a pas besoin de construire la variable,
c'est la convergence des lois qui nous intéresse.
Alors vous voyez, il y a une magie dans ce théorème, qui est qu'on arrive
quoi qu'on fasse, quelles que soient ces variables aléatoires (X i) initiales,
eh bien, on arrive sur la loi normale, centrée, réduite.
Alors, donc j'aurais, je vais vous donner quelques applications,
pour finir ce cours, de ce théorème.
Vous voyez qu'il y a un caractère universel, et ce n'est pas un hasard si
ces variables aléatoires normales, on les appelle aussi gaussiennes,
puisqu'elles ont été introduites par le grand mathématicien Gauss, Gauss en
allemand, et on les appelle normales, parce qu'elles arrivent quoi qu'on fasse,
à partir d'une somme d'un grand nombre de variables aléatoires indépendantes.
Si elles sont, ces variables aléatoires sont de même loi et de carré intégrable,
eh bien, leur somme va se comporter approximativement comme une loi normale.
Vous en verrez des illustrations dans des séances de simulation.
Donc, vous voyez, si vous prenez des variables aléatoires avec une loi
extrêmement différente d'une loi normale.
Par exemple, imaginez une variable de Bernoulli, qui même dissymétrique,
avec un paramètre petit p qui vaut 0,05 donc, si vous faites l'histogramme,
vous aurez un petit bâton sur 1 et un grand bâton sur 0, par exemple.
Eh bien néanmoins, si vous en faites la somme, et pour un nombre suffisamment
grand de termes dans cette somme, vous aurez au bout du compte, alors je vous
rappelle qu'une somme de Bernoulli indépendante, c'est une loi binomiale,
mais néanmoins, au bout du compte, si vous faites tendre n vers l'infini,
vous verrez apparaître une densité de loi normale.
Donc, cela vous le visionnerez dans les séances de simulations.
Alors, ce théorème explique aussi pourquoi,
souvent quand on modélise des perturbations aléatoires, et cela,
cela peut éclairer un peu des gens, par exemple qui sont ingénieurs parmi vous,
on modélise souvent ces perturbations par des variables aléatoires normales.
C'est qu'en fait on considère que les perturbations aléatoires dans un phénomène
que l'on observe, c'est la somme de plein de petites perturbations,
qui a priori n'ont pas de raison d'être de loi différente, donc qui sont toutes de
même loi, et qui vont être indépendantes les unes des autres.
Et le Théorème Centrale Limite justifie ces perturbations, et justifie à terme,
donc là, je parle pour des gens un petit peu plus savants,
la modélisation des perturbations sur des systèmes dynamiques,
par ce qu'on appelle le mouvement brownien.
Mais cela, c'est l'objet d'un cours beaucoup plus évolué.
Donc, ce théorème nous donne une réponse aussi pour ce contrôle d'erreur
sur lequel on s'était posé la question au début de la loi des grands nombres.
On avait vu que l'erreur dans la loi des grands nombres se comporte
en 1 / racine de n, et je vous ai dit que c'était quand même bon,
cela nous donne une information même si la vitesse est assez lente.
Alors, elle est assez lente, mais néanmoins, et cela,
je ne vous donne pas ce théorème parce qu'il est un peu délicat,
dans le cadre de cette fin de cours.
Mais, le théorème de la limite centrale se généralise en dimensions d,
pour des vecteurs aléatoires, et pour des vecteurs aléatoires,
eh bien la vitesse de convergence est encore la même,
c'est-à-dire qu'elle est 1 / racine de n, quelle que soit la dimension de l'espace.
Et cela, c'est important puisque dans les méthodes déterministes souvent,
la vitesse de convergence est liée à la dimension,
et peut devenir très mauvaise quand la dimension est grande.
Donc, vous voyez ici, on a un théorème qui n'est pas très bon pour les petites
dimensions, mais pour les grandes dimensions, il est très bon,
en ce sens que la vitesse de convergence ne dépend pas de la dimension.
Alors, dernier point et là, bon j'essaye de vous donner des champs d'ouvertures
du domaine des probabilités, pour avoir envie d'aller plus loin ultérieurement.
Donc, un dernier point,
l'application fondamentale du théorème de la limite centrale,
les applications en statistiques, qu'on appelle inférentielles, c'est-à-dire les
statistiques qui permettent à partir d'observations de faire de la prédiction,
et de quantifier les erreurs de prédiction que l'on peut faire.
Donc, le lien entre observation et prédiction,
eh bien, vous l'avez un petit peu vu dans des séances de simulations à travers
la méthode de Monte-Carlo, puisque ces méthodes d'approximation aléatoire,
pour des quantités déterministes, vous pouvez avoir la quantité déterministe
qu'on cherche comme justement la chose qu'on cherche à prédire,
et les observations sont données par les répétitions de l'expérience.
Donc, la loi des grands nombres va vous justifier,
vous permettre de construire une théorie statistique qui passe des observations à
une prédiction, mais la quantification des erreurs de prédiction sera,
vous sera donnée par le théorème de la limite centrale.
Donc, ce transparent termine, en fait, ce cours que j'ai appelé Aléatoire donc,
qui vous développe un peu la théorie,
les premières étapes de théorie des probabilités.
Et j'espère que, si vous avez tenu jusque là dans ce cours,
vous allez pouvoir continuer en suivant d'autres cours plus tard,
et rentrer encore plus dans ce monde magique de l'aléatoire.