[MUSIQUE] Bonjour. Nous allons voir que, bien souvent, en mécanique quantique, apparaissent des phénomènes aléatoires régis par des lois de probabilité. Ainsi, le résultat d'une mesure physique est le plus souvent non déterministe. Lorsque l'on répète la même mesure sur un ensemble de particules ou d'objets préparés de façon identique, on peut obtenir des résultats différents. Ce point absolument fondamental de la mécanique quantique n'est pas induit par une imprécision des appareils de mesure, mais est intrinsèque à la théorie. Cette perte apparente du déterministe perturbait considérablement Albert Einstein lui-même qui, au congrès de Solvay de 1927, congrès fondateur de la mécanique quantique, eut cette fameuse phrase : Dieu ne joue pas aux dés. Il était alors persuadé que la nature probabiliste de la mécanique quantique résultait d'une méconnaissance de la théorie, et que l'on devrait, tôt ou tard, retrouver un déterminisme classique. Moins connue, mais non moins savoureuse, est la réponse de Niels Bohr qui lui rétorqua : Einstein, cessez de dire à Dieu ce qu'Il doit faire. Au cours de cette séance, nous allons revoir les propriétés essentielles des espaces probabilisés, à l'aide de rappels théoriques et de petits exercices simples de mise en application. Un phénomène aléatoire est défini comme un phénomène physique possédant un ensemble grand oméga de possibilités, sans qu'il soit possible de définir a priori quelle possibilité sera réalisée. Souvent, l'aspect aléatoire résulte d'une connaissance imparfaite de l'état du système. Ainsi, si on connaissait parfaitement les conditions initiales d'un lancer de dés et l'environnement, forme de la table, courant d'air, etc, on pourrait prévoir quel chiffre va sortir. D'autres phénomènes physiques sont intrinsèquement aléatoires ; rien ne permet, par exemple, de prévoir à quel moment une particule radioactive va se désintégrer. L'ensemble des possibilités peut être continu ; c'est le cas de la date de désintégration d'une particule, ou discret, comme dans le cas d'un lancer de dés. Grand oméga est l'ensemble des éventualités, également appelées issues. Une variable aléatoire grand X est une fonction définie sur l'ensemble des éventualités. Cela peut être directement une éventualité, comme le chiffre donné sur le dé, ou une fonction plus complexe de cette dernière, comme par exemple le gain au loto, en fonction des numéros tirés. Les issues possibles sont notées petit x i ; un ensemble de plusieurs issues possibles est noté grand A. Dans une approche fréquentiste, la probabilité est définie comme la fréquence d'apparition d'une ou plusieurs issues. Lorsque l'on répète le tirage un grand nombre de fois, la probabilité correspond au nombre de fois que l'on a obtenu la probabilité petit x i, ou l'ensemble d'issues grand A, divisé par le nombre de tirages. Un espace probabilisé est défini par deux propriétés fondamentales : il doit être normalisé, ce qui signifie que la somme des probabilités doit être égale à 1, et les probabilités doivent être comprises entre 0 et 1. Les définitions précédentes s'appliquaient au cas d'une variable discrète, comme par exemple le cas d'un tirage de dés. Un espace probabilisé peut aussi être défini dans le cas d'une variable continue. On introduit alors la densité de probabilité P de petit x, définie de telle sorte que P(x) dx soit la probabilité élémentaire de trouver la variable grand X entre petit x et petit x plus dx. Cette densité de probabilité peut aussi être comprise comme la dérivée par rapport à petit x de la probabilité d'avoir grand X plus petit que petit x. Les conditions définissant un espace probabilisé sont alors légèrement modifiées par rapport au cas continu. La condition de normalisation s'écrit sous la forme : intégrale de P(x) dx est égale à 1. Enfin, la densité de probabilité doit être positive ou nulle en tous points, mais elle peut cette fois dépasser la valeur 1. La moyenne de la variable aléatoire grand X est définie comme l'espérance mathématique de grand X, c'est-à-dire la somme des issues petit x i pondérée par leurs probabilités respectives P(xi). Pour une variable continue, on remplace la somme discrète par une intégrale sur la densité de probabilité. On peut de la même manière définir la moyenne de n'importe quelle fonction de la variable aléatoire. L'espérance mathématique de f de grand X est la somme des valeurs de f(xi) pondérée par leurs probabilités respectives P(xi). Cela permet en particulier de définir la variance, ou écart quadratique moyen, qui est définie comme la valeur moyenne du carré de l'écart entre la variable aléatoire et sa moyenne. En développant le terme au carré, la variance s'écrit aussi comme la valeur moyenne de grand X carré moins la valeur moyenne au carré de grand X. La variance décrit la largeur de la distribution autour de sa moyenne, c'est-à-dire la dispersion des résultats possibles. Dans le cas d'une distribution gaussienne, la variance est égale au carré du paramètre sigma de la gaussienne. Deux variables aléatoires, grand X et grand Y, sont dites indépendantes si la probabilité d'occurrence d'une ou de plusieurs issues grand A de grand X ne dépendent pas de grand Y, et réciproquement. C'est le cas en particulier lorsque l'on tire simultanément deux dés ; le résultat obtenu sur l'un des deux dés ne dépend pas de celui obtenu sur l'autre dé. La probabilité d'obtenir grand X dans grand A, et grand Y dans grand B peut alors s'écrire comme le produit des probabilités élémentaires P de grand X dans grand A fois P de grand Y dans grand B. Ce résultat reste valable pour toute fonction f de grand X et g de grand Y. La valeur moyenne f de grand X fois g de grand Y s'écrit
Ce résultat reste valable pour toute
fonction f de grand X et g de grand Y. La valeur moyenne f de grand X fois g de grand Y s'écrit comme le produit de la valeur moyenne de f de grand X fois celle de g de grand Y. On le verra en mécanique quantique, cette notion d'indépendance aura de nombreuses implications. Des variables indépendantes telles que, par exemple, la position selon deux axes X et Y pourront être mesurées simultanément. Par contre, les variables liées telles que, par exemple, la position et la vitesse selon le même axe ne pourront pas être mesurées simultanément. Toute tentative de mesure de l'une ou l'autre de ces variables aura pour effet de perturber la seconde. Une façon fréquemment utilisée pour améliorer la précision d'une mesure physique est de répéter la mesure un grand nombre de fois, et de faire la moyenne des résultats obtenus. Cela ne peut évidemment s'appliquer que dans le cas où les différentes mesures sont indépendantes les unes des autres, chaque mesure n'altérant pas le résultat des suivantes. Ce moyennage sur un échantillon est, par exemple, à la base des sondages électoraux. Considérons donc une variable aléatoire grand X distribuée selon une loi de moyenne x zéro et d'écart-type sigma. On effectue grand N mesures successives et indépendantes de grand X pour calculer la somme des résultats obtenus. Quelle est alors l'incertitude sur l'estimation expérimentale de la moyenne? La vidéo ci-contre montre la distribution des tirages aléatoires dans le cas d'une distribution gaussienne théorique de largeur sigma est égal à 1. Au fur et à mesure des tirages, la distribution, en bleu, décrit de mieux en mieux cette distribution théorique. La moyenne des valeurs tirées, montrée en trait rouge, oscille de moins en moins au fur et à mesure que le nombre de tirages augmente. L'incertitude sur la valeur moyenne est précisément l'amplitude de ces oscillations. Nous allons montrer que cette incertitude est reliée, d'une part, à la largeur de la distribution sous-jacente et, d'autre part, au nombre de tirages effectués. On définit la variable aléatoire grand Y, égale à la moyenne expérimentale des N mesures de grand X, c'est-à-dire la somme des valeurs obtenues divisée par le nombre de tirages. L'incertitude sur la valeur moyenne expérimentale de grand X sera précisément l'écart-type de la distribution des valeurs de grand Y. Calculons tout d'abord la valeur moyenne de Y carré. On développe le produit en une double somme de produits Xk, Xl. Dans le cas où k est différent de l, les variables Xk et Xl sont indépendantes, puisqu'elles correspondent à des tirages différents. Par contre, dans le cas où k est égal à l, les variables sont identiques. On sépare donc la double somme en termes pour k égal à l et en termes pour k différent de l. Le premier terme se réduit en 1 sur l fois la valeur moyenne de X au carré. Le second terme correspond au carré de la valeur moyenne de X, et le nombre de termes pour k différent de l se monte à N fois N moins 1. Calculons maintenant le carré de la valeur moyenne de grand Y. On développe de la même façon le produit en une double somme de produits des valeurs moyennes de Xk et de Xl, ce qui se réduit au carré de la valeur moyenne de X. La variance de Y est la différence entre la valeur moyenne de Y au carré et le carré de la valeur moyenne de Y. On regroupe les deux termes portant le carré de la valeur moyenne de X, pour obtenir : 1 sur N fois le carré de la moyenne de X. Pour finir, la variance de Y est égale à la variance de X divisée par le nombre de tirages, et l'écart-type, et donc la précision de la mesure, diminuent comme la racine carrée du nombre de mesures. Ce point est absolument fondamental. Lorsque l'on multiplie par 100 la taille d'un échantillon ou le nombre de mesures, on n'améliore que d'un facteur 10 la précision du résultat. Un sondage électoral fait sur un échantillon d'un millier de personnes a une précision statistique de l'ordre de 3 %, souvent comparable à l'écart qui sépare les candidats. Produire un sondage avec une précision de 0,3 % nécessite de disposer d'un échantillon de 100 000 personnes, rendant le coût souvent prohibitif. Considérons maintenant le cas de probabilités dites conditionnelles, c'est-à-dire associées à l'ajout de nouvelles informations. On note P de grand A si grand B, ou P de grand A sachant grand B. La probabilité d'obtenir X est égale à grand A lorsque l'on a déjà obtenu Y égal à grand B. Le théorème de Bayes nous indique que la probabilité d'obtenir grand A et grand B peut s'écrire comme le produit de la probabilité d'obtenir grand A sous la condition grand B, multiplié par la probabilité d'obtenir grand B. Cela s'écrit : P de grand A et grand B est égal à P de grand A si grand B, fois P de grand B. En inversant la relation, on obtient la probabilité conditionnelle P de grand A si grand B égale à P de grand B et grand B, divisée par P de grand B. Appliquons ce raisonnement au cas simple d'un test de dépistage d'une maladie. Etant donné une maladie dont la prévalence est de 1 sur 1000, et pour laquelle il existe un test de dépistage donnant 5 % de faux positifs, quel est le risque qu'une personne dont le test est positif soit effectivement malade? On définit deux variables aléatoires : la variable grand X représente l'état de santé de la personne ; et comporte deux issues, grand A pour malade et non grand A pour sain ; la variable grand Y représente le résultat du test et comporte elle aussi deux issues, grand B pour test positif et non grand B pour test négatif. On peut avoir un test positif que l'on soit sain ou malade. La probabilité d'avoir un test positif s'écrit simplement : P de grand B égal à P de grand A plus 0,05 fois P de non grand A. En écrivant la probabilité conditionnelle, la probabilité d'être malade alors que l'on a un test positif s'écrit : P de grand A si grand B égal à P de grand A et grand B, divisé par P de grand B, égal à P de grand A divisé par P de grand B. En effet, comme il n'y a pas de faux négatifs, la probabilité d'être malade et d'avoir un test positif est identiquement égale à la probabilité d'être malade. Au final, la probabilité d'être malade lorsqu'on a un test positif vaut P de grand A si grand B, égal à P de grand A divisé par P de grand A plus 0,05 fois P de non grand A, ce qui donne une probabilité de 2 %. Ainsi, lorsque l'on a un test positif, on n'a que 2 % de chance d'être malade, du fait, d'une part, de la relative rareté de la maladie et, d'autre part, du taux relativement important de faux positifs. Ce test est donc complètement inutile et l'on alerte des personnes pour rien. En résumé, un test pour une maladie peu fréquente doit avoir un taux de faux positifs extrêmement faible pour être d'une quelconque utilité. Au cours de la première partie de cette séance d'exercices, nous avons donc rappelé quelques éléments essentiels de la théorie des probabilités. Nous verrons, dans la seconde partie, quelques lois de probabilité usuelles. Puis, au cours des séances suivantes, nous verrons que les probabilités jouent un rôle fondamental dans la mécanique quantique, en participant notamment à la description d'une particule sous la forme d'un paquet d'ondes. En mécanique quantique, les probabilités sont au cœur du concept de mesure, car une mesure physique, on le verra, pourra donner sur le même système des résultats différents, avec des probabilités que l'on pourra calculer. Cette séance est maintenant terminée. Merci de l'avoir suivie et à bientôt.