La statistique en physique

Free texts and images.
Jump to: navigation, search
La statistique en physique
written by Max Born
1935
  • LA STATISTIQUE EN PHYSIQUE

La physique est regardée comme la plus exacte des sciences, comme modèle de la constitution des lois exactes, réglant le déroulement des événements de la nature. Néanmoins, il y a cent ans que des considérations statistiques commencèrent à jouer un rôle important en physique. Elles gagnèrent du terrain de plus en plus, et l'on pourrait dire aujourd'hui que la physique moderne s'appuie tout à fait sur une base statistique. Ce fait se rattache à la victoire de l'atomistique. Les corps sont composés de molécules et d'atomes, ceux-ci de noyaux et d'électrons, les noyaux de protons et de neutrons. L'immense nombre des particules rend impossible toute description déterministe et nous force à appliquer des méthodes statistiques. Autrefois ces méthodes n'étaient rattachées que de manière assez lâche à la construction des théories mécaniques et électrodynamiques. Aujourd'hui la théorie des quanta nous a conduits à une conception plus profonde : elle a introduit un lien plus étroit entre la statistique et les fondements de la physique. C'est là un événement dans l'histoire de l'esprit humain, dont l'importance dépasse de beaucoup le domaine de la science elle-même. L'instrument mathématique de la statistique est le calcul des probabilités. Sa méthode formelle est aussi évidente et claire que celle de toute autre branche des mathématiques. Mais ses fondements philosophiques sont un peu obscurs. Comment expliquer que des prédictions de la statistique puissent être aussi sûres que les calculs basés sur des lois causales ? Sur quelle idée la validité objective des lois de probabilité repose-t-elle ? On a fait beaucoup de spéculations sur ces questions. Des philosophes essayèrent de résoudre le problème par une analyse des idées. Mais au lieu d'idées, il s'agit plutôt de faits, d'événements objectifs, spécialement ceux qui appartiennent au domaine de la physique. Le dernier développement de la statistique physique a fourni quelques contributions importantes à ces problèmes fondamentaux. Le thème de ma communication sera divisé par conséquent en deux parties : La première concernera les fondements théoriques et les méthodes mathématiques de l'ancienne statistique physique. La seconde traitera de la statistique quantique et des questions principales, qui s'y rattachent. La théorie cinétique des gaz fut la première branche de la physique où l'on appliqua les méthodes statistiques. Les molécules des gaz sont considérées comme des balles élastiques se mouvant selon les lois mécaniques en ligne droite et subissant à l'occasion d'une rencontre des déviations brusques. En heurtant une paroi elles sont repoussées et transmettent par choc une impulsion à la paroi ; c'est ainsi que s'explique la pression du gaz. L'observation des molécules isolées est impossible, parce qu'elles sont trop petites et trop nombreuses. On peut observer seulement certaines valeurs moyennes et c'est le but de la théorie de les calculer. Dans presque tous les autres domaines l'application de la statistique s'appuie sur la collection des observations, sur la fréquence des événements individuels étudiés. A l'aide de tableaux empiriques les valeurs moyennes sont calculées et combinées les unes aux autres par les méthodes de la mathématique. Naturellement, cela n'est pas possible avec les molécules individuelles des gaz. Il ne nous reste que la possibilité de formuler des hypothèses sur les cas d'égale probabilité, d'en tirer les conséquences et de voir si elles sont d'accord avec l'expérience. Au fond on retourne à la forme ancienne et souvent méprisée du calcul des probabilités, qui prend pour exemple le jeu de dés. Pour donner un exemple physique : la dérivation de la loi des gaz P*V = R*T (P — pression, V — volume, T — température absolue, R — constante des gaz) s'appuie sur la simple supposition que toutes les directions du mouvement des molécules sont également probables. La question de la fréquence de différentes vitesses nous amène déjà à des réflexions plus difficiles. En 1859, Maxwell établit sa loi de la distribution de vitesse. Selon cette loi, le nombre des molécules, dont les composantes de la vitesse se trouvent entre les limites u et u + du, y et y + dy, w et w + dw), est égale à

A*exp[(-beta)*(u^2 + v^2 + w^2)]*dx, dx = du*dv*dw.

La déduction originale de Maxwell était obtenue par analogie avec la loi des erreurs de Gauss. Plus tard d'autres déductions furent données par lui-même et par Boltzmann, dont la plus importante est liée à la formule nommée loi de collision. Celle-ci est fondée sur la supposition du désordre moléculaire complet : il y a une fonction de distribution F(x,y,z,t;u,v,w), telle que F*dx*dy*dz*du*dv*dw) représente le nombre des particules dont les coordonnées et les composantes de vitesse se trouvent dans un petit domaine donné. Puis on cherche la manière dont cette fonction F change d'un point à l'autre et d'un instant à l'autre, sous l'influence des forces extérieures et des collisions mutuelles entre les molécules. La condition de régime permanent conduit à la loi de collision de Boltzmann, et s'exprime par une équation intégrodifférentielle pour la fonction F. On montre qu'elle fournit comme seule solution dans le cas d'un équilibre sans forces extérieures la distribution des vitesses de Maxwell. Mais quand il y a des forces extérieures, une généralisation importante en résulte : la formule de distribution de Boltzmann

F = alpha*exp(-beta*z),

dans laquelle epsilon représente l'énergie totale d'une molécule (potentielle cinétique). On a par exemple pour le cas de molécules en forme de balle de masse m soumises à l'action de la pesanteur :

epsilon = (m/2)*(u^2 + v^2 + w^2) + m*g*z,

où z est la coordonnée verticale. En intégrant sur toutes les vitesses, on obtient la diminution du nombre des particules en fonction de la hauteur, la formule du nivellement barométrique F = a*exp(-beta*m*g*z). La formule de Boltzmann est une généralisation de cette loi connue depuis longtemps, et sert dans des cas nombreux à la détermination de la distribution statistique. Quant aux constantes alpha, beta, elles ont des significations très différentes. On obtient une relation entre elles en calculant le nombre total N des molécules dans un volume V :

N = sum(F*dt) = sum(exp(-beta*z)*dt).

La constante est en relation avec la température : c'est

beta = 1/(k*T),

k est nommé la constante de Boltzmann. On pourrait le prouver en calculant la pression sur les parois et en comparant la formule obtenue avec l'équation des gaz P*V = R*T. Mais il y a d'autres preuves qui sont relatives au sens thermodynamique de la température. Cela nous amène au point principal de la théorie cinétique des gaz, c'est-à-dire à la question de l'irréversibilité des processus thermiques et à leur explication théorique. La mécanique classique fondée par Galilée et Newton et qui a atteint son apogée dans les oeuvres de Laplace, Lagrange, Hamilton et Jacobi, ne connaît que des processus réversibles. Si, à un moment donné, on renverse toute les vitesses dans mi système mécanique, le mouvement de celui-ci parcourt simplement toutes ses phases en sens inverse. Exprimé mathématiquement : le temps ne figure dans les équations de la mécanique que par l'intermédiaire de dérivées du second ordre des coordonnées, de sorte que le changement de son signe ne change rien dans les équations. La nature ne connaît de tels processus réversibles que sous des conditions idéales, par exemple dans le mouvement des corps célestes dans le vide. Sur la terre, ces conditions représentent une limite que l'on n'atteint jamais. Il y a toujours un frottement qui produit de la chaleur. Quand l'équivalence de la chaleur avec le travail fut découverte, — je cite ici les noms de Carnot, Robert Mayer, Joule, Helmholtz — la science de la thermodynamique se constitua. Elle est un élargissement de la mécanique, mais elle ne peut pas être réduite à celle-ci. Car elle traite des processus irréversibles, au moins dans leur aspect macroscopique. La notion la plus importante, celle qui permet la mesure de l'irréversibilité, c'est la notion d'entropie. C'est une quantité qui augmente constamment dans tous les processus naturels et qui ne peut rester constante que dans des cas extrêmes. La théorie cinétique des gaz devait se concilier avec ces idées. Car son but était d'expliquer la chaleur par le mouvement. La quantité de chaleur ne devait pas être équivalente au travail mécanique ou à l'énergie, mais elle lui devait être identique, c'est-à-dire qu'elle devait représenter l'énergie du mouvement moléculaire invisible. Comment pourrait-on mettre d'accord la réversibilité des phénomènes mécaniques avec l'irréversibilité des phénomènes thermiques ? C'est un des grands triomphes de-la statistique physique qu'elle se montra capable de faire disparaître cette contradiction. La théorie cinétique des gaz ne nie pas le principe de la réversibilité du mouvement de toutes les molécules. On pourrait penser alors qu'un corps peut s'échauffer en prenant de la chaleur à un corps voisin plus froid. Mais un tel écoulement de la chaleur d'une basse à une haute température est en effet tellement invraisemblable, qu'on peut tout à fait ignorer cette possibilité en pratique. La formulation mathématique de cet état de choses est le Théorème H de Boltzmann. Il montre qu'il existe une fonction

H = sum(F*log(F)*dt),

qui selon la formule de collision ne peut jamais augmenter. Elle représente, en réalité l'entropie changée de signe et s'introduit dans toutes les considérations cinétiques. Naturellement, le changement unilatéral de H se fonde sur le fait que la loi de collision contient la supposition d'une complète irrégularité statistique, et elle ne contredit pas la mécanique classique ; ce fait a été établi par Ehrenfest dans des travaux très profonds. C'est Boltzmann qui a reconnu l'importance physique de la fonction H, et qui en a tiré une nouvelle déduction de la statistique des états .d'équilibre, très connue et fréquemment utilisée aujourd'hui. Imaginons un espace divisé en un grand nombre de cellules. Un grand nombre n de particules sont distribuées entre les cellules ; soit n(e) le nombre de particules dans la cellule e. Alors

n(1) + n(2) + ... + n(z) = n.

On suppose qu'il y a une certaine probabilité a priori pour qu'une particule se trouve dans la cellule l ; on l'a nommée poids g(e) de la cellule. Ordinairement on suppose que g(e) est égal au volume de la cellule divisé par la grandeur de tout l'espace considéré. Alors le calcul de la probabilité élémentaire fournit pour la probabilité d'une distribution n(1), n(2), ..., n(z), l'expression

W = (n!)/((n(1))!*(n(2))!*...*(n(z))!)*(g(1)^n(1))*(g(2)^n(2)*...*g(z)^n(z),

dont la somme pour toutes les distributions est en effet l. En appliquant la formule de Stirling log(n!) = n*(log(n) - 1) on obtient l'expression approximative

log(W) = Sigma(e)(n(e)*log(g(e)/n(e)) + constante),

Si g(e) = constante, on peut le remplacer par

log(W) = -Sigma(e)(n(e)*log(n(e)) + constante).

On voit alors que cette expression n'est rien autre que la fonction H changée de signe ou l'entropie, — abstraction faite d'un facteur numérique. On n'a qu'à choisir les cellules assez petites pour que les nombres de distribution ne tendent vers une fonction F continue et la somme se transforme en une intégrale. L'entropie S est donc déterminée par la formule de Boltzmann :

S = k*log(W).

Le nombre k est la constante de Boltzmann, déjà citée. Il y a différents points de vue pour déterminer les nombres de distribution n(e) pour l'état d'équilibre. Ordinairement on s'appuie sur le fait qu'il y a une distribution la plus probable, dont la fréquence — ainsi que celle des distributions voisines — surpasse énormément toutes les autres distributions. Alors on a à déterminer les n(e) par la condition que

S = k*log(W) = Max.

avec toutes les conditions secondaires, correspondant aux données macroscopiques. Pour ce qui concerne la distribution dans l'espace, on n'a que la condition Sigma(e)(n(e)) = n ; le maximum est atteint pour la distribution continue n(e) = g(e)*n. Quand on cherche la distribution énergétique, il faut introduire comme seconde condition celle qui correspond à une énergie totale donnée E :

E = Sigma(e)(n(e)*s(e)).

Sous ces conditions, on obtient la distribution de Boltzmann

n(e) = A*g(e)*exp(-beta*z(e)).

Or, on peut déterminer la constante p par application de la thermodynamique. Car l'identification de k*log(W) avec l'entropie S permet l'application du second principe, selon lequel la quantité de chaleur, associée à un processus, c'est-à-dire la différence entre le changement de l'énergie et le travail accompli, est égale à F.dS. Puisqu'on peut calculer l'énergie et le travail et puisqu'on peut obtenir sa moyenne pour la distribution de Boltzmann, la détermination du facteur intégrant T — de la quantité de chaleur est un problème purement mathématique ; il donne le résultat

beta = 1/(k*T).

Une autre méthode statistique, introduite par Darwin et Fowler, cherche à éviter la limitation aux distributions qui sont voisines de la plus probable, et l'application de la formule de Stirling. En effet, toutes les valeurs moyennes qui correspondent à des quantités observables peuvent être exprimées par des intégrales complexes. Mais leur estimation à l'aide d'une méthode de la théorie des fonctions analytiques (method of steepest descent) est au fond tout à fait équivalente à l'application de la formule de Stirling. Le fait que la théorie statistique est correcte, a été prouvé par des observations des écarts réels et des fluctuations autour des valeurs moyennes. Le phénomène le plus connu de cette espèce est le mouvement Brownien. De petits corpuscules, semence de plantes, fumée de cigarettes, montrent au microscope un mouvement d'agitation, qui — d'après Einstein et Smoluchowski, — résulte de ce que les chocs des molécules d'air ou d'eau qui entourent chaque particule ne se compensent plus tout à fait. Une telle particule se meut donc quelquefois pour peu de temps dans le sens contraire à la direction qui lui est prescrite par la thermodynamique. Ce fait montre clairement que les prévisions de la thermodynamique ne sont valables qu'en moyenne, mais que des écarts peuvent se produire constamment. Une des plus importantes conséquences de ces fluctuations est le bleu du ciel ; il est la conséquence des condensations et dilatations spontanées de l'air, à travers lequel la lumière du soleil est diffusée. La théorie cinétique des gaz s'est montrée capable de prévoir, non seulement les relations de pression, volume, température et énergie dans les états d'équilibre, mais aussi les courants irréversibles de chaleur, d'impulsion et de substance. La loi de collision a permis de calculer les coefficients de conductibilité calorifique, de frottement intérieur et de diffusion. La théorie de ces phénomènes, créée par Maxwell, a été beau-coup perfectionnée aujourd'hui. Le problème est de résoudre l'équation de collision dans des cas divers. Ici l'action mutuelle des molécules ne doit pas nécessairement être supposée analogue à celle de billes de billard élastiques, mais elle peut suivre une loi quelconque en fonction de la distance. Mais aucun nouveau principe statistique n'entre en considération ici ; nous pouvons donc négliger ces problèmes. Le développement ultérieur de la théorie cinétique a dû prendre en considération les énergies de cohésion entre les molécules, les énergies qui conduisent à la condensation. Le problème était donc de traiter statistiquement des systèmes, dont les particules ne pouvaient plus être regardées comme libres et indépendantes. Ici commença la mécanique statistique générale dont le développement est lié principalement au nom de Willard Gibbs. On n'envisage plus un système mécanique, tel qu'un gaz, comme composé de molécules qui sont soumises à un traitement statistique. Mais le système entier qui peut maintenant être liquide ou solide devient l'objet sur lequel portent les considérations statistiques. Le système est décrit par ses coordonnées q(1), q(2) ... et ses impulsions p(1), p(2), ... ; dans l'espace de tous les q, p, le système est représenté par un point. Alors on imagine que le système existe en un grand nombre d'exemplaires et chaque fois en un état différent, c'est-à-dire représenté par un autre point dans l'espace des phases (q, p). Maintenant la question suivante se pose : Quelle est la probabilité de trouver le système en un point donné de l'espace des phases ? La réponse à cette question est donnée sous la forme d'une fonction de distribution rho(q,p), de la densité dans l'espace des phases. On a plusieurs méthodes pour obtenir cette fonction sur la base de suppositions simples et plausibles. Elles se fondent toutes sur l'idée suivante : l'énergie d'un système isolé est constante ou du moins à peu près constante. Elle est une fonction

W(q(1), q(2), ... ; p(1), p(2) ...),

qui, posée égale à une constante E, détermine une surface dans l'espace des phases. C'est sur cette surface que se trouve le lieu du point représentatif, c'est-à-dire l'orbite représentant l'évolution du système. L'idée est donc que cette orbite s'approche aussi près que l'on veut de tout point de la surface, qu'elle remplit celle-ci tout entière ; et non seulement ceci, mais aussi qu'elle remplit la surface uniformément. Cela veut dire que si l'on prend deux surfaces E et E + dE, et que l'on considère deux régions de volumes égaux comprises entre ces surfaces, le point se trouve aussi souvent dans l'une de ces régions que dans l'autre. On appelle cela l'hypothèse ergodique. Il y a des systèmes simples où cette hypothèse se trouve vérifiée. Elle a aussi été démontrée récemment sous des hypothèses très générales par Birkhoff et von Neumann. Néanmoins il semble être douteux qu'elle puisse être prise comme base certaine de la mécanique statistique, surtout parce que les anciennes lois du mouvement sont périmées aujourd'hui et sont remplacées par la mécanique des quanta. Il semble donc être plus raisonnable d'accepter comme loi physique la distribution suivant l'hypothèse ergodique, loi confirmée par ses conséquences. Dans cette distribution, appelée aussi distribution micro-canonique, la densité rho(q,p) n'est différente de zéro que dans le voisinage immédiat de la surface d'énergie W(q,p) = E. Gibbs a trouvé une simplification extraordinaire de la théorie en remplaçant cette distribution par la distribution qu'il a nommée canonique,

rho(q,p) = A*exp(-beta*E).

Dans cette formule beta est encore égal à 1/(k*T) et T est la température absolue. Cette loi a la même forme que la loi de distribution des molécules d'un gaz, mais elle se rapporte maintenant au système entier, qui peut être gazeux, liquide ou solide, et à sa distribution entre des états différents. On peut le démontrer en prenant comme système composé le système considéré et un gaz à la température T, si ce système total satisfait à la statistique micro-canonique, la distribution canonique en résulte pour le système lui-même. Le gaz sert, pour ainsi dire, comme thermomètre, pour définir la température T = 1/k. La technique mathématique des notions générales micro-canoniques est extraordinairement simple. On trouve que la fonction

F = -k*A*log(sum(sum(exp((-W(q,p))/(k*T))*dq*dp,

est identique à l'énergie libre thermodynamique. Sa définition n'exige donc — le mécanisme du système, c'est-à-dire la fonction W(q,p), étant donnée, — qu'une intégration, mais celle-ci est souvent très compliquée. F étant calculé, on trouve toutes les autres fonctions thermodynamiques par différentiation ; par exemple l'entropie

S = -dF/dT,

et l'énergie

E = F + T*S = F - T*(dF/dT).

Si W, et donc aussi F, dépend du volume v, la pression est

p = -(dF/dv).

Je fais mention ici du fait que l'on pourrait obtenir les mêmes résultats aussi par la distribution micro-canonique. La statistique de Gibbs a eu un énorme succès. Elle contient naturellement comme conséquence particulière la théorie cinétique des gaz en ce qui concerne les états d'équilibre. De plus elle contient aussi la chimie des réactions des gaz, la fameuse loi de l'action des masses, la théorie de l'électrolyse et beaucoup d'autres. Les propriétés thermiques des corps solides ont été également traitées .par les méthodes de Gibbs et ont conduit à une explication de la loi de Dulong et Petit, disant que la chaleur spécifique d'un corps solide doit avoir toujours la même valeur 3*R par molécule, c'est-à-dire environ 6 calories. C'est là un cas particulier d'une loi générale de la distribution égale de l'énergie entre les degrés de liberté d'un système : Aussitôt qu'il y a dans l'expression de la fonction de l'énergie W une coordonnée ou une impulsion sous la forme d'un terme carré de la forme a*(q^2) (ou a*(p^2)), la moyenne de a*(q^2) (ou a*(p^2)) est égale à (1/2)*(k*T). Mais cette loi de Dulong et Petit se montra expérimentale-ment fausse et donna l'impulsion au développement de la nouvelle mécanique des quanta et des statistiques correspondantes que je vais examiner maintenant. L'idée des quanta d'énergie fat déduite par Planck de la loi spectrale du rayonnement en équilibre avec des corps chauds. Il s'agit ici aussi d'un problème statistique. Les ondes simples qui composent le rayonnement ont des amplitudes et des phases différentes sur lesquelles on ne sait obtenir que des données statistiques. Quand on prend de simples résonateurs électriques comme source du rayonnement, à la manière des antennes de la télégraphie sans fil, on peut — sous la supposition de l'équilibre thermique du rayonnement et de la matière — déduire la loi spectrale du rayonnement à partir des lois connues pour les particules matérielles. Mais cela conduit à un résultat faux pour la distribution spectrale du rayonnement : il devrait augmenter toujours vers les ondes courtes, en stricte contradiction avec l'expérience. Planck démontra qu'on peut éviter cette contradiction en supposant qu'il y a de plus petits quanta epsilon de l'énergie qui sont proportionnels aux fréquences nu des vibrations : epsilon = h*nu. La constante h de Planck devait devenir plus tard la quantité la plus importante de la physique. Quand un résonateur ne peut pas absorber d'un seul coup une énergie quelconque, mais seulement les valeurs 0, 1, 2,... fois le quantum epsilon, l'énergie moyenne du résonateur devient

epsilon = [Sigma(0...infini)(n*epsilon*exp(-beta*n*epsilon)]/[Sigma(0...infini)(exp(-beta*n*z)) = epsilon/[exp(beta*z) - 1] = (h*nu)/[exp((h*nu)/(k*T)) - 1]

et cela nous donne immédiatement la fameuse formule du rayonnement de Planck. L'introduction des quanta a révolutionné toute la physique. Bohr admit que tout système, atome ou molécule, peut exister en des états discrets avec les énergies epsilon(1), epsilon(2), ..., et il découvrit la connexion de ces niveaux d'énergie avec les spectres des atomes. La conséquence pour la statistique a été d'abord la suivante : les états quantiques fixés a priori venaient remplacer la division d'un domaine en cellules choisies à volonté. Le principe fonda-mental qui s'est trouvé justifié est : tout état discret de quanta qui ne peut plus être séparé en plusieurs états par quelque in-fluence extérieure, a la même probabilité a priori, qu'on pose égale à 1. Par cela les poids g(e) des états non complètement résolus et qui, comme on dit, sont dégénérés, sont déterminés dès le commencement. Il y a aussi des états avec une distribution continue ; on pourrait les envisager comme des cas extrêmes de la distribution discontinue et l'on trouve alors la valeur 1/h comme poids d'un domaine élémentaire dq*dp. Avec ces précisions la distribution de Boltzmann est encore valable

n(e) = A*g(e)*exp(-beta*z(e)),

et fournit beaucoup de résultats nouveaux, surtout dans le problème des équilibres chimiques. Mais cette statistique des quanta semi-classique développée sur le modèle de la théorie des atomes de Bohr n'avait qu'un caractère provisoire. Le développement ultérieur de la théorie des quanta a introduit des principes statistiques entièrement nouveaux. L'impulsion est venue de l'idée des photons ou quanta de lumière. Les lois qui régissent l'émission d'électrons par les métaux sous l'action de la lumière, l'effet photoélectrique, avaient conduit Einstein à formuler une sorte de théorie corpusculaire de la lumière qui se justifiait par beaucoup d'autres faits expérimentaux. On posait donc la question de savoir si l'on ne pourrait pas regarder comme un gaz de photons le rayonnement en équilibre thermique avec la matière, et si l'on ne pourrait pas déduire la formule de Planck à partir de cette conception fondamentale. On ne réussit pas à l'aide de la statistique de Boltzmann. L'Hindou Bose trouva la manière exacte, Einstein la prit et la perfectionna. Il supposa que les quanta de lumière ne peuvent pas être distingués les uns des autres. La loi de distribution s'en trouve changée. Car en dénombrant les possibilités de la réalisation d'une distribution de particules entre des cellules, on ne doit plus regarder les particules comme des individus. La question : « dans quelle cellule y a-t-il une particule donnée ? » est absurde, seule la question « combien de particules contient une cellule ? » est importante et présente un sens. En effet, cette hypothèse fournit une nouvelle loi de distribution :

n(e) = (g(e))/(A*exp(beta*z(e)) - 1), beta = 1/(k*T),

qui se confond avec celle de Boltzmann seulement pour de hautes températures. Elle nous donne très exactement la formule du rayonnement de Planck. Einstein l'appliqua aussi aux gaz et obtint des lois des gaz s'écartant des lois usuelles pour les températures basses. On parla de dégénérescence des gaz. Mais ces déviations aux températures que l'on peut atteindre sont si petites, qu'elles n'ont jamais été observées. Cette forme de dégénérescence des gaz fut bientôt complétée par une seconde, trouvée par Fermi et Dirac. Pour la comprendre il nous faut rappeler d'abord brièvement les conceptions fondamentales de la mécanique des quanta. D'après de Broglie une onde est liée à chaque particule, ou plus précisément, un paquet d'ondes dont nous discuterons plus tard l'importance physique.. Une molécule d'un gaz, présente à l'intérieur d'une région close, a à sa disposition une série de fonctions d'ondes psi(1)(x,y,z), psi(2)(x,y,z),... décrivant les différentes conditions possibles du mouvement. Une certaine énergie epsilon(e) appartient à psi(x,y, z). Quand il y a plusieurs molécules, leur fonction d'ondes a la forme

Psi = psi(n)(x(1),y(1),z(1))*psi(m)(x(2),y(2),z(2))*psi(e)(x(3),y(3),z(3))*...

si la première molécule est dans l'état epsilon(n), la seconde dans l'état epsilon(m), etc. L'énergie totale E = epsilon(n) + epsilon(m) + epsilon(e) + ... donnée, on obtient une autre fonction d'ondes pour cette énergie par l'application d'une permutation P entre les particules, et chaque combinaison linéaire de telles fonctions est encore une fonction d'ondes. Parmi celles-ci il y a deux fonctions particulières :

  • 1) La fonction symétrique

Psi(s) = Sigma(P(psi(n)(1)*psi(m)(2)*psi(e)(3)*...)),

  • 2) La fonction antisymétrique

Psi(a) = Sigma(+-P(psi(n)(1)*psi(m)(2)*psi(e)(3)*...))

où l'on a + ou -, selon que P est une permutation paire ou impaire de 1, 2, 3... La dernière fonction peut aussi être écrite sous la forme d'un déterminant :

Psi(a) = det[psi(n)(1), psi(m)(1), psi(e)(1), psi(n)(2), psi(m)(2), psi(e)(2), ...],

psi(s) correspond à la supposition de Bose-Einstein de l'impossibilité de distinguer les individus ; tous les états de la même énergie résultant de permutations ne correspondent vraiment qu'à un seul et même état. Psi(a) est un cas nouveau. Ici l'expression de psi(a) par un déterminant montre que psi est égal à zéro, aussitôt que deux particules sont dans le même état ; car, quand par exemple psi(n) est égale à psi(m), deux colonnes sont égales et le déterminant est nul. De plus, la fonction psi(a) change de signe quand deux particules sont permutées. Cette réaction était bien connue pour des électrons. On sait par les spectres des atomes que deux électrons ne se trouvent jamais dans le même état quantique et que deux états, résultant l'un de l'autre formellement par échange entre deux électrons, doivent en effet être comptés comme un seul état. Les électrons satisfont donc à une nouvelle statistique, dont chaque état peut être occupé par une particule, ou par aucune. Ces deux statistiques peuvent être traitées à peu près parallèlement. Au lieu de la formule de Boltzmann

log(W) = Sigma(e)(n(e)*log((g(e))/(n(e)))

on a ici dans le cas Bose-Einstein

log(W) = Sigma(e){(g(e) + n(e))*log(g(e) + n(e)) - g(e)*log(g(e)) - n(e)*log(n(e))}

et dans le cas Fermi-Dirac

log(W) = Sigma(e){-(g(e) - n(e))*log(g(e) - n(e)) + g(e)*log(g(e)) - n(e)*log(n(e))}

Nous avons déjà donné la fonction de distribution dans le premier cas ; dans le dernier elle est analogue à :

n(e) = (g(e))/(A*exp(beta*z(e) + 1).

On a trouvé que cette distribution est vraiment réalisée pour les électrons dans les métaux. On imagine que la conductibilité des métaux peut être expliquée par le fait qu'ils contiennent de nombreux électrons libres, qui, comme des molécules des gaz, circulent à l'intérieur des métaux. Mais l'application de la statistique de Boltzmann conduisait à des contradictions avec les faits expérimentaux. Par contre, la nouvelle statistique de Fermi et Dirac fournit des résultats qui sont en correspondance splendide avec l'expérience et ont donné une forte impulsion à la théorie des métaux. Je cite les noms de savants comme Pauli, Sommerfeld, Brillouin, Bloch, Nordheim. La signification de ces statistiques nouvelles est la suivante : la mécanique des ondes détruit l'idée de la particule comme individu. C'est une notion déduite du monde des sens et des corps de-grandes dimensions, et qui n'a pas droit de cité dans le domaine des atomes et des électrons. On peut en effet compter des parti-cules, mais on ne peut pas reconnaître et identifier une parti cule dans un groupe de particules égales. La fréquence d'une distribution ne dépend pas de la possibilité d'un échange entre' des particules, mais du nombre des états d'ondes compatibles avec la distribution. Quand on prend ces états d'ondes comme objets de la statistique, rien ne se change dans ses principes chaque état que l'on peut distinguer a le même poids 1. Cette modification de la statistique des équilibres influence beaucoup la théorie des phénomènes physiques, il est vrai; mais elle n'aide pas à répondre à la question que nous avons posée au commencement : Comment peut-on motiver l'application de la statistique aux phénomènes de la nature, et en quoi consiste la vérification réelle des affirmations statistiques ? Le traitement statistique des équilibres thermodynamiques n'est qu'un petit secteur du grand domaine dominé par la théorie des quanta. Il a conduit à d'autres résultats qui sont en connexion intime avec cette question principale. La thermodynamique fait intervenir des ensembles de systèmes égaux dans des états différents d'énergie bien déterminés. Pour le traite-ment statistique on n'a qu'à connaître les probabilités a priori de ces états. Mais si l'on n'a pas à faire à l'équilibre thermique, il ne s'agit pas de l'énergie des états mais d'autres qualités physiques et de leurs probabilités a priori. La mécanique classique ne connaissait pas une telle question. Elle était déterministe — c'est-à-dire : elle supposait qu'un certain état initial, donné par les coordonnées de position et par les vitesses d'une particule, peut être réalisé en toute exactitude et que le déroulement des événements est ensuite entièrement déterminé par les lois de la nature. Alors il ne reste plus beaucoup de place pour des considérations de probabilités. Il peut arriver qu'on ne con-naisse pas assez bien les conditions initiales. Quand, par exemple, des rayons or sont dirigés contre des noyaux d'atomes, pour déduire de leur déviation la loi de l'interaction, on ne connaît la route des particules incidentes que très inexactement. Comme l'ouverture des diaphragmes employés est grande comparée avec la section effective des atomes, il faut faire une supposition concernant la distribution des particules incidentes dans la section de l'ouverture et l'on ne peut en tirer des conclusions que sur la distribution des particules après la collision. Mais cela n'est valable dans la mécanique classique que comme imperfection technique ; en principe, on suppose qu'on peut rendre l'ouverture aussi petite que l'on veut et, par ce moyen, déterminer l'orbite d'une particule aussi exactement que l'on veut. La mécanique des quanta introduit une conception tout à fait différente de l'état des choses. Elle place l'image des ondes à côté de l'image des particules. Toutes les deux ne sont que des manières d'expression d'un phénomène qui, dans sa totalité, se refuse à notre faculté de perception. Une onde subit une diffraction à travers un diaphragme ; elle se répand derrière l'ouverture d'autant plus que l'ouverture est plus étroite. Cela veut dire dans la conception des particules que la particule reçoit une composante d'impulsion latérale indéterminée par une fixation de sa coordonnée dans le plan du diaphragme. Nous avons ici un exemple simple de la relation d'incertitude

delta(q)*delta(p) > h/(4*Pi),

nous disant que la mesure simultanée et absolument exacte d'une coordonnée et de l'impulsion correspondante est interdite par les lois de la nature elles-mêmes. Si l'erreur sur la coordonnée devient plus petite, celle sur l'impulsion augmente et vice-versa. La constante h de Planck est la mesure absolue de l'incertitude. Avec cela, l'idée de l'orbite d'une particule élémentaire, par exemple d'une particule beta, devient illusoire. Le procédé de la déviation des particules par des noyaux d'atomes que nous venons de traiter du point de vue classique, se présente donc ainsi : l'ouverture du diaphragme définit un train d'ondes de Broglie, dont le carré de l'amplitude correspond au nombre des particules incidentes. Ces ondes sont dispersées par les noyaux d'atomes, changées en des ondes sphériques, et leur - intensité donne la probabilité qu'une particule se trouve dans une direction définie. Des paquets d'ondes prennent donc la place des strictes conditions initiales de la mécanique classique. Leur intensité est la densité de la probabilité a priori pour l'apparition de particules. Les lois de la nature ne donnent pas une réponse à la question : où une particule apparaît-elle ? mais à la question : avec quel degré de probabilité peut-on attendre l'apparition d'une particule à un endroit donné ? La probabilité définie par le carré de l'amplitude des ondes est donc une chose tout à fait réelle, se propageant d'après des lois déterministes. C'est la même forme de réalité que présentent les ondes de la lumière ; celles-ci sont les ondes de probabilité pour l'apparition des photons. Ainsi le problème de la validité objective des affirmations de la probabilité ne semble pas être tout à fait résolu, mais au moins placé au même niveau que le problème de la validité des lois de la nature en général. La probabilité est une notion fondamentale de la physique. Les lois de la statistique sont des lois de la nature comme toutes les autres. Leur validité n'est ni plus ni moins étonnante que celle de la loi d'énergie ou des équations du champ électromagnétique de Maxwell. Les conséquences de-ces notions pour l'image philosophique du monde — surtout en ce qui concerne la causalité et le déterminisme — n'appartiennent plus à mon sujet. M. Langevin en parlera. Mais je voudrais dire encore quelque chose : il semble que l'on trouve souvent exprimée l'opinion que la physique devint infidèle à sa vraie nature quand elle renonça à la possibilité de prédictions absolues, à sa vraie nature qui demande la croyance en des lois de nature absolues. Moi, je crois que ce reproche n'est pas justifié. Il est basé sur le préjugé que la stricte légalité et le déterminisme sont inséparables. La mécanique moderne croit aussi que dans la nature tout se passe selon des lois exactes. Elle nie seulement que la connaissance de ces lois suffise pour prédire l'avenir avec certitude ou même le diriger. Les lois elles-mêmes interdisent autant la prévision dans l'avenir que l'action sur le destin. Mais elles nous permettent au moins de lever le voile en partie et de chercher notre chemin : par l'exploration de la probabilité des faits à l'aide de la statistique.

  • Université de Cambridge.


  • Discussion

Le président de séance, M. LANGEVIN, félicite M. Born, puis remarque qu'on peut dire qu'après l'introduction de la Statistique en Physique, il s'est produit une véritable « occupation » de celle-ci par celle-là. La discussion tardant à s'amorcer, M. Langevin invite les auditeurs à abdiquer toute fausse honte et ne pas hésiter à poser des questions qui montreront aux physiciens présents quels sont les points où se butent, dans la physique moderne, les gens cultivés. M. Paul Lévy remarquant que seul le sentiment de son incompétence l'empêche de poser des questions qu'il craint inutiles, M. Langevin insiste sur la nécessité de comprendre les difficultés que l'honnête homme éprouve à pénétrer dans ces domaines nouveaux.

Mme METZGER. — J'avoue comprendre mal ce qu'on entend par suppression de l'individualité de la particule : qu'est-ce que cette individualité, en quoi disparaît-elle ?

M. Paul Langevin. — En statistique classique, on imagine qu'on peut attribuer des étiquettes à chaque particule, donc distinguer entre les permutations qu'on peut leur faire subir. Dans les nouvelles statistiques, seul compte le nombre des particules qui figurent dans chaque cellule d'extension en phase, ou si vous préférez dans chaque état : ce sont ces cellules, ou états, qui sont individualisés. La différence se voit clairement sur l'exemple de deux cellules (A et B) et de deux particules : si l'on pouvait étiqueter celles-ci 1 et 2, il y aurait 4 configurations possibles, soit 1 et 2 dans A, 1 dans A et 2 dans B, 2 dans A et 1 dans B, 1 et 2 dans B ; la probabilité de la répartition d'équilibre, c'est-à-dire une particule dans chaque cellule, réalisée par deux configurations sur quatre, serait . Si, par contre, on ne peut distinguer les particules par des étiquettes, il n'y a plus que trois configurations possibles, soit les deux particules dans A, une dans A et une dans B, les deux dans B ; la probabilité de la répartition d'équilibre n'est plus que 1 /3. Il est curieux qu'il ait fallu attendre jusqu'en 1927, avec les travaux de Bose, pour apercevoir une contradiction dans le raisonnement classique de Boltzmann, qui revient à distinguer deux permutations qui ne différeraient que par l'interchange de deux particules (par exemple) alors que ces deux particules sont indiscernables.

M. Paul LÉVY. — J'ai toujours eu un faible pour les représentations intuitives des phénomènes, et j'ai regretté quand j'ai assisté à l'échec actuel de ces représentations. N'est-il pas possible d'en réintroduire une qui serait une synthèse entre la théorie de l'émission et celle de l'ondulation. Imaginez une armée de photons qui s'avancent, semblables à des individus « ivres », susceptibles de s'écarter à droite et à gauche de leur direction générale de marche, mais toujours ramenés en moyenne sur cette direction par leurs collisions avec les photons voisins. S'ils changent de terrain, la direction moyenne des déplacements de ces individus peut changer, tout en restant perpendiculaire à l'onde résultante.

M. Léon Brillouin. — Une image analogue a été proposée par M. Schrödinger à Stockholm.

M. BAUER. - L'image proposée correspond à celle du nuage de particules de Louis de Broglie. Mais on a dû renoncer à celle-ci, et de même à toutes celles qui font intervenir l'interaction des particules, parce que nous connaissons des phénomènes, tels que ceux des rayons cosmiques, ou de l'émission radioactive de particules alpha, où nous n'avons affaire qu'à une particule à la fois.

M. Jacques Solomon. — En effet, on obtient des figures d'interférence en faisant passer (par les trous de Young, par exemple), des faisceaux très faibles pendant un temps très long (de sorte qu'un photon soit très distant du photon le plus proche), aussi bien qu'un faisceau fort, pendant un temps court. Donc il n'y a pas de possibilité d'interaction entre photons voisins.

M. Georges Darmois. — Est-ce qu'un seul corpuscule ne serait pas déjà un ensemble statistique, un complexe de possibilités ?

M. LANGEVIN. — Dans l'expérience de la chambre de Wilson, par exemple, on peut bien dire qu'il n'y est passé qu'une seule particule a. Seulement, même pour la chambre de Wilson, il faut l'intermédiaire de phénomènes complexes (ionisation du gaz de la chambre, etc.) pour que la particule a puisse être décelée.

M. BORN. — Dans l'expérience des trous de Young, qu'on peut réaliser avec une lumière si faible qu'il ne passe en moyenne qu'un photon par jour par les trous, on ne peut savoir par lequel des trous il a passé tant qu'il contribue à former sur un écran les franges d'interférence caractéristiques. Et si l'on pratique une seule ouverture, de manière à savoir par quel trou le photon passe, toute la figure d'interférence est détruite et le phénomène étudié n'est plus le même, mais celui de la diffraction relative à un trou.

M. BRILLOUIN. — La nécessité de l'introduction des probabilités montre le défaut d'une image intuitive adéquate.

M. BAUER. — Pour observer une particule, il faut qu'elle agisse sur la matière. Pour lui donner une individualité, il faut pouvoir dire que c'est la même qui. a provoqué deux effets successifs. Or c'est ce qui est impossible. Par exemple, un électron qui passe au voisinage d'un atome est dévié : nous pourrons observer plus loin, dans la nouvelle direction, la particule ainsi diffusée ; mais nous ne saurons pas si c'est l'électron incident, ou tout autre électron de l'atome diffuseur, avec lequel il se sera échangé.

M. SOLOMON. — La perte d'individualité des particules est liée à la constante de Planck, parce que c'est l'existence de celle-ci qui empêche de suivre les trajectoires des particules.