L'orientation actuelle de la physique

Free texts and images.
Jump to: navigation, search
L'orientation actuelle de la physique
written by Paul Langevin
1930
  • L'Orientation actuelle de la physique (1930)
  • Conférence aux agrégatifs de philosophie de l'ENS

Plus peut-être que tout autre science, la physique se montre en ce moment particulièrement vivante. Elle présente, de ce fait, des caractères assez complexes. On y rencontre des formes d'activité diverses, expérimentales et théoriques; des tendances différentes ou même divergentes s'y manifestent et donnent lieu à des oppositions de divers ordres allant parfois jusqu'à la contradiction. Et cependant, à travers des remaniements constants et de plus en plus profonds, nous voyons augmenter sans cesse la somme des résultats acquis, des relations établies entre des phénomènes en apparence indépendants, des synthèses partielles préparant la synthèse plus haute vers laquelle tend notre effort. La plus fondamentale de ces oppositions est celle qui existe entre l'expérience et la théorie. C'est à travers elle que se développent les progrès de la Physique. Le but du physicien est en effet de construire une représentation adéquate de la réalité à partir de notions et d'hypothèses suggérées par l'expérience et développées déductivement sous forme de théories. Les conséquences de celles-ci doivent, d'autre part, se poursuivre d'accord avec les faits sous le contrôle incessant des vérifications expérimentales. Le désaccord fréquent entre les prévisions de la théorie et les résultats expérimentaux exige des modifications souvent très profondes de la représentation théorique et même un complet bouleversement de celle-ci; nous en trouverons des exemples dans le développement de la théorie de la relativité et, à un degré peut-être encore plus élevé, dans la crise actuelle des quanta qui se traduira par une transformation très profonde des idées en apparence les mieux établies sur la structure de la matière et du rayonnement; ainsi que sur les relations entre ces deux constituants essentiels de l'univers physique. C'est à travers une série continue de contradictions et d'oppositions entre l'expérience et la théorie que celle-ci trouve les conditions nécessaires à son développement. Un caractère essentiel de la période actuelle est que les conflits de ce genre deviennent plus aigus et les progrès plus rapides à mesure que les ressources dont disposent l'expérience et la théorie deviennent de plus en plus puissantes, en raison même des progrès accomplis. Les méthodes expérimentales qui nous permettent d'interroger la nature ont acquis et acquièrent constamment une délicatesse et une précision dépassant de beaucoup les moyens dont disposaient les physiciens à une époque relativement récente. En moins de quarante ans, les mesures ont atteint une précision extraordinaire en électromagnétisme et en optique. Dans ce dernier domaine, qui se confond d'ailleurs aujourd'hui avec le premier, les méthodes interférentielles permettent de constater l'égalité de deux longueurs de l'ordre du mètre avec une précision supérieure au dix milliardième, surpassant la précision des mesures de temps en astronomie. La mesure des masses par la balance atteint une précision moins grande mais encore très considérable, puisqu'on va presque au milliardième sur une masse d'un kilogramme. Comme l'a montré, en particulier, la fameuse expérience de Michelson, ces très hautes précisions se sont montrées nécessaires pour permettre à l'expérience de répondre aux questions de plus en plus précises posées par la théorie". Le développement de la théorie, fondé sur l'expérience, nous permet à son tour de mieux comprendre les conditions de celle-ci et d'en augmenter constamment la précision en perfectionnant les instruments et en prenant de mieux en mieux les précautions nécessaires. L'histoire récente de la Physique fournit de continuels exemples de cette fécondation réciproque de la théorie par l'expérience et de l'expérience par la théorie. Indépendamment de leurs actions et réactions mutuelles, l'expérience et la théorie trouvent extérieurement des appuis et des ressources, la première du côté de la technique, issue de notre science qu'elle féconde à son tour, et la seconde du côté des mathématiques auxquelles elle apporte aussi un stimulant précieux. Il est cependant juste et nécessaire de souligner ici le fait remarquable que parmi les constructions abstraites réalisées par les mathématiciens en prenant pour guide exclusif leur besoin de perfection logique et de généralité croissante, aucune ne semble devoir rester inutile au physicien. Par une harmonie singulière, les besoins de l'esprit, soucieux de construire une représentation adéquate du réel, semblent avoir été prévus et devancés par l'analyse logique et l'esthétique abstraite du mathématicien. Le souci de rigueur et de généralité sans lequel ne se seraient développés ni les géométries non euclidiennes ni l'instrument analytique parallèle du calcul différentiel absolu, a préparé, sans l'avoir prévu, le langage dont avaient besoin, pour s'exprimer et entrer en contact avec l'expérience, les idées nouvelles de la relativité généralisée. Il a fallu, pour résoudre le mystère de la gravitation, faire appel à ces constructions abstraites, si éloignées en apparence de toute application. S'il nous est possible aujourd'hui d'entrevoir avec Albert Einstein la réalisation d'une théorie physique unitaire et cohérente, comprenant dans une même synthèse l'électromagnétisme et la gravitation, c'est grâce au développement préalable de géométries encore plus générales que celles, imaginées par Riemann, qui avaient suffi pour rendre compte de la gravitation dans la première période de la relativité généralisée. L'intelligence complète de ces géométries nouvelles exige d'ailleurs qu'on fasse appel, avec Élie Cartan, aux ressources de la théorie des groupes créée tout d'abord par Galois il y a plus d'un siècle pour résoudre, en analysant le mécanisme profond des opérations de l'algèbre, les difficultés relatives aux équations algébriques. Cette même théorie des groupes, et les théories voisines des nombres complexes généralisés, nous sont aujourd'hui également indispensables pour le développement de la théorie des quanta et de la mécanique ondulatoire, dont les applications s'étendent jusqu'à la chimie et permettent d'en comprendre les mécanismes et les régularités profondes restés jusqu'ici entourés de mystère. De même que les recherches expérimentales les plus fécondes au point de vue des applications techniques doivent, pour apporter des possibilités vraiment nouvelles, s'élever au-dessus des préoccupations immédiates et se développer de manière complètement désintéressée, il se confirme chaque jour que les instruments mathématiques les mieux adaptés aux besoins toujours nouveaux de la théorie physique, sont forgés par l'esprit en laissant libre cours à son activité de création abstraite. De là résulte aussi un autre caractère de la physique actuelle : une division du travail s'introduit de plus en plus entre l'expérimentateur et le théoricien, la tâche de chacun d'eux devenant chaque jour plus complexe, plus hautement spécialisée et exigeant une préparation plus délicate, du côté technique pour l'un et du côté mathématique pour l'autre. C'est un nouvel aspect de l'opposition soulignée ici entre l'expérience et la théorie, que la séparation de plus en plus nette des physiciens en deux catégories, avec apparition d'un nombre croissant de purs théoriciens. Alors que Fresnel, il y a un siècle, a pu, sans recourir à des appareils particulière-ment délicats, observer lui-même les phénomènes d'interférence et de diffraction que la théorie ondulatoire de la lumière lui avait permis de prévoir, Maxwell, Boltzmann, Hendrik Antoon Lorentz, Max Planck, Einstein ont en général dû laisser à d'autres le soin de poursuivre les expériences délicates nécessaires pour vérifier leurs prévisions théoriques. Je crois bien, d'autre part, que le merveilleux expérimentateur qu'est Michelson n'a jamais accepté pleinement les conclusions déduites de ses résultats par les théoriciens de la relativité. Passons maintenant à d'autres oppositions intérieures à l'objet même des recherches du physicien, comme celle de la matière et du rayonnement, ou intérieures à sa représentation théorique comme celle du continu et du discontinu. Examinons tout d'abord la première. Le rayonnement se présente à nous sous des formes infiniment variées, depuis les ondes hertziennes jusqu'aux rayons gamma des corps radioactifs ou aux rayons cosmiques ultra-pénétrants, en passant par les rayons infrarouges, la lumière visible, l'ultraviolet et les rayons X de plus en plus pénétrants. Maxwell, Hertz et leurs continuateurs, ont établi la nature électromagnétique et ondulatoire de tout cet ensemble, dont les éléments ne diffèrent entre eux que par la fréquence des ondes correspondantes et constituent une gamme extraordinairement étendue, une série linéaire continue de radiations simples, monochromatiques. La matière se présente également sous des formes infiniment variées, celles de tous les éléments et composés chimiques connus dont le nombre s'accroît chaque jour, en particulier grâce aux progrès de la synthèse organique. Bien que nous la sachions construite à partir de deux éléments fondamentaux, les deux électricités positive et négative, composées respectivement de protons et d'électrons, nous ne pouvons pas classer les aspects multiples de la matière en série linéaire continue comme nous le faisons pour le rayonnement par l'intermédiaire de la seule variable fréquence. Les corps simples ou composés se présentent comme les termes discontinus de séries nombreuses, ramifiées suivant des lois et en vertu d'actions que nous commençons à peine, grâce au développement de la théorie des quanta, à pouvoir exprimer de manière générale en les reliant à l'ensemble de la physique. L'expérience et la théorie sont d'accord pour voir dans le rayonne-ment et dans la matière les deux constituants essentiels de l'univers physique, et pour les opposer l'une à l'autre sous une forme qui s'est singulièrement modifiée depuis trente ans. L'examen de cette évolution me permettra de souligner certains traits essentiels dans l'orientation de la physique moderne. On croyait autrefois que la propriété la plus fondamentale et la plus caractéristique de la matière était d'être à la fois pesante et inerte, de manière invariable pour chaque portion de matière à travers tous les changements d'état physique ou chimique qu'elle pouvait subir. Cette double propriété de pesanteur et d'inertie était caractérisée par une seule et même grandeur appelée la masse. Cette masse mesurait également la capacité de la matière comme véhicule d'énergie cinétique, proportionnelle au carré de la vitesse, et de quantité de mouvement, proportionnelle à la vitesse. Le rayonnement, au contraire, était considéré comme impondérable, et comme transportant uniquement de l'énergie à l'exclusion de quantité de mouvement. Le développement de la théorie électromagnétique en prévoyant l'existence, confirmée par l'expérience, d'une pression exercée par le rayonne-ment sur les obstacles matériels qu'il rencontre, a fait considérer celui-ci comme véhicule de quantité de mouvement aussi bien que d'énergie. Nous savons aussi, depuis la relativité généralisée, que le rayonnement est pesant, que la lumière est déviée, comme le serait un projectile matériel, au voisinage d'une masse importante, celle du soleil par exemple. Nous savons aussi qu'un corps change de poids en même temps que d'inertie lorsqu'il absorbe ou émet du rayonnement. Un rapprochement s'est donc effectué, à ce point de vue déjà, entre la matière et le rayonnement qui sont tous deux pesants, tous deux véhicules d'énergie et de quantité de mouvement. Indépendamment de toute question de structure, une seule différence, profonde il est vrai, subsiste entre eux au point de vue mécanique: la matière peut prendre, par rapport à nous, des vitesses variables de manière continue, depuis la valeur nulle correspondant au repos, jusqu'à une limite supérieure que nous savons aujourd'hui être égale à la vitesse de la lumière dans le vide. Le rayonnement, au contraire, ne se propage dans le vide qu'avec une seule et même vitesse pour toutes les fréquences, la vitesse de la lumière. Cette limite, impossible à atteindre pour la matière sans une dépense infinie d'énergie, est sensiblement égale à trois cent mille kilomètres par seconde, c'est-à-dire considérable par rapport aux vitesses avec lesquelles la matière, même en astronomie, se présente d'ordinaire à nous. Au point de vue de l'idée que nous nous faisons de leur structure, l'opposition entre la lumière et la matière se rattache à celle qui existe entre les notions théoriques du continu et du discontinu. Cette dernière opposition est vieille comme le monde ou plutôt comme l'esprit; l'histoire des mathématiques est dominée par les efforts faits pour la préciser et pour la résoudre, et elle joue dans le développement des théories physiques un rôle non moins important. L'idée du continu ou de l'indéfiniment divisible est à la base de notre représentation spatio-temporelle. La permanence d'un individu ou d'un objet ne se conçoit qu'à travers une succession continue d'états au cours du temps, et le mouvement d'un objet dont l'individualité se conserve nous apparaît comme lié à une série continue de positions dans l'espace. Le calcul différentiel, en précisant la notion d'infiniment petit, a donné son expression complète à l'idée de continuité. Le discontinu, qui prend également son origine dans la notion d'individu ou d'objet s'opposant au milieu qui l'entoure ou aux autres objets, trouve son expression abstraite dans les notions de l'un et du nombre; son domaine le plus pur est l'arithmétique ; l'effort des mathématiciens pour arithmétiser la géométrie et l'analyse, pour construire, grâce à la notion d'incommensurable, le continu à partir du discontinu, ne peut être encore considéré comme ayant complètement abouti. Il est remarquable que les physiciens se trouvent confrontés aujourd'hui avec la nécessité d'une synthèse analogue. Nous avons cru, il y a trente ans, pouvoir éviter le conflit en réservant à chacun des deux termes de cette opposition son domaine en physique : au continu celui du rayonnement et au discontinu celui de la matière. Nous pensions ainsi pouvoir interpréter la nature profonde des deux oppositions, rayonnement et matière, continu et discontinu, en les ramenant à une seule, et en les interprétant l'une par l'autre. Le XIXe siècle s'achevait en effet par le triomphe de la théorie électro-magnétique et ondulatoire du rayonnement, d'une part, de la théorie atomique, d'autre part, où la matière apparaissait comme construite à partir des grains d'électricité. À la théorie de l'émission de Newton qui attribuait à la lumière une structure discontinue, s'était victorieusement, opposée la conception d' Huyghens, reprise par Fresnel, Maxwell et Hertz, selon laquelle le rayonnement résulte de la propagation, avec une vitesse, définie par le milieu, d'une perturbation de structure continue, décomposable en une infinité continue d'ondes périodiques simples de diverses fréquences. La perturbation y est caractérisée en chaque point de l'espace et à chaque instant par les deux vecteurs champ électrique et champ magnétique qui déterminent l'état du milieu ainsi que la distribution, continue dans l'espace, de l'énergie et de la quantité de mouvement transportées par le rayonnement. L'élimination, en apparence définitive, de la théorie corpusculaire du rayonnement, remontait au milieu du XIXe siècle et reposait sur une expérience, considérée comme cruciale, de Léon Foucault, qui avait réussi à mesurer la vitesse de la lumière dans l'air et dans l'eau et l'avait trouvée plus faible dans ce dernier milieu dans le rapport de trois à quatre prévu par la théorie des ondulations, alors que la théorie de l'émission, par application aux corpuscules lumineux des lois de la mécanique classique, prévoyait le rapport inverse, en contradiction formelle avec les faits. La forme électromagnétique donnée ensuite par Maxwell, Hertz et Lorentz à la théorie des ondulations avait achevé de dissiper les obscurités que présentait encore celle-ci après Fresnel, et semblait avoir définitivement établi la structure ondulatoire et continue du rayonnement. À la même époque, début du siècle actuel, comme conséquence des succès de la théorie cinétique et de la découverte de l'électron, nous étions conduits à attribuer à la matière une structure essentiellement granulaire et discontinue. L'étude expérimentale des relations entre la matière et l'électricité avait montré que les charges électriques s'y comportent toujours comme composées de grains, tous identiques entre eux pour chaque signe des charges, électrons pour les négatives et protons pour les positives, chacun de ces grains possédant, outre son électrisation, les attributs fonda-mentaux de la matière, inertie et pesanteur. L'électron, avec une charge électrique égale et opposée à celle du proton, est beaucoup moins inerte et pesant que celui-ci, dix-huit cent cinquante fois environ. Ces deux éléments fondamentaux nous paraissaient suffisants pour construire la matière sous ses formes infiniment diverses, constituées les unes et les autres par des agrégats de protons et d'électrons, chaque particule électriquement neutre, atome, molécule ou ensemble plus complexe, contenant des nombres égaux d'électrons et de protons. L'atome d'hydrogène, le plus simple, résultait de l'association d'un seul proton et d'un seul électron ; l'atome d'uranium, le plus compliqué de tous, renfermait 238 protons et autant d'électrons. La découverte par Rutherford de la structure nucléaire de l'atome conduisait à grouper tous les protons et une partie des électrons dans un noyau central de très petites dimensions; électrisé positivement, autour duquel les autres électrons circulaient sous l'influence des actions, électriques et magnétiques, exercées sur chacun d'eux par le noyau et les autres électrons planétaires15. Le noyau d'hydrogène était constitué par un seul proton tandis que celui d'uranium contenait les 238 protons de l'atome avec 146 électrons, les 92 autres électrons formant autour du noyau un système planétaire. L'étude précise, de ce système, fondée sur les données de la spectroscopie et de la chimie, devait permettre d'interpréter toutes les propriétés de cet atome, abstraction faite de la radioactivité. Ce dernier phénomène, d'origine nucléaire, résulte de la structure complexe du noyau et consiste en une désintégration plus ou moins spontanée de celui-ci. Les associations d'atomes, les molécules qu'étudient les chimistes s'obtiennent, dans cette représentation, par échange ou mise en commun de certains électrons entre deux ou plusieurs atomes. Les noyaux, qui représentent la personnalité des atomes dans la molécule, peuvent se séparer, par dissociation, de l'édifice moléculaire, soit en emportant leur nombre normal d'électrons satellites pour redonner des atomes neutres, soit avec déficit ou excès d'électrons pour donner des ions positifs ou négatifs16. Pour la molécule, comme pour l'atome, on espérait pouvoir rendre compte de toutes les propriétés en développant les conséquences de cette conception planétaire, par application des lois de la mécanique aux parti-cules électrisées. Celles-ci étaient assimilées à des points matériels électrisés, soumis à leurs actions réciproques. Ces actions s'exprimaient, à petite distance, par les lois classiques de l'électrostatique et de l'électrodynamique et, à grande distance, par l'intermédiaire du rayonnement dont l'action est déterminée, sur les particules électrisées qu'il rencontre, par le champ électromagnétique qui le caractérise. Cette conception d'un rayonnement composé d'ondes électromagnétiques continues et d'une matière formée de grains électrisés discontinus, semblait ainsi pouvoir rendre compte, non seulement des caractères opposés de l'un et de l'autre, mais encore de leurs actions réciproques, de l'absorption et de l'émission du rayonnement par la matière. L'absorption résulterait, comme nous venons de le voir, des mouvements communiqués aux particules électrisées par le champ électromagnétique qui constitue les ondes. La théorie prévoit d'autre part que tout mouvement accéléré, non uniforme, d'une particule électrisée, provoque l'émission d'une onde se propageant dans toutes les directions autour de la particule avec la vitesse de la lumière et transportant de l'énergie rayonnante à distance. La continuité dans la distribution du champ électromagnétique de l'onde et la continuité du mouvement des particules électrisées faisaient, de l'absorption et de l'émission du rayonnement par la matière, des processus essentiellement continus. Il a fallu très vite renoncer à l'espoir que je viens d'évoquer : deux crises successives qui compteront parmi les plus importantes dans l'histoire de la physique, la crise de la relativité et surtout celle des quanta, sont venues nous montrer combien nous étions encore loin d'une représentation satisfaisante des faits. Ce sont des expériences concernant à la fois la matière et le rayonnement qui se trouvent à l'origine de chacune de ces crises. Les expériences de ce genre, où les mesures atteignent la précision la plus élevée, sont les plus dangereuses pour la théorie. Les expériences d'optique interférentielle comme celle de Michelson rentrent dans cette catégorie. Leur grande précision a permis de comparer les lois suivant lesquelles se propage la lumière dans les divers systèmes matériels en mouvement les uns par rapport aux autres, et d'affirmer l'identité de ces lois, la relativité complète des observations à l'observateur, quel que soit le mouvement de celui-ci. L'affirmation de ce principe, comme synthèse de tout un ensemble de résultats expérimentaux, n'a concerné tout d'abord, sous sa forme « restreinte », que des observateurs en mouvement de translation uniforme par rapport à l'ensemble des étoiles fixes. Pour ces observateurs, liés à des systèmes de référence dit galiléens, par rapport auxquels le principe d'inertie peut être considéré comme exact au sens de la mécanique classique, l'expérience vérifie également les équations fondamentales de l'électromagnétisme sous la forme que leur ont donnée Maxwell, Hertz et Lorentz. Les expériences faites dans un laboratoire terrestre sont rapportées à un semblable système de référence dont la vitesse change au cours de l'année d'une quantité qui va jusqu'à soixante kilomètres par seconde, à six mois d'intervalle, lorsque la terre se trouve en deux points diamétralement opposés de son orbite. Aucune expérience intérieure au laboratoire, de mécanique, d'électromagnétisme ou d'optique ne permet, si précise qu'elle soit, de constater ce changement du mouvement d'ensemble; tous les systèmes de référence galiléens successivement liés au laboratoire sont équivalents au point de vue de l'aspect sous lequel se présentent les lois de la physique; aucune variation quotidienne ni saisonnière de celles-ci n'a jamais pu être constatée. En particulier, et c'est ce que confirme l'expérience de Michelson, la lumière, quelle que soit sa fréquence, se propage avec une même vitesse dans toutes les directions par rapport à tous ces systèmes de référence galiléens. Ce résultat est venu mettre en évidence une contradiction profonde entre la mécanique classique, fondée sur la notion du temps absolu et sur l'idée de propagation instantanée des actions à distance, et la théorie électromagnétique pour laquelle les actions à distance se transmettent de proche en proche avec la vitesse de la lumière. Le temps absolu et les autres notions fondamentales de la mécanique classique sont d'accord avec le principe de la relativité restreinte tant qu'il s'agit d'expériences purement mécaniques de précision limitée et des lois anciennes qui les interprètent, mais ces notions doivent être profondément remaniées pour cadrer avec les faits plus précis qui concernent l'électromagnétisme et le rayonnement, avec la constance de la vitesse de la lumière, en particulier. La propagation isotrope de la lumière à la fois dans tous les systèmes galiléens, imposée par l'expérience, est en contradiction formelle avec l'ancienne cinématique. La critique einsteinienne de la notion de temps, en plaçant celle-ci sur sa véritable base expérimentale par l'intermédiaire des échanges de signaux lumineux ou hertziens, et en s'appuyant sur le principe de constance de la vitesse de la lumière comme cas particulier du principe de relativité restreinte, a permis de construire une cinématique nouvelle, implicitement contenue d'ailleurs dans le système des équations de la théorie électromagnétique. Cette nouvelle cinématique est impliquée par la théorie électromagnétique comme la cinématique du temps absolu est impliquée par la mécanique classique. L'une et l'autre des deux théories, électromagnétique et mécanique, sont d'accord avec le principe de relativité restreinte, mais à condition de ne pas utiliser le même temps : la mécanique classique conserve la même mesure du temps quand on passe d'un système galiléen à un autre, attribue à la simultanéité de deux évènements un caractère absolu ; l'électromagnétisme au contraire est d'accord avec le principe de relativité à condition de changer la mesure du temps quand on passe d'un système de référence à un autre, et d'admettre que deux évènements simultanés pour l'un ne le sont pas ordinairement pour l'autre. Il fallait choisir pour faire disparaître la contradiction, et c'est la mécanique ancienne qui a dû s'incliner parce que la précision des mesures sur lesquelles reposaient ses lois était faible. Ces lois avaient été établies en observant des mobiles de vitesse relativement petite, alors que le désaccord entre les deux cinématiques ne devient apparent, à la précision des mesures mécaniques, que pour des vitesses déjà appréciables par rapport à la vitesse de la lumière, de quelques dizaines de milliers de kilomètres au moins, au contraire la précision des mesures électromagnétiques et optiques est telle que le désaccord s'y manifeste déjà nettement pour des vitesses de l'ordre de nos vitesses terrestres de quelques dizaines de kilo-mètres par seconde. À la nouvelle notion du temps, à la nouvelle cinématique, correspond une nouvelle mécanique dont l'ancienne représente une première approximation, valable, au degré de précision des expériences de mécanique, pour les vitesses petites par rapport à celle de la lumière. La vitesse d'un mobile doit atteindre trente mille kilomètres par seconde pour que sa masse, définie comme capacité de quantité de mouvement, et considérée comme constante par la mécanique classique, subisse une variation de l'ordre du centième au sens de la mécanique nouvelle. L'expérience a pu vérifier entièrement ces prévisions grâce à l'observation des rayons cathodiques, composés d'électrons qui peuvent être lancés avec des vitesses allant jusqu'à la moitié de la vitesse de la lumière, cas où la variation de la masse atteint près du sixième de sa valeur au repos. Pour les rayons beta des corps radioactifs, composés d'électrons dont la vitesse s'approche beaucoup de la vitesse de la lumière, la variation est telle que la masse devient plus de dix fois supérieure à ce qu'elle est au repos. La nouvelle mécanique, conforme à la théorie électromagnétique et fondée sur la notion d'action différée à distance avec les modifications qu'elle impose à l'idée de temps, est confirmée par l'expérience et comporte la mécanique classique comme première approximation valable aux vitesses suffisamment petites par rapport à celle de la lumière. Loin d'être plus complexe, la nouvelle mécanique s'est montrée plus simple que l'ancienne. Elle comporte en effet, comme conséquence essentielle, l'identification de la notion de masse avec celle d'énergie. Alors que l'ancienne mécanique devait, pour être conséquente avec elle-même, introduire une masse invariable lorsque l'état du corps et par conséquent son énergie interne varie, la nouvelle mécanique affirme l'inertie de l'énergie, c'est-à-dire la variation de la masse d'un corps proportionnellement à l'énergie interne de celui-ci, unissant en une seule les deux notions de masse et d'énergie, qui étaient autrefois distinctes et faisaient l'objet de deux principes de conservation entièrement indépendants. On sait combien cette découverte de l'inertie de l'énergie s'est montrée féconde puisqu'elle a permis, en particulier, de comprendre l'origine des petits écarts entre les poids atomiques rapportés à celui de l'hydrogène et les nombres entiers, de faire définitivement triompher la doctrine de l'unité de la matière, et de connaître, précisément par l'intermédiaire de ces petits écarts, l'énergie libérée quand l'hydrogène se condense pour donner naissance aux autres éléments chimiques. La théorie de la relativité restreinte, et la mécanique imposée par elle, ne sont plus discutées aujourd'hui; nous verrons tout à l'heure qu'elles sont devenues indispensables au développement de la physique et qu'en particulier les progrès récents de la théorie des quanta n'auraient pas été possibles sans elles. La liaison étroite entre l'inertie et la pesanteur que révèle l'identité de la masse inerte et de la masse pesante devait faire prévoir, à partir de l'inertie de l'énergie, la pesanteur de l'énergie, la pesanteur de la lumière à partir de l'inertie de la lumière. C'est tout d'abord par cette voie qu' Einstein a été conduit à passer de la relativité restreinte à la relativité généralisée. Il est important de souligner ici comment la critique de la notion même de loi expérimentale, de loi physique, exige cette extension, impose la nécessité pour les lois de se présenter sous une forme indépendante du système de référence, du mouvement uniforme ou non, de l'observateur. Alors que, comme l'avait reconnu la cinématique ancienne, la coïncidence d'évènements dans l'espace sans coïncidence dans le temps n'a qu'un sens relatif, et que, comme l'a reconnu la cinématique nouvelle, la coïncidence d'évènements dans le temps sans coïncidence dans l'espace n'a, elle non plus, qu'un sens relatif, la coïncidence des évènements à la fois dans l'espace et dans le temps a nécessairement un sens absolu. Elle doit être admise à la fois par tous les observateurs quel que soit leur mouve-ment, galiléen ou non. En effet, la coïncidence absolue, la rencontre de deux portions de matière par exemple, donne lieu à des phénomènes, établit un lien causal, sur lequel tous les observateurs se trouvent nécessairement d'accord. Or, une loi physique quelconque ne fait qu'affirmer une succession, un enchaînement causal de coïncidences absolues ; la loi possède par suite, comme chacune des coïncidences dont elle affirme le lien, une signification intrinsèque, absolue, indépendante du système de référence. Cette discussion fait donc apparaître comme possible la création d'une sorte de géométrie de la physique où les lois seraient énoncées sous une forme indépendante du système particulier de coordonnées d'espace et de temps employé par l'observateur pour repérer les événements qui interviennent dans l'énoncé de la loi. De même, la géométrie pure énonce sous forme intrinsèque les lois que la géométrie analytique exprime au moyen de coordonnées variables avec le système choisi. Mais alors que la géométrie analytique de Descartes est postérieure à la géométrie pure des Grecs, la possibilité, la nécessité même d'une géométrie de la physique, énonçant les lois de celle-ci sous forme intrinsèque, indépendante du système de référence, n'a été reconnue que lorsqu' Einstein a compris la signification profonde, la nécessité d'un principe de relativité généralisée. Il a compris également que cette géométrie ne pouvait pas être euclidienne puisque la gravitation existait; il a compris que celle-ci était liée au caractère non euclidien de l'espace-temps, éclaircissant du même coup pour la première fois le lien mystérieux reconnu par Newton entre l'inertie et la pesanteur, l'identité de la masse inerte et de la masse pesante. Il ne m'est pas possible ici d'insister davantage sur le merveilleux développement de cette théorie, sur les prévisions entièrement nouvelles qu'elle a permis de faire et sur les confirmations expérimentales qui en ont résulté. Je veux seulement souligner le fait que la construction de cette géométrie de la physique se développe et qu'on y met largement à contribution, dans le sens que j'indiquais tout à l'heure, les travaux des purs mathématiciens, soucieux de chercher, sans imaginer que la physique puisse y être concernée, les formes de géométrie les plus abstraites et les plus générales. Les travaux de Cartan, de Schouten et d'autres, rejoignent et fécondent les efforts d' Einstein pour créer, sous le nom de théorie du champ unitaire, une géométrie qui rende compte, par les seules propriétés du continuum spatio-temporel et sans intervention d'aucune notion de force surajoutée comme dans l'ancienne mécanique, des actions électromagnétiques et gravitationnelles à la fois, c'est-à-dire de toutes les manifestations que la physique cherche à interpréteras. Nous avons vu combien cet effort de géométrisation de la physique, couronné de succès dans le domaine théorique comme dans le domaine expérimental, est profondément conforme à la nature des choses et apparaît comme nécessaire quand on cherche à comprendre la signification véritable de la notion de loi expérimentale. Ce bref rappel des idées fondamentales qui sont à la base du développement de la théorie de la relativité met en évidence un caractère essentiel dans l'orientation actuelle, dans l'histoire récente de la physique : l'obligation, la nécessité où se sont trouvés les physiciens, pour sortir de difficultés en apparence insurmontables, de remonter à la source de leur action, de critiquer les notions les plus anciennement introduites et les plus fondamentales pour y séparer l'essentiel de l'arbitraire, en écarter l'a priori et donner un sens, expérimental aussi immédiat et direct que possible aux notions ainsi purifiées. La fécondité de cet effort dans le domaine du continu, celui qui s'est manifesté constamment au cours du développement de la théorie de la relativité, va se retrouver au cours de la seconde crise, celle des quanta ou du discontinu. Il n'est d'ailleurs pas interdit d'espérer que, des géométries nouvelles, de la théorie unitaire des champs de force continus d' Einstein, puisse sortir une interprétation de la matière et de sa structure ainsi que du rayonne-ment et de ses propriétés, réalisant ainsi, sous une forme qui rejoindrait celle des quanta et de la mécanique ondulatoire dont nous allons nous occuper maintenant, la synthèse nécessaire du rayonnement et de la matière, de l'onde et du corpuscule, du continu et du discontinu. La crise des quanta, en pleine évolution, est plus grave encore que celle de la relativité et présente, au point de vue philosophique, une signification également profonde. Elle aussi est issue de l'expérience optique, qui concerne à la fois la matière et le rayonnement; mais, au lieu d'exiger, comme la confrontation de la cinématique ancienne avec les faits, toute la précision des méthodes interférentielles de mesure comme dans l'expérience de Michelson, l'opposition de la théorie avec l'expérience se présente ici sous une forme aiguë, violente, que permet de constater l'expérience la plus immédiate dans le domaine du rayonnement thermique ou de la photoélectricité. Il s'agit ici de phénomènes qui concernent plus particulièrement les échanges d'énergie entre la matière et le rayonnement, échanges que comme je l'ai dit tout à l'heure, la théorie électromagnétique se représentait sous l'aspect de processus continus. En appliquant à ces processus les mêmes méthodes de mécanique statistique qui ont permis de construire, d'accord avec l'expérience, la théorie cinétique des gaz à partir des lois mécaniques régissant les échanges d'énergie et de quantité de mouvement entre les molécules au moment de leurs chocs, on peut traiter les problèmes qui concernent à la fois la matière et le rayonnement, en particulier celui de l'équilibre thermique entre eux. Ce dernier problème est celui de la composition du rayonnement à l'intérieur d'un four en équilibre de température, du rayonnement tel que pour chaque fréquence il y ait compensation exacte entre ce qui est absorbé et ce qui est émis par la paroi du four. Le résultat théorique, contre toute attente se montre non seulement en contradiction flagrante avec les faits, mais présente ce caractère absurde d'exiger une densité d'énergie rayonnante constamment, et linéairement croissante avec la fréquence, et par conséquent une densité totale de rayonnement infinie à toute température L'expérience, au contraire, conduit, pour le rayonnement en équilibre à l'intérieur d'un four, à une densité d'énergie totale finie et, conformément à la loi thermodynamique de Stefan-Boltzmann, proportionnelle à la quatrième puissance de la température absolue. La composition de ce rayonnement est telle que la densité d'énergie est nulle à la fois pour les très basses fréquences et pour les fréquences très élevées, avec un maximum dans l'intervalle, pour une fréquence proportionnelle à la température absolue, infrarouge à la température ordinaire, et, parcourant le spectre visible du rouge au violet dès que la température atteint l'incandescence, pour correspondre à des rayons de Röntgen déjà très pénétrants à l'intérieur des fournaises stellaires où la température atteint et dépasse quarante millions de degrés. La contradiction flagrante dont il s'agit ici entre l'expérience et la théorie qui admet des échanges continus entre la matière et le rayonnement, s'est imposée de manière aiguë à l'attention des physiciens depuis plus de trente ans, et surtout depuis que Max Planck a montré, en 1900, que les raisonnements statistiques donnent au contraire un résultat conforme à l'expérience si l'on suppose, en contradiction avec la théorie électromagnétique, que les échanges d'énergie, l'absorption et l'émission du rayonnement par la matière, se font de manière discontinue, par quantités finies ou quanta, de grandeur proportionnelle à la fréquence du rayonnement émis ou absorbé, avec un coefficient de proportionnalité connu depuis sous le nom de constante h de Planck. L'observation du rayonnement émis par une ouverture dans la paroi d'un four en équilibre de température permet une détermination précise de cette constante. Einstein a montré, quelques années plus tard, qu'il fallait, pour comprendre les lois des phénomènes photoélectriques, découverts par Hertz il y a un peu plus de quarante ans, non seulement introduire cette discontinuité dans les échanges entre la matière et le rayonnement, mais encore renoncer à la structure continue du rayonnement lui-même. Ces phénomènes consistent en une émission d'électricité négative par la matière sous l'action du rayonnement, en une émission d'électrons, par toute matière lorsqu'elle est soumise à l'action d'un rayonnement de fréquence suffisamment élevée. L'expérience montre que chaque électron ainsi arraché par une radiation de fréquence déterminée, reçoit du rayonnement, une énergie précisément égale au quantum de Planck, proportionnelle à la fréquence avec le même coefficient h nécessaire pour interpréter les lois du rayonnement thermique. Le fait remarquable est que l'énergie prise ainsi par un seul électron pour une fréquence donnée du rayonnement est toujours la même quelle que soit l'intensité, forte ou faible, de ce rayonnement, quelle que soit aussi la matière dont l'électron est arraché. Cette énergie ne dépend absolument que de la fréquence incidente. Ce résultat est inconciliable avec l'idée que l'énergie du rayonnement est distribuée de manière continue dans l'espace avec une densité proportionnelle à l'intensité du rayonnement. Il faut, au contraire comme l'a montré Einstein, la supposer concentrée en grains discontinus ou photons, transportant chacun avec la vitesse de la lumière une énergie égale au quantum de Planck et une quantité de mouvement égale au quotient de ce quantum par la vitesse de la lumière. C'est par photons entiers que se fait l'absorption et l'émission du rayonnement par la matière et c'est la rencontre d'un photon avec un électron qui, transmettant à celui-ci l'énergie du photon, donne lieu à l'effet photoélectrique. L'introduction, par le photon, d'une structure discontinue du rayonnement, est venue interpréter un nombre considérable de phénomènes nouveaux, concernant toujours les échanges entre la matière et la lumière, en particulier ceux qui sont connus sous les noms d'effet Compton et d'effet Raman. Avec le photon s'introduit en optique une situation nouvelle et singulière. Alors que les phénomènes d'interférence et de diffraction exigent, pour leur interprétation, la conception ondulatoire et continue, le nouveau chapitre de l'optique dont il vient d'être question semble exiger, avec le photon, un retour vers la théorie de l'émission, vers le corpuscule lumineux de Newton. Le double aspect, ondulatoire et corpusculaire, de l'expérience optique semble imposer à la fois une conception continue et une conception discontinue de la structure du rayonnement. La théorie doit s'incliner et s'efforcer de concilier, par une synthèse plus haute, les deux théories de l'émission et des ondulations entre lesquelles depuis quatre-vingts ans l'expérience de Foucault semblait avoir tranché de manière définitive et cruciale en faveur de la seconde. Ici intervient la relativité pour rendre la conciliation possible et infirmer le raisonnement classique par lequel l'expérience de Foucault prenait sa signification cruciale. Il n'y a pas d'expérience cruciale en elle-même mais seulement par rapport aux théories entre lesquelles il s'agit de choisir. C'est en appliquant à ses corpuscules lumineux les lois de la mécanique classique, que Newton prévoyait, pour l'indice de réfraction de l'air dans l'eau, une valeur égale au rapport des vitesses de la lumière dans l'eau et dans l'air, alors que la théorie des ondulations prévoyait avec Huyghens le rapport inverse. La nouvelle mécanique de la relativité, précisément lorsqu'il s'agit comme ici de vitesses du même ordre que celle de la lumière dans le vide, s'écarte des résultats classiques de telle manière que l'opposition disparaît et que rien ne s'oppose à ce que nous acceptions à la fois la conception ondulatoire pour expliquer les faits d'interférence et la conception corpusculaire, le photon, pour expliquer les lois du rayonnement thermique et de la photoélectricité. Le fait remarquable est que le rayonnement se présente à nous sous ce double aspect ondulatoire et corpusculaire et qu'une synthèse est nécessaire entre les deux conceptions continue et discontinue autrefois opposées l'une à l'autre. Cette synthèse n'est pas faite encore, nous n'en sommes qu'à un compromis dans lequel nous reconnaissons au rayonnement un double caractère, ondulatoire et corpusculaire, continu et discontinu, les corpuscules ou photons transportant et localisant l'énergie et la quantité de mouvement, et les ondes déterminant, par leur propagation, la distribution, la probabilité de présence des photons. On doit renoncer à suivre individuellement ceux-ci, à leur appliquer des lois de mécanique qui sont vraies seulement en moyenne pour les distributions prévues par le processus ondulatoire. La notion du rayon lumineux considéré comme trajectoire du corpuscule, du photon, disparaît, comme le montrent les phénomènes de diffraction, dès qu'on veut l'appliquer autrement qu'à l'intérieur d'un faisceau lumineux à l'ensemble de tout un essaim de photons. Le rayon lumineux, la propagation rectiligne, si nets à travers une ouverture un peu grande, s'évanouissent, se diffractent dès qu'on cherche, en rétrécissant l'ouverture, à isoler le rayon lumineux, la trajectoire individuelle du photon. Les lois de la diffraction, si exactement prévues par la théorie des ondes, continuent, quelque petite que soit l'ouverture, à déterminer statistiquement la distribution des photons dans le faisceau diffracté au-delà de cette ouverture. Il ne peut pas y être question de suivre, expérimentalement ni théoriquement, la trajectoire individuelle d'un corpuscule lumineux ; en moyenne seulement sont valables pour les photons les lois que leur impose la dynamique de la relativité. L'optique se La même nécessité d'associer, dans la lumière, à l'élément ondulatoire et continu un élément corpusculaire et discontinu, aux ondes de Fresnel, des photons qu'elles pilotent, s'est imposée dans l'ordre inverse également à la matière. Il a fallu, en effet, au cours du développement récent de la crise des quanta, constituer une mécanique ondulatoire, associer aux grains de la conception ancienne, électrons, protons, atomes ou molécules, des ondes d'un type nouveau, les ondes de Louis de Broglie et de Schrödinger. Comme les ondes lumineuses par rapport aux photons, les ondes nouvelles sont unies aux corpuscules matériels par un lien dont nous ne connaissons encore que l'aspect statistique : les ondes nouvelles déterminant la probabilité de présence des grains de matière comme les ondes électromagnétiques déterminent la distribution des grains de lumière ou photons. La conception corpusculaire de la matière, sous la forme précise de l'atome nucléaire de Rutherford, s'est développée tout naturellement, d'abord, à l'image de la mécanique céleste, en transposant dans ce domaine nouveau les méthodes de la mécanique, classique ou relativiste, appliquée aux électrons considérés comme des points matériels. À l'image des planètes circulant autour du soleil sous l'action des forces de gravitation, ces électrons sont supposés décrire autour du noyau des orbites déterminées par les actions mutuelles d'origine électromagnétique. Le problème ainsi posé comporte une infinité continue de solutions dont aucune, d'ailleurs, ne peut correspondre à un état permanent de l'atome puisque les électrons en mouvement doivent, au sens strict de la théorie électromagnétique, rayonner constamment et continûment de l'énergie en raison des accélérations qu'ils subissent. Par suite de l'amortissement qui résulte de la perte d'énergie par rayonnement, les électrons planétaires devraient, en un temps très court, d'une petite fraction de seconde quelles que soient les conditions initiales, tomber sur le noyau et le neutraliser complètement au point de vue électrique. Le rayonnement émis au cours de cette évolution devrait, toujours au sens de la théorie électromagnétique classique, changer continûment de fréquence et correspondre à l'émission d'un spectre continu. On se trouve ici encore en contradiction flagrante avec les faits, puisque les atomes manifestent une grande stabilité et que, tout au moins dans l'état gazeux, le rayonnement qu'ils émettent correspond à un spectre de raies discontinues caractéristique de la nature chimique des atomes. On sait comment Niels Bohr, par des hypothèses heureuses, mais inconciliables avec la théorie classique, a ouvert la voie nouvelle, en choisissant, par des règles convenables de quantification où intervient la constante de Planck, une série discontinue de mouvements parmi la série continue des solutions possibles au point de vue mécanique, et en admettant, contrairement aux lois de l'électromagnétisme, que ces mouvements privilégiés se poursuivent sans rayonner et correspondent chacun à une configuration stable de l'atome, d'énergie interne définie et constante. Le rayonnement n'intervient, par absorption ou émission d'un photon, qu'en liaison avec le passage d'un de ces états stables à un autre, d'énergie plus grande en cas d'absorption et d'énergie plus faible en cas d'émission de rayonnement; l'énergie du photon émis ou absorbé, et par conséquent la fréquence du rayonnement correspondant, est déterminée par la différence des énergies de l'atome dans les deux états initial et final du changement qu'il subit. Cette association singulière et contradictoire des lois de la mécanique et de l'électromagnétisme avec des hypothèses en opposition flagrante avec elles, rencontra tout d'abord un succès remarquable dans le cas des systèmes à un seul électron planétaire, atome d'hydrogène neutre, atomes d'hélium ou de lithium ionisés. Bohr, en utilisant la mécanique ancienne, et Sommerfeld mieux encore en utilisant la mécanique nouvelle de la relativité restreinte plus en harmonie avec les lois de l'électromagnétisme, purent rendre compte de la structure complète du spectre émis par chacun de ces systèmes. Mais la contradiction qui restait à la base ne devait pas tarder à se manifester — le succès obtenu pour un seul électron ne se prolongea pas et l'application des mêmes méthodes de quantification au cas de deux électrons, pour l'atome d'hélium par exemple, conduisit à des résultats nettement contredits par la réalité. Il fallut chercher d'autres solutions moins entachées d'illogisme originel. Ces efforts ont abouti dans deux directions heureusement convergentes, celle de la dynamique des matrices, ouverte par Heisenberg et Max Born et celle de la mécanique ondulatoire créée tout d'abord par Louis de Broglie et Schrödinger. L'oeuvre de Heisenberg présente un caractère de critique constructive analogue à celui que nous avons constaté dans l'oeuvre d' Einstein. Pour sortir de difficultés aussi fondamentales dans un cas que dans l'autre, il a été fécond d'analyser le contenu des notions anciennes, et de les remplacer par d'autres en contact plus direct avec l'expérience. Heisenberg a fait remarquer combien on est loin de l'expérience immédiate en cherchant à construire une image de l'atome sur le modèle d'un système planétaire et en extrapolant dans ce domaine nouveau, des notions introduites pour rendre compte de faits mécaniques et macroscopiques entièrement différents des faits spectroscopiques ou microscopiques dont il s'agit ici. L'idée d'orbite électronique à l'intérieur d'un atome n'a aucun sens expérimental comparable à celui de l'orbite d'une planète ou de la trajectoire d'un projectile. Bien plus, l'existence certaine des quanta de lumière et des effets photoélectriques auxquels ils donnent lieu introduit une différence profonde entre le cas macroscopique de la planète ou du projectile et le cas microscopique de l'électron intra-atomique. Par une analyse profonde des conditions mêmes de toute observation, Heisenberg montre qu'elle implique toujours une action de l'observateur sur le système observé et une réaction de celui-ci d'où résulte l'observation. Pour suivre le mouvement d'un projectile, il faut nécessairement l'éclairer, envoyer sur lui un certain nombre de photons dont quelques-uns sont renvoyés par lui et manifestent sa présence, permettant de déterminer chacune de ses positions successives. Le choc de ces photons trouble le mouvement qu'on veut étudier, mais la constante de Planck est si petite, les quanta de lumière visible si légers, que la lumière nécessaire pour l'éclairer ne transmet au projectile que des quantités insignifiantes d'énergie et de quantité de mouvement, ne trouble son mouvement que de manière inappréciable. Il cesse d'en être ainsi quand on descend dans le domaine corpusculaire : le fait que la quantité de lumière utilisée pour éclairer un atome et mettre en évidence les électrons qu'il contient ne peut pas descendre au-dessous d'un seul photon, et que la rencontre d'un photon avec un électron, par absorption complète du photon ou par effet Compton, trouble profondément le mouvement de l'électron, a pour conséquence que, même en employant le langage mécanique usuel pour exprimer ce qui se passe, on ne peut espérer mettre en évidence le mouvement d'un seul électron sans le modifier de telle façon que toute observation individuelle est dépourvue de sens expérimental. L'existence des quanta, leur grandeur déterminée par la constante de Planck, ne permet pas même d'imaginer qu'on puisse diminuer indéfiniment l'importance de l'intervention de l'observateur sur le système observé, qu'on puisse, à mesure qu'augmente la petitesse de celui-ci, augmenter parallèlement la délicatesse des moyens d'observation. Notre scalpel à disséquer la nature a un tranchant de finesse limitée, mesurée par la constante de Planck, et cela s'oppose à ce que l'idée du mouvement individuel d'un corpuscule, d'une orbite électronique puisse avoir un sens expérimental. À cette partie critique, dont nous verrons plus loin un aspect différent, Heisenberg associe, comme fait Einstein, une partie constructive, en introduisant des notions nouvelles qui, comme le temps relatif d' Einstein défini par des échanges de signaux lumineux, sont en contact étroit avec la réalité expérimentale et marquent un retour vers une tendance plus phénoménologique qu'explicative. Notre information la plus importante sur l'intérieur des atomes ou plus exactement sur les propriétés de ceux-ci, nous est fournie par la spectroscopie. Ce que nous savons d'un atome est donné par son spectre, par la connaissance des fréquences et des intensités de ses raies qui forment un ensemble de séries infinies et discontinues. C'est tout cet ensemble, directement fourni par l'expérience, qu'il s'agit de traduire par les notions abstraites au moyen desquelles nous pouvons espérer construire une représentation théorique des faits. Les matrices infinies, déjà étudiées par les mathématiciens les plus purs sans aucune prévision de cette rencontre, se trouvent particulièrement adaptées à une semblable représentation d'un spectre tout entier. Chacun des éléments de la matrice correspondant à une raie du spectre, le caractère imaginaire de ces éléments leur permet de représenter les intensités des raies par leurs modules et les fréquences par leurs arguments. Par une généralisation remarquable de ces idées, les lois du monde atomique se trouvent exprimées par des relations entre des grandeurs physiques d'un type nouveau correspondant chacune à une matrice infinie. Le calcul des éléments de ces matrices permet de prévoir les manifestations expérimentales de la structure atomique, le spectre d'émission ou d'absorption par exemple, et les modifications subies par ces spectres dans des circonstances variées. Le succès remarquable de cette théorie, parfaitement cohérente au point de vue logique, mais d'aspect singulièrement abstrait, s'est trouvé augmenté par la constatation de son équivalence avec le résultat des considérations d'un ordre tout différent qui ont abouti à la constitution d'une mécanique ondulatoire. Partant d'un point de vue tout différent de celui d' Heisenberg, et cherchant à rester fidèle, au contraire, à la tendance explicative, Louis de Broglie s'est demandé si, dans la représentation de la structure atomique, l'idée ondulatoire ne réussirait pas là où avait échoué la conception pure-ment corpusculaire. De même que l'optique avait dû, pour interpréter les aspects si divers du rayonnement, associer des corpuscules, les photons, aux ondes de la théorie électromagnétique, ne pourrait-on pas tenter de surmonter les difficultés concernant la matière en associant, aux corpuscules postulés dans celle-ci, des ondes qui en détermineraient la distribution ou qui pourraient même se substituer à eux ? Pour préciser ce qui concerne ces ondes associées à chaque grain de matière, leur fréquence en particulier, Louis de Broglie reprend en sens inverse la relation du quantum qui permet, à partir de la fréquence des ondes lumineuses, de calculer l'énergie du quantum, du photon associé. Il admet que la même relation de proportionnalité existe, avec la constante de Planck comme coefficient, entre l'énergie, ici connue, du grain de matière, et la fréquence inconnue des ondes hypothétiques. Utilisant la cinématique de la relativité, il peut calculer la vitesse de propagation de ces ondes en fonction de la vitesse du grain, et par conséquent la longueur d'onde correspondante en divisant cette vitesse de propagation par la fréquence. Pour des électrons lancés sous une différence de potentiel de cent à mille volts, la longueur d'onde ainsi calculée est de même ordre de grandeur que celle des rayons de Röntgen les plus usuellement employés, et l'expérience est venue confirmer qu'un faisceau d'électrons ou de rayons cathodiques se comporte, par passage à travers une lame métallique mince ou par réflexion sur la surface d'un cristal, exactement comme le fait prévoir la diffraction des ondes associées par de Broglie, si l'on admet que ces ondes déterminent la probabilité de distributions des électrons, exactement comme la propagation des ondes lumineuses détermine la distribution des photons associés. Reprise et développée par Schrödinger, l'idée de Louis de Broglie s'est montrée d'une remarquable fécondité. La nécessité de retrouver en moyenne, pour les particules guidées par les ondes, les lois ordinaires de la mécanique permet d'établir l'équation de propagation de ces ondes et la manière dont elles se comportent en présence d'un champ de force électrique ou magnétique auquel les particules matérielles sont sensibles; le champ doit par conséquent influer sur la propagation des ondes qui déterminent la distribution de ces particules. Cette équation de propagation conduit au résultat remarquable que, dans le champ électrique entourant un noyau d'atome, les nouvelles ondes sont susceptibles d'une série discontinue d'états stationnaires, avec des fréquences et par conséquent des énergies qui correspondent exactement à la série discontinue des états stables nécessaires pour représenter l'émission du spectre de l'atome par passage de l'un à l'autre de ces états. La discontinuité des termes de cette série, que la mécanique des orbites était impuissante à interpréter sans l'artificiel secours des règles de quantification de Bohr et de Sommerfeld, découle, par l'intermédiaire des systèmes d'ondes stationnaires, de la manière la plus naturelle, de la conception ondulatoire. De même que tout système, élastique ou acoustique, susceptible d'être parcouru par des ondes, corde vibrante, tuyau sonore, etc., donne lieu à toute une série discontinue de modes de vibration propres correspondant aux divers systèmes d'ondes stationnaires compatibles avec les conditions aux limites, l'espace occupé par le champ électrique entourant un noyau d'atome admet précisément pour les ondes de de Broglie-Schrödinger les modes stationnaires correspondant aux états stables exigés par la spectroscopie. Il a d'ailleurs été possible de démontrer que, quel que soit le nombre des électrons ou corpuscules présents et quel que soit le champ de force auquel ils sont soumis, la nouvelle mécanique ondulatoire conduit exactement aux mêmes résultats que la théorie des matrices d' Heisenberg et de Born, tout en présentant sur celle-ci la supériorité de calculs plus faciles et d'une construction moins abstraite, plus conforme aux habitudes d'esprit et aux conceptions des physiciens, familiers depuis longtemps avec le maniement de l'image ondulatoire et la considération des ondes stationnaires. Le cas de plusieurs corpuscules exige d'ailleurs qu'on envisage la propagation de ces ondes, non plus dans l'espace ordinaire à trois dimensions, mais dans un espace de configuration dont le nombre de dimensions est égal au nombre des degrés de liberté du système, c'est-à-dire au triple du nombre des corpuscules, trois coordonnées étant nécessaires pour fixer la position de chacun d'eux. Il m'est impossible de mentionner ici tous les résultats obtenus récemment dans cette voie. L'examen du cas de deux ou plusieurs particules a fait apparaître des actions d'un type nouveau qui jouent un rôle fondamental dans l'interprétation des combinaisons chimiques dont elles permettent d'aborder quantitativement la théorie, dans la compréhension du ferromagnétisme, de la cohésion, etc. Un des faits les plus remarquables concerne les résultats obtenus par M. Dirac en attribuant aux ondes nouvelles une structure complexe analogue à celle qu'avaient dû introduire l'optique et l'électromagnétisme pour interpréter la polarisation de la lumière ; en imposant aux lois de propagation de ses ondes la condition de satisfaire au principe de relativité restreinte, de conserver leur forme comme doivent le faire toutes les lois de la physique pour les transformations qui correspondent au passage d'un système galiléen à un autre, M. Dirac montre qu'à la charge électrique d'une particule telle qu'un électron ou un proton, doit nécessaire-ment être associé un moment magnétique précisément égal à celui que des raisons d'ordre spectroscopique avaient conduit à leur attribuer. Ces moments électroniques ou protoniques éclairent d'un jour nouveau et imprévu les propriétés magnétiques de la matière et ont permis de prévoir l'existence, entièrement insoupçonnée jusque-là et entièrement confirmée par les faits, de deux formes profondément différentes de la molécule d'hydrogène, l'ortho et le para-hydrogène dont l'hydrogène gazeux ordinaire est un mélange dans la proportion d'un à trois, prévue par la théorie pour l'équilibre entre les deux formes isomères. On peut également prévoir, quand le nombre des électrons augmente autour d'un noyau atomique de charge positive croissante, la succession des formes et la périodicité des propriétés des atomes, découvertes par les chimistes et représentées par la classification de Mendeleïev. Ainsi se constitue une mécanique ondulatoire, dans laquelle disparaît, à l'échelle corpusculaire, la notion de trajectoire individuelle ou d'orbite, exactement comme en optique disparaît la notion de rayon quand les dimensions des appareils cessent d'êtres grandes par rapport à la longueur d'onde. De même que l'optique ondulatoire a permis d'aller au-delà de l'optique des rayons ou optique géométrique dont elle rend compte comme première approximation, la mécanique ondulatoire complète la mécanique des trajectoires ou mécanique géométrique, lorsque celle-ci cesse de s'appliquer, à l'échelle corpusculaire. L'opposition entre rayonnement et matière cesse ainsi de se confondre avec l'opposition entre le continu et le discontinu. Du côté du rayonnement, comme du côté de la matière, il est nécessaire, au moins pour l'instant d'associer un élément continu, ondulatoire, à un élément discontinu, corpusculaire. D'un côté comme de l'autre, une synthèse est nécessaire et s'élabore actuellement pour préciser le lien entre l'onde et le corpuscule, lien que nous exprimons provisoirement sous une forme statistique où l'onde, pour la lumière comme pour la matière, détermine la probabilité de présence du corpuscule associé. C'est la tâche principale vers laquelle est orienté, aujourd'hui l'effort des physiciens. Je me suis efforcé de mettre en évidence le rôle considérable joué, dans le développement récent de la physique, par l'analyse critique des notions anciennes et par la construction de notions fondamentales nouvelles mieux adaptées à la représentation de la réalité. Une évolution rapide, exigée par la précision croissante et par l'accumulation des données expérimentales, a renouvelé dans l'espace de trente ans les idées en apparence les mieux établies et les a libérées d'une grande partie de l'a priori qu'elles contenaient. Loin d'être achevée, cette action se poursuit. La critique de la notion d'observation par Heisenberg pose en ce moment la question des limites du déterminisme et atteint les bases mêmes sur lesquelles nous croyons possible de construire une science du réel. Le fait, rappelé plus haut comme conséquence de l'existence des quanta, qu'il est impossible de suivre le mouvement individuel d'un corpuscule sans le troubler profondément, a conduit Heisenberg à énoncer un principe dit d'indétermination, d'où résulterait l'impossibilité expérimentale d'atteindre autre chose que des lois statistiques. Le comportement individuel des corpuscules de matière ou de lumière échapperait à toute possibilité de prévision et par conséquent à tout déterminisme. En physique, comme en démographie, des lois de moyennes d'autant plus précises qu'elles concerneraient un nombre plus grand de cas individuels, recouvriraient une indétermination fondamentale de chaque cas particulier. Il convient d'attendre, pour se prononcer sur un si grave sujet, et de faire confiance, ici encore, à la réflexion critique sur la signification exacte des mots et des idées. La recherche d'un déterminisme est à tel point le mobile essentiel de tout effort de construction scientifique, qu'on doit se demander, lorsque la nature laisse une question sans réponse, s'il n'y a pas lieu de considérer la question comme mal posée et d'abandonner la représentation qui l'a provoquée.

  • Source: Paul Langevin, Propos d'un physicien engagé, édité par Bernadette Bensaude-Vincent, Vuibert