Notice sur les travaux scientifiques de Paul Langevin

Free texts and images.
Jump to: navigation, search
Notice sur les travaux scientifiques de Paul Langevin
written by Paul Langevin
1934


  • Professeur au Collège de France, directeur de l' École de Physique et de Chimie industrielles, président du comité scientifique de l' Institut international de physique Solvay.
  • A mon Éliane, pour notre chéri, ce résumé du travail de son père,

P. Langevin, le 11 juin 1934.

  • Paris, Société générale d'imprimerie et d'édition, 17 rue Cassette VIème, 1934.


Fonctions et titres.


  • 1888. Élève de l' École de physique et de chimie.
  • 1893. Élève à l' École normale supérieure.
  • 1891. Agrégé des sciences physiques.
  • 1897. Boursier de la Ville de Paris au Cavendish Laboratory, Cambridge.
  • 1898. Boursier à l' École normale et à la Faculté des Sciences de Paris.
  • 1900. Préparateur à la Faculté des Sciences de Paris.
  • 1902. Professeur remplaçant au Collège de France.
  • 1903. Professeur suppléant au Collège de France.
  • 1905. Professeur à l' École de physique et de chimie.
  • 1909. Professeur titulaire au Collège de France.
  • 1909. Directeur des études à l' École de physique et de chimie.
  • 1911-1913-1921-1924-1927. Membre des cinq premiers Conseils de physique Solvay.
  • 1920. Directeur Scientifique du Journal de Physique.
  • 1928. Président du Comité scientifique de l' Institut international de physique Solvay.
  • 1930-1933. Président des sixième et septième Conseils de physique Solvay.
  • 1901. Prix Saintour du Collège de France.
  • 1904. Rapporteur pour la physique des électrons au Congrès international des Sciences et Arts de Saint-Louis.
  • 1912. Membre de la Société royale des Sciences de Göttingen.
  • 1915. Médaille d'or et prix Hughes de la Société royale de Londres.
  • 1920. Docteur honoris causa de l' Université de Manchester.
  • 1921. Membre honoraire de l' Institution royale de Londres.
  • 1921. Membre de l' Académie des Lincei à Rome.
  • 1921. Membre de l' Académie de marine.
  • 1922. Docteur honoris causa de l' Université de Leeds.
  • 1924. Prix Lasserre.
  • 1926. Membre de l' Académie des Sciences de Prague.
  • 1926. Membre de l' Académie des Sciences de Bologne.
  • 1926. Membre de la Société hollandaise des Sciences de Harlem.
  • 1927. Membre honoraire de la Société de physique et d'histoire naturelle de Genève.
  • 1928. Membre de la Société royale de Londres.
  • 1928. Membre honoraire de l' Académie des Sciences de Buenos-Aires.
  • 1928. Professeur honoraire de l' Université de Buenos-Aires.
  • 1928. Membre honoraire de la Faculté des Sciences de Santiago du Chili.
  • 1928. Membre honoraire de l' Association physico-chimique argentine.
  • 1928. Docteur honoris causa de l' Université de Bristol.
  • 1929. Membre de l' Académie des Sciences de Copenhague.
  • 1929. Docteur honoris causa de l' Université de Cambridge.
  • 1929. Membre d'honneur de l' Académie des Sciences de l' U. R. S. S.
  • 1930. Docteur honoris causa de l' Université libre de Bruxelles.
  • 1932. Président du Comité scientifique et technique du Congrès international d'Électricité.
  • 1932. Prix Canet de la Société des Ingénieurs Civils.
  • 1933. Membre de l' Académie royale d'Irlande.
  • 1933. Docteur honoris causa de l' Université de Liège.


Lauréat de l'Institut :


  • 1907. Prix Hughes.
  • 1918. Prix Clément Félix.
  • 1924. Prix La Caze.
  • 1933. Prix Pierson-Perrin.

Présenté trois fois par la section de physique en 1923 (séances du 4 juin et du 19 novembre) et 1927 (séance du 13 Juin).


Liste des publications.


1. Sur les rayons de Röntgen et l'ionisation des gaz.

  • 1. Sur l'ionisation des gaz (Bulletin des séances de la Société française de Physique, 3ème fascicule, p. 39, 20 avril 1900).
  • 2. Les ions dans les gaz (Bulletin de la Société internationale des Électriciens, t. 17, p. 203, 2 mai 1900).
  • 3. Recherches sur les gaz ionisés (C. R., t. 134, p. 414, 1902).
  • 4. Sur la recombinaison des ions dans les gaz (C. R., t. 134, p. 533, 1902).
  • 5. Sur la mobilité des ions dans les gaz (C. R., t. 134, p. 466, 1902).
  • 6. Recherches sur les gaz ionisés (Thèse de doctorat, 1902, Annales de Chimie et de Physique, t. 28, p. 289, 1903 et t. 28, p. 433, 1903. — Bulletin des séances de la Société française de Physique, 4ème fascicule p. 45, 6 juin 1902 et p. 49, 20 juin 1902).
  • 7. Sur les rayons secondaires des rayons de Röntgen (Thèse de doctorat, 1902, Annales de Chimie et de Physique, t. 28, p. 500, 1903).
  • 8. Sur la loi de recombinaison des ions (C. R., t. 137, p. 177, 1903).
  • 9. Sur la conductibilité des gaz issus d'une flamme (en collaboration avec M. Eugène Bloch) (C. R., t. 139, p. 792, 1904).
  • 10. Recherches récentes sur la théorie de la décharge disruptive (Bulletin des séances de la Société française de Physique, 4ème fascicule, p. 25, 17 février 1905).
  • 11. Recombinaison et diffusion des ions gazeux (Journal de Physique, 4° série, t. 4, p. 322, 1905).
  • 12. Recherches récentes sur le mécanisme du courant électrique. Ions et électrons (Bulletin de la Société internationale des Électriciens, 26 série, t. 5, p. 615, 4 novembre 1905. L'éclairage électrique, t. 45, p. 361. et p. 401, 1905).
  • 13. Recherches récentes sur le mécanisme de la décharge disruptive (Bulletin de la Société internationale des Électriciens, 2ème série, t. 6, p. 69, 6 janvier 1906. — Le Radium, t. 3, p. 107, 1906).
  • 14. Sur la recombinaison des ions dans les diélectriques. (C. J., t. 1116, p. 1011,1908).
  • 15. Mesure de la valence des ions dans les gaz (Le Radium, t. 10, p. 113, 1913).


II. Sur les ions de l'atmosphère et les particules en suspension.

  • 16. Sur les ions de l'atmosphère (Bulletin des séances de la Société française de Physique, 4ème fascicule, p. 67, 2 décembre 1904. — C. R. t. 140, p. 232, 1905).
  • 17. Interprétation de divers phénomènes par la présence de gros ions dans l'atmosphère (Bulletin des séances de la Société française de Physique, 4ème fascicule, p. 79, 19 mai 1905).
  • 18. Sur un enregistreur des ions de l'atmosphère (en collaboration avec M. Marcel Moulin, C. R., t. 140, p. 305, 1905).
  • 19. Remarques à propos de la communication de M. Eugène Bloch (Bulletin des séances de la Société française de Physique, fascicule 4, p. 84, 2 juin 1905).
  • 20. Électromètre enregistreur des ions de l'atmosphère (en collaboration avec M. Marcel Moulin, Bulletin des séances de la Société française de Physique, 3ème fascicule, p. 264, 17 mai 1907. — Le Radium, t. 4, p. 218, 1907).


III. Sur la théorie cinétique et la thermodynamique.

  • 21. Sur une formule fondamentale de la théorie cinétique (C. R., t. 140, p. 35, 1905. — Annales de Chimie et de Physique, 8ème série, t, 5, p. 245, 1905).
  • 23. Sur les chocs exceptionnels des molécules gazeuses (en collaboration avec M. J. J. Rey, Le Radium, t. 10, p. 142, 1913).
  • 24. La physique du discontinu (Conférence faite à la Société française de Physique en 1913, publiée dans le volume "Les progrès de la physique moléculaire", p. 1, Gauthier-Villars, 1914. "La physique depuis vingt ans", p. 189, O. Doin, Paris, 1923).


IV. Sur la théorie électromagnétique et les électrons.

  • 25. La physique des électrons (Rapport du Congrès international des Sciences et Arts à Saint-Louis, 1901 — Revue générale des Sciences, 15 mars 1905. — "La physique depuis vingt ans", p. 1, O. Doin, Paris, 1923).
  • 27. La théorie électromagnétique et le bleu du ciel (Bulletin de la Société française de Physique, 4ème fascicule, p. 80, 16 décembre 1910).
  • 28. Les grains d'électricité et la dynamique électromagnétique (Conférence faite à la Société française de Physique en 1912, publiée dans le volume Les idées modernes sur la constitution de la matière, p. 54, Gauthier-Villars, 1913 — (La physique depuis vingt ans, p. 70, O. Doin, Paris, 1923).
  • 29. L'Électron positif (Bulletin de la Société des Électriciens, 5° série, t. 4, p. :335, 1934).


V. Sur la théorie du magnétisme et l'orientation moléculaire.

  • 30. Sur la théorie du magnétisme (C. R., t. 1204, 1905. — Bulletin de la Société française de Physique, 4ème fascicule, p. 13, 20 janvier 1905. — Revue générale des Sciences, 15 mars 1905).
  • 32. Sur la théorie du magnétisme (Journal de Physique, 4ème série, t. 4, p. 678, 1905).
  • 33. Sur les biréfringences électrique et magnétique (Le Radium, t. 7, p. 249, 1910. -- C. R. t. 151, p. 475, 1910).
  • 35. Sur l'orientation moléculaire (Lettre à M. W. Voigt, p. 589, 1912).
  • 36. Remarques à propos de la communication de M. Edmond Bauer (Procès-verbaux des communications à la Société française de Physique, p. 18, 2l mars 1919).


VI. Sur le principe de relativité et l'inertie de l'énergie.

  • 38. L'Évolution de l'espace et du temps (Conférence faite au Congrès de philosophie de Bologne en 1911, publiée dans la Revue "Scientia", Vol. 10, p. 31, 1911. — La physique depuis vingt ans, p. 265, O. Doin, Paris, 1923).
  • 40. L'Inertie de l'énergie et ses conséquences (Conférence faite à la Société française de physique le 26 mars 1913, publiée dans Journal de Physique, 5ème série, t. 3, p. 553, 1913. "La physique depuis vingt ans", p. 315, O. Doin, Paris, 1923).
  • 42. Sur la théorie de la relativité et l'expérience de M. Georges Sagnac (C. R. t. 173, p. 831, 1921).
  • 48. Déduction simplifiée du facteur de Llewelyn Thomas (dans Arnold Sommerfeld, Vereinfachte Ableitung des Thomas-Faktor, Couveyno di Fisica nucleare, p. 137, Rome, 1931).


VII. Sur la Chimie physique et la Radioactivité.

  • 49. Sur la comparaison des molécules gazeuses et dissoutes (C. R., t. 154, p. 594, 1912. Procès-verbaux des communications de la Société française de Physique, p. 54, 19 avril 1912).
  • 50. L'interprétation cinétique de la pression osmotique (Journal de Chimie physique, t. 10, p. 524 et p. 527, 1912).
  • 51. Remarques au sujet des communications de M. Fouard (Procès-verbaux des communications de la Société française de Physique, p. 84, 1er décembre 1911 et p. 42, 4 avril 1913).
  • 52. Remarques au sujet de la communication de M. Wertenstein (Procès-verbaux des communications de la Société française de Physique, p. 34, 7 mars 1913).
  • 53. Sur un problème d'activation par diffusion (Journal de Physique, série 7, t. 5, p. 57, 1931).


VIII. — Grandeurs et unités.

  • 54. Notions géométriques fondamentales (Encyclopédie des Sciences mathématiques, t. 4, 5ème volume, 1er fascicule, p. 1, 1912).
  • 55. Sur les grandeurs champ et induction (Procès-verbaux des communications à la Société française de Physique, p. 77, 2 décembre 1921).
  • 56. Sur la nature des grandeurs et le choix d'un système d'unités (Bulletin de la Société française de Physique, p. 9, 20 janvier 1922).
  • 57. Sur les unités de champ et d'induction (Bulletin de la Société française de Physique, p. 33, 17 février 1922. — Bulletin de la Société des Électriciens, 4ème série, t. 2, p. 116 et p. 201, 1922).


IX. Sur la mécanique classique et les nouvelles mécaniques.

  • 58. Sur la dynamique de la relativité (Procès-verbaux des communications de la Société française de Physique, p. 97, Strasbourg, 15 décembre, 1921. Exposés et discussions du Centre international de synthèse sur la relativité. Hermann, Paris, 1932).
  • 59. Les nouvelles mécaniques et la chimie (Conférence faite à la réunion internationale de Chimie physique, Paris, 1928, publiée dans L'activation et la structure des molécules, p. 550, Presses Universitaires, Paris, 1929).


X. Sur l'acoustique et les ultrasons.

  • 61. Procédés et appareils pour la production de signaux sous-marins dirigés et pour la localisation à distance d'obstacles sous-marins. (Brevet français numéro 502.913 du 29 mai 1916, en commun avec M. Constantin Chilowsky.)
  • 62. Procédé et appareils d'émission et de réception des ondes élastiques sous-marines à l'aide des propriétés piézoélectriques du quartz. (Brevet français n° 505.703 du 17 septembre 1918.)
  • 63. Note sur l'énergie auditive. (Publications du Centre d'études de Toulon, 25 septembre 1918.)
  • 64. Procédés et appareils pour le sondage et la localisation à distance d'obstacles sous-marins, au moyen d'échos ultrasonores. (Brevet français n° 575.435 du 27 décembre 1923, en commun avec M. C. Florisson.)
  • 65. Émission d'un faisceau d'ondes ultrasonores (en collaboration avec MM. Constantin Chilowsky et Marcel Tournier, Journal de Physique, série 6, t. 4, p. 537, 1923.)
  • 66. Utilisation des phénomènes piézoélectriques pour la mesure de l'intensité des sons en valeur absolue (en collaboration avec M. M. Ishimoto, Journal de Physique, série 6, t. 4, p. 539, 1923.)
  • 67. Procédés et appareils permettant la mesure directe ou l'enregistrement des profondeurs ou des distances en mer par la méthode de l'écho ultrasonore. (Brevet français n° 576.281, du 14 janvier 1924; 1ère addition n° 28.798 du mars 1924; 2° addition n° 29.543 du 16 octobre 1924.)
  • 68. Procédé et appareils pour la mesure par lecture directe de la distance d'un obstacle dans l'air. (Brevet français n° 577.053 du 11 février 1924.
  • 69. Sondage et détection sous-marine par les ultra-sons. (Bulletin de l'Association technique maritime et aéronautique, n°28, p. 407, 1924. Revue hydrographique du Bureau international de Monaco. Vol. 1, n° 2, p. 39, 1924. Recherches et Inventions, 6ème année, no 113, p. 441, 15 avril 1925.)
  • 70. Sondeur ultrasonore. (Recherches et Inventions, 7ème année, n* 132, p. 119, 15 février 1926.)
  • 71. Procédé et dispositions améliorant l'efficacité des projecteurs ultra-sonores (Brevet français n° 622.035, du 27 janvier 1926.)
  • 72. Le phare ultrasonore de Calais. (La Revue maritime, n° 88, p. 481, avril 1927.)
  • 73. A propos de bruits parasites ultrasonores. (Revue hydrographique du Bureau international de Monaco, t. 4, p. 161, 1927.)
  • 74. La production et l'utilisation des ondes ultrasonores. (Conférence faite à la Société des Ingénieurs civils et à lu Société des Électriciens le 9 mars 1928. Procès-verbal de séance de la Société des Ingénieurs civils n° 5, p. 119, 1928. Revue générale de l'Électricité, t. 23, p. 626, 1928.)
  • 75. Sur le mirage ultrasonore. (Communication faite au Congrès de l'Association technique maritime et aéronautique, Paris, juin 1929. Bulletin de l'Association, p. 727, - 1929. Revue hydrographique. Vol. 8, n° 1, p. 150, 1931.)
  • 76. Les ondes ultrasonores et leurs applications. (Bulletin de l' Université de Tiflis, t. 10, 1929.)
  • 77. La directivité en acoustique sous-marine. (Communication faite au Congrès de. l'Association technique maritime et aéronautique, Paris, juin 1931. Bulletin de l'Association, p. 37, 1931.)
  • 78. Les ondes ultra-sonores. (Notes de M. Pierre Biquard.) (Revue d'Acoustique. Vol. 1, p. 93 et p. 315; Vol. 2, p. 288.)


XI. Divers problèmes techniques.

  • 79. Sur la production des étincelles musicales par courant continu (Annales des P. T. T., 5ème année, n° 4,p. 404, 1916.)
  • 80. Utilisation de la détente pour la production des courants d'air de grande vitesse. (Procès-verbaux des communications de la Société française de Physique, p. 21, 20 février 1920.) .
  • 81. Note sur la loi de résistance de l'air. (Mémorial de l'artillerie française, p. 253, 1922.)
  • 82. Note sur les effets balistiques de la détente des gaz de la poudre. (Mémorial de l'artillerie française, p. 3, 1923.)
  • 83. Procédé et appareils permettant la mesure de la puissance transmise par un arbre. (Brevet français n° 659.658 du 19 décembre 1927.)
  • 84. Banc piézoélectrique pour l'équilibrage des rotors. (Brevet français n° 659.871, du 22 décembre 1927.)
  • 85. Procédé et dispositif pour la mesure des variations de pression dans les canalisations d'eau ou autre liquide. (Brevet français, n° 639.151, du 6 août 1927, en commun avec M. R. Hocart.)
  • 86. L'enregistrement des coups de bélier. (Bulletin technique de la Chambre syndicale des entrepreneurs de couverture-plomberie n° 23, p. 81, 1927.)


XII. Enseignement et pédagogie.

  • 87. L'Esprit de l'enseignement scientifique. (Conférence faite au Musée pédagogique, le 18 févier 1904, publiée dans le volume L'enseignement des sciences mathématiques et des sciences physiques, Paris, Imprimerie nationale, 1904).
  • 88. Exposé expérimental des phénomènes fondamentaux de l'électrostatique au moyen de l'électromètre à quadrants. (Conférence faite à la- Société française de Physique, le 21 avril 1911. — Notes par M. J. Villey dans le Journal de Physique, 5ème série, t. 1, p. 460, 1911.)
  • 89. Le théorème de Fermat et la loi du minimum de temps en optique géométrique. (Journal de Physique, Série 6, t. 1, p. 188, 1920.)
  • 92. La réorganisation de l'enseignement public en Chine. (Rapport de la mission d'experts de la Société des Nations, en collaboration avec M. M. C. H. Becker, M. Falski et R. H. Tawney. Institut international de Coopération intellectuelle, Paris, 1932.)
  • 93. Le problème de la culture générale. (Discours d'ouverture du Congrès international d'Éducation nouvelle, Nice, juillet 1932. Full Report of the New Education Fellowship, p. 73, Londres 1933.)

Publications diverses.

  • 99. Les étapes de la pensée scientifique. (Discours d'ouverture du Congrès de l'Association française pour l'avancement des sciences, Constantine, avril 1927. — Compte rendu de la 5 je session, p. 23, Masson, Paris, 1927.)
  • 100. Paul Schützenberger. (Discours prononcé à l'occasion du centenaire de Paul Schützenberger, le 7 novembre 1929.)
  • 101. L'orientation actuelle de la physique. (Conférence faite à l'École normale supérieure en 1930. — Publiée dans L'orientation actuelle des sciences, p. 29. Alcan, Paris, 1930.)
  • 102. La physique au Collège de France. (Conférence faite à l'occasion du 4ème centenaire du Collège de France, publiée dans le Volume du Centenaire, p. 61, 1932.)
  • 103. Ernest Solvay. (Discours prononcé à l'inauguration du monument d'Ernest Solvay, le 16 octobre 1932, à Bruxelles, publié par l'Institut international Solvay.)
  • 107. Ions, électrons, corpuscules , les quantités élémentaires d'électricité (en collaboration avec M. Henri Abraham). Recueil de Mémoires publié par la Société française de Physique. (2 volumes, Gauthier-Villars, Paris, 1905.)
  • 108. La théorie du rayonnement et les quanta (en collaboration avec MM. Louis de Broglie et Maurice de Broglie. (Rapports présentés au premier Conseil Solvay, Bruxelles, 1911 ; Gauthier-Villars, Paris, 1913.)

Conférences sur des sujets variés aux Écoles normales supérieures de Paris, de Sèvres, de Fontenay-aux-Roses, à l' École supérieure des postes et télégraphes, à l' École supérieure d'Électricité, au Conservatoire national des Arts et Métiers, à l' Association française pour l'Avancement des Sciences, à la Société d'encouragement pour l'Industrie nationale, à la Société de Chimie physique, à l' Association philomathique, à l' Association des anciens élèves de l' École de physique et de chimie, etc...


Introduction.


Mes travaux personnels sont de divers ordres, expérimental, théorique et technique. Du côté purement scientifique, je me suis efforcé de contribuer au grand mouvement de recherches et d'idées qui emporte la physique depuis la fin du siècle dernier et qui a si largement enrichi notre connaissance des faits en même temps qu'il nous obligeait à modifier très profondément la structure de notre représentation et à critiquer les notions les plus fondamentales. Pour y situer mes recherches, il me faut rappeler brièvement les deux séries parallèles, l'une plus expérimentale, l'autre plus théorique, dans lesquelles on peut grouper les découvertes de faits et les inventions d'idées dont la physique s'est montrée si riche depuis bientôt quarante ans. De l'ampoule de Crookes, par l'intermédiaire des rayons cathodiques, sont sorties tout d'abord les découvertes des rayons de Röntgen et de l'électron négatif; l'étude de la conductibilité communiquée par les rayons de Röntgen aux gaz qu'ils traversent, de l'ionisation qu'ils y produisent, a rendu possible une analyse très fine du mécanisme corpusculaire du courant, de la structure granulaire des charges électriques, la mesure précise de ce grain d'électricité qui joue un rôle si fondamental dans notre représentation actuelle de la matière et qui se présente en quelque sorte à l'état pur sous une double forme : celle de l'électron négatif, constituant universel des rayons cathodiques et de la matière, identifié en 1897 grâce aux travaux de Jean Perrin et de Joseph John Thomson et celle de l'électron positif découvert voici à peine plus d'un an grâce à l'admirable méthode de condensation de Wilson qui a tant contribué à développer nos connaissances du monde intra-atomique et notre confiance dans les conceptions corpusculaires. Par une double voie, celle de la découverte et de la mesure précise du grain d'électricité et celle de leur diffraction par les réseaux cristallins, les rayons de Röntgen ont permis d'atteindre quantitativement les grandeurs moléculaires, nombre d'atomes ou de molécules présents dans une portion quelconque de matière, masse individuelle et dimensions de ces constituants fondamentaux. Ce sont encore les rayons de Röntgen qui ont provoqué la découverte de la radioactivité et, par cette dernière, celle de la structure nucléaire de l'atome dont l'étude prend une telle importance actuellement et aboutit à la création d'une physique et d'une chimie nouvelles, celles qui concernent les noyaux atomiques et leurs transformations spontanées ou provoquées. Ma contribution dans ce domaine concerne, d'une part, la découverte et l'étude des.rayons secondaires produits par les rayons de Röntgen en rencontrant la matière, d'autre part et surtout l'étude expérimentale et théorique des propriétés des ions dans les gaz par la création de méthodes nouvelles pour la mesure de leurs charges, de leurs mobilités ou de leurs coefficients de recombinaison, par la découverte des gros ions de l'atmosphère, par l'analyse de leur formation à partir des particules en suspension dans l'air et généralement constituées par les résidus d'évaporation de gouttes d'eau, par l'interprétation que ces ions permettent de donner de divers phénomènes météorologiques, en particulier de la formation des nuages et de la discontinuité qui existe entre les couches inférieures et supérieures de ceux-ci. On verra plus loin le détail dé mes recherches : du côté expérimental, j'ai dû, étant donnée la nouveauté du terrain à explorer, imaginer de nouvelles méthodes de mesure, et, pour les mettre en oeuvre, créer de nouveaux appareils ou modifier la technique de l'électrométrie. Il m'a fallu pousser très loin la discussion des conditions expérimentales et la délicatesse des appareils employés à cause de la petitesse des quantités à mesurer, soit dans l'étude des recombinaisons et des mobilités d'ions, soit pour l'examen des gros ions de l'atmosphère. Pour interpréter les propriétés des ions dans les gaz et pouvoir déduire, des mesures qui les concernent, des renseignements sur leur structure, j'ai dû reprendre et perfectionner les méthodes de la théorie cinétique des gaz pour montrer qu'elle permet de construire une excellente image corpusculaire du mécanisme de la conductibilité.

Dans une première série de recherches théoriques, conduites parallèlement à mes expériences sur les gaz conducteurs, j'ai cherché à interpréter ou à prévoir les résultats relatifs à la recombinaison et à la mobilité des ions en me plaçant surtout au point de vue atomistique. L'étude de là conductibilité des gaz est en effet venue apporter à la théorie cinétique des confirmations nouvelles et plus précises que toutes celles obtenues jusqu'alors, et cette théorie permet en retour de représenter les propriétés des ions d'une manière remarquablement intuitive et cohérente. Cet appui mutuel et constant, cette marche parallèle de l'expérience et de la théorie, est un des caractères les plus remarquables du développement récent de la physique ; j'ai tâché d'en tenir compte dans mon propre travail. En même temps que mes recherches de théorie cinétique me permettaient de pénétrer très avant dans le mécanisme des phénomènes de recombinaison entre des ions de signes opposés et de mobilité de ces ions dans les gaz, elles m'ont conduit à résoudre des problèmes plus généraux : en particulier à calculer le coefficient de diffusion l'un dans I autre de deux gaz où les actions mutuelles entre les molécules s'exercent suivant une loi quelconque de la distance, et, du côté chimique, à prévoir pour la première fois les vitesses des réactions où interviennent des ions, parallèlement à la première chaîne de découvertes expérimentales et en liaison constante avec elle, s'est poursuivi le développement des conceptions qui, parties de la théorie électromagnétique sous la forme où l'avait mise Hendrik Antoon Lorentz à la fin du siècle dernier, ont abouti, à travers les deux crises de la relativité et des quanta, à un renouvellement complet des notions les plus fondamentales concernant le temps, l'espace, la mécanique et jusqu'à la représentation corpusculaire elle-même, la structure de la matière et celle du rayonnement. J'ai contribué tout d'abord au développement de la théorie de Lorentz, appelée aujourd'hui classique, où la matière est considérée comme formée de corpuscules électrisés capables d'émettre un rayonnement régi par les lois de Maxwell-Hertz, et ,soumis d'autre part à l'action du rayonnement par l'intermédiaire des champs électrique et magnétique que celui-ci renferme et qui sont supposés distribués de façon continue dans l'espace. J'ai examiné plus complètement qu'on ne l'avait encore fait le mécanisme de l'émission dû rayonnement par des particules électrisées en mouvement et la liaison entre ce rayonnement et l'inertie de la particule dans la mesure où cette inertie peut être liée à l'électrisation. D'autre part, l'étude de la propagation des ondes électromagnétiques à travers la matière m'a permis de développer pour la première fois, sous sa forme électromagnétique, la théorie du bleu du ciel de Lord Rayleigh. J'ai analysé pour la première fois de manière correcte au point de vue de la théorie classique l'action d'un champ magnétique extérieur sur un système d'électrons en mouvement autour d'un centre d'attraction et montré que l'effet du champ électrique produit par induction pendant l'établissement du champ magnétique est de superposer au système initial des mouvements électroniques, sans changer la forme des trajectoires, un mouvement de rotation d'ensemble autour de la direction du champ magnétique avec une vitesse angulaire proportionnelle à l'intensité de celui-ci. Cette rotation fait apparaître dans l'atome un moment magnétique supplémentaire dirigé en sens inverse du champ ; j'ai montré qu'il en résulte une interprétation quantitative du diamagnétisme. De plus, lorsque l'atome ou la molécule possède à l'état normal un moment magnétique résultant, j'ai montré que l'action d'orientation exercée par le champ magnétique extérieur sur ces aimants moléculaires donne lieu à un équilibre statistique entre elle et l'action antagoniste de l'agitation thermique, le résultat étant l'apparition d'une aimantation de la substance conforme aux lois expérimentales du paramagnétisme. J'ai prévu également que l'établissement de cet équilibre ou sa disparition devait s'accompagner de variations thermiques dont M. de Haas vient de tirer parti pour abaisser jusqu'à un quart de degré absolu la limite inférieure des basses températures atteintes jusqu'ici. L'étude des équilibres statistiques entre les actions tendant à orienter les molécules et l'agitation thermique m'a permis de donner, non seulement la théorie du paramagnétisme, mais encore, sous une forme quantitative précise et conforme aux faits, celle des biréfringences électrique et magnétique.

On sait que la crise de la relativité a résulté des efforts nécessaires pour dégager le véritable contenu physique de la théorie électromagnétique, montrer qu'elle est entièrement compatible avec le résultat négatif des expériences, telles que celles de Michelson ou de Trouton et Noble, tentées pour mettre en évidence le mouvement absolu de la Terre. Elle a montré la nécessité de substituer aux notions anciennes de temps et d'espace absolus des notions compatibles avec le fait expérimental de la relativité. J'ai suivi de très près ce mouvement d'idées et me suis efforcé de contribuer à son développement et à sa diffusion, avant le succès définitif qui lui est acquis aujourd'hui. Après que Fitzgerald et Lorentz eurent montré que l'hypothèse de la contraction suffit à rendre compte du résultat négatif de l'expérience de Michelson, j'ai montré qu'il en était de même pour celle de Trouton et Noble, où le problème était mécanique et non pas cinématique comme pour l'expérience de Michelson. J'ai contribué dès le début à éclaircir les notions nouvelles introduites par Albert Einstein en relativité restreinte, en examinant de près les divers aspects du temps relatif au point de vue de ses relations avec la causalité et des conséquences paradoxales auxquelles il donnait lieu, J'ai surtout montré comment, en vertu des principes de conservation de l'énergie et de relativité, la cinématique du temps relatif impose une dynamique nouvelle dont le trait le plus important est l'affirmation de l'inertie de l'énergie, du fait que toute variation d'énergie interne d'un système matériel doit se traduire par une variation proportionnelle de sa masse. J'ai signalé, entre autres conséquences importantes de cette relation, la possibilité qu'elle donne d'interpréter les écarts entre les masses des atomes et les multiples entiers de celle de l'atome d'hydrogène dont nous savons maintenant qu'il produit les autres par polymérisation. Bien plus, ces écarts permettent de calculer l'énergie dégagée pendant cette condensation et d'expliquer par son énormité la grande stabilité de la plupart des atomes complexes. J'ai montré enfin comment la relativité généralisée fournit l'interprétation la plus simple du résultat positif de l'expérience de M. Sagnac sur l'optique des systèmes en rotation. J'ai apporté également diverses contributions à la physique quantique par la solution de divers problèmes concernant l'équilibre entre la matière et le rayonnement et les chocs entre corpuscules matériels ou lumineux. J'ai examiné également la signification des idées sur lesquelles reposent les mécaniques nouvelles et la valeur des conséquences qu'on a cru pouvoir tirer du principe d'indétermination, l'effort que j'ai fait pour fonder solidement la mécanique sur la base des principes de la Physique m'a conduit à réfléchir sur la signification et la portée de ceux-ci, du principe de Carnot, en particulier, et de ses relations avec les conceptions moléculaires. J'ai discuté, de manière générale, l'interprétation statistique du principe à laquelle ces conceptions conduisent et les méthodes générales d'application du calcul des probabilités à la physique, en particulier à l'étude des phénomènes de fluctuation, et des écarts qu'ils représentent à partir des conséquences du principe de Carnot. J'ai pu mettre sous une forme particulièrement simple la théorie du mouvement brownien de translation et résoudre divers autres problèmes de probabilités appliquées. En chimie physique; soit au point de vue thermodynamique, soit au point de vue de la théorie cinétique, j'ai contribué à élucider divers points de la théorie des solutions et donné pour la première fois une véritable théorie cinétique de la pression osmotique.

Je tiens à souligner le fait que, indépendamment des recherches entreprises par mes élèves sous mon influence directe, mes travaux dans les divers domaines ont eu des prolongements importants en déterminant des mouvements d'idées et de recherches. Les méthodes de mesure que j'ai imaginées, les appareils que j'ai construits, les idées que j'ai introduites et les formules que j'ai démontrées au sujet des ions dans les gaz ont été largement utilisés ; la théorie que j'ai donnée du dia et du paramagnétisme a provoqué un nombre considérable de travaux, soit en France sous l'inspiration de M. Pierre Weiss soit à l'étranger. Malgré les bouleversements qu'ont introduits les mécaniques nouvelles, les formules que j'ai obtenues en théorie du magnétisme restent exactes et conservent toute leur valeur. La théorie qu'a donnée M. Debye pour les diélectriques et qui est très largement utilisée pour les déterminations des moments électriques moléculaires, représente l'application immédiate au cas du champ électrique des raisonnements et des formules que j'ai introduits à propos de l'action du champ magnétique. De même, les formules que j'ai données pour représenter les biréfringences électrique et magnétique ont fait l'objet de nombreux travaux en vue de leur vérification expérimentale ou de leur généralisation. Les raisonnements qui m'ont servi en théorie du mouvement brownien sont aujourd'hui appliqués de manière très générale à la solution des problèmes de fluctuation. J'ajoute également que j'ai consacré un très gros effort, par mon enseignement du Collège de France, par de nombreuses communications et publications, pour faire connaître en France, du côté expérimental, comme du côté théorique, le développement des idées nouvelles. La plupart de nos jeunes physiciens actuels ont été mes élèves ; je crois avoir contribué par mon enseignement et par mon exemple à préparer l'éclat dont brille actuellement notre contribution à l'effort commun.

A côté de mes recherches de science pure, je me suis trouvé conduit à résoudre, expérimentalement ou théoriquement, des problèmes techniques très variés pour lesquels l'intervention d'un physicien était nécessaire. Dans ce sens, j'ai pu, grâce à un effort de plusieurs années, créer la technique des ultra-sons et résoudre par l'utilisation des propriétés piézoélectriques du quartz, les problèmes de la signalisation et de la détection sous-marines. L'intérêt que présentait la solution ultra-sonore avait été signalée par Lord Rayleigh, Richardson et Chilowsky ; j'ai pu réaliser sa mise en oeuvre et construire des appareils variés dont l'application la plus importante est celle du sondage continu et de l'enregistrement des profondeurs. L'emploi du quartz m'a permis de résoudre encore d'autres problèmes ; entre autres celui de la mesure de l'intensité des sons dans l'air en valeur absolue, celui de la mesure et de l'enregistrement des pressions dans les conduites d'eau avec toute la rapidité nécessaire pour l'étude des phénomènes transitoires tels que les coups de bélier, l'enregistrement de la pression sanguine, l'enregistrement et la mesure des pressions élevées. J'indique également que le principe introduit par moi, à propos des ultrasons, de la mise en résonance élastique d'un cristal de quartz sous l'action d'un circuit électrique oscillant, a trouvé une application importante et de plus en plus étendue à la stabilisation des fréquences émises par les postes radiophoniques. Je me suis trouvé également conduit à étudier diverses questions d'acoustique appliquée, de balistique, d'électrotechnique et n'y ai porté mon attention qu'en raison de la difficulté des problèmes physiques qu'elles posaient.

J'ai consacré une partie importante de mon temps, surtout depuis une dizaine d'années, aux questions d'éducation et aux problèmes généraux que pose l'organisation de l'enseignement général et technique. J'ai insisté particulièrement sur la nécessité d'incorporer véritablement l'enseignement de Sciences à la culture générale au lieu de l'y juxtaposer. Dans ce but, j'ai préconisé l'introduction du point de vue historique pour réagir contre la manière trop dogmatique et trop utilitaire dont cet enseignement est donné. L'histoire des idées, de leur lente évolution au cours des siècles, me semble particulièrement précieuse pour tirer de l'enseignement scientifique toute la contribution qu'il peut apporter au développement de l'esprit.


Travaux.


I. Sur les rayons de Röntgen et l'ionisation des gaz


1. Les rayons secondaires des rayons de Röntgen

J'ai eu la bonne fortune de commencer ma carrière scientifique dans la période très active qui a suivi la découverte des rayons de Röntgen. Dès l'hiver de 1895-96, j'ai contribué, en collaboration avec Jean Perrin, à élucider le mécanisme de la décharge des corps électrisés par les nouveaux rayons en montrant que, contrairement à ce qui avait lieu dans le cas de l'action photoélectrique sur les charges négatives, il n'était pas nécessaire que les rayons de Röntgen frappent le corps électrisé pour le décharger et qu'il leur suffisait de traverser le gaz environnant dans une région occupée par les lignes de force attachées au corps. Il s'agissait là d'une action nouvelle, d'un « effet gaz » auquel Perrin montra qu'un effet supplémentaire, un « effet métal » s'ajoutait lorsque les rayons, tout en traversant le gaz, venaient en outre rencontrer la surface métallique électrisée. Admis, l'année suivante, parmi les travailleurs du "Cavendish Laboratory" de Cambridge, je me proposai d'étudier la nature exacte de cet « effet métal » et réussis à montrer qu'il était dû, lui aussi, à une action sur le gaz, rendu conducteur par des rayons secondaires qu'émettait le métal sous l'action des rayons primaires incidents (7). Le procédé employé consistait à étudier, par une méthode précise de compensation qui éliminait les variations de l'ampoule génératrice des rayons, la décharge produite entre les plateaux d'un condensateur plan par un faisceau de rayons primaires normal à ces plateaux, et la manière dont variait cette décharge en fonction de la distance entre les plateaux. On pouvait facilement en déduire la contribution apportée au courant de décharge par les diverses tranches du gaz parallèles aux armatures. J'ai pu ainsi établir l'existence d'un rayonnement secondaire et en montrer la nature complexe en étudiant son absorption par le gaz, très rapide dans les premiers millimètres, plus lente ensuite. J'ai étudié également comment varient l'intensité des rayons secondaires et leur absorption, avec la nature du métal frappé, avec la dureté des rayons primaires, avec la nature et la pression du gaz qu'ils traversent, avec la direction de leur émission et avec celle des rayons incidents par rapport à la surface émettrice. Enfin j'ai montré que l'émission de ces rayons est une propriété atomique de la matière, indépendante de son état de combinaison chimique. En même temps que moi, de manière complètement indépendante, et par d'autres procédés, M. Georges Sagnac, travaillant à Paris, reconnaissait aussi l'existence de ces mêmes rayons secondaires.


2. L'ionisation des gaz

Les recherches précédentes m'ont conduit à étudier de près les problèmes qui concernent le passage du courant à travers un gaz placé entre les armatures d'un condensateur et soumis à l'action de rayons qui le rendent conducteur. Ces problèmes se posaient de manière particulièrement précise grâce aux résultats des recherches poursuivies parallèlement aux miennes par les physiciens du "Cavendish Laboratory" et qui précisaient l'interprétation du passage du courant à travers les gaz par la présence d'ions, produits par le passage des rayons, capables de se déplacer sous l'action d'un champ électrique dans un sens déterminé par le signe de leur charge, de se recombiner entre ions de signes contraires et de diffuser dans le gaz sous l'influence de l'agitation thermique. Encouragé par la manière particulièrement élégante et simple dont j'avais pu résoudre le problème relatif au condensateur plan dans les conditions où j'employais celui-ci pour l'étude des rayons secondaires, je me suis trouvé conduit à utiliser cette solution, et celles que j'ai pu obtenir de problèmes analogues, pour vérifier expérimentalement, dans des conditions aussi variées que possible, les lois qui concernent la mobilité, la recombinaison et la diffusion des ions, pour mesurer les coefficients introduits par ces lois et pour en discuter les valeurs au point de vue de la théorie cinétique. Les premières de ces recherches ont fait l'objet de ma thèse, soutenue en 1902 et dans laquelle j'ai donné, à propos de mes travaux personnels, le premier exposé d'ensemble, au point de vue expérimental comme au point de vue théorique, des propriétés des ions dans les gaz.


3. Les mobilités des ions

Je rappellerai plus loin ma contribution à la théorie du déplacement des ions par diffusion ou par mobilité sous l'action d'un champ électrique. Cette théorie prévoit que, dans de larges limites de variation de l'intensité du champ et de la pression du gaz, un ion de constitution et de charge électrique déterminées doit se mouvoir, à travers un milieu composé de molécules uniformément réparties, avec une vitesse moyenne proportionnelle à l'intensité du champ. Pour vérifier cette loi et pour mesurer les coefficients de proportionnalité correspondants ou mobilités, j'ai utilisé une méthode nouvelle dérivée de celle que j'avais employée pour l'étude des rayons secondaires et qui consistait à mesurer la quantité d'électricité recueillie sur les armatures d'un condensateur plan chargé chaque fois que le gaz placé entre ces armatures est traversé par le rayonnement Röntgen de très courte durée que produit une seule interruption du primaire de la bobine de Ruhmkorff alimentant l'ampoule génératrice. Si, au lieu de maintenir constant le sens du champ électrique entre les armatures du condensateur pendant toute la durée du déplacement des ions vers ces armatures, on inverse brusquement le sens de ce champ un certain temps après le passage des rayons, obligeant ainsi à rebrousser chemin les ions qui sont en route vers chacune des armatures, la quantité d'électricité recueillie varie en fonction de cet intervalle de temps ; l'étude de cette variation permet de déterminer de manière précise le temps nécessaire aux ions de chaque signe pour parcourir la distance entre les plateaux du condensateur et par conséquent d'en déduire leur mobilité. Cette méthode présente l'avantage, sur celle des courants gazeux alors en usage, de n'employer qu'une faible quantité de gaz et d'en faire varier facilement les conditions de pression et de température. Elle a été reprise par divers auteurs, en particulier par M. Wellisch pour ses recherches sur la mobilité des ions dans les mélanges gazeux et par M. Phillips pour étudier l'influence de la température. Les résultats que j'ai obtenus concernent plus particulièrement l'influence de la pression où se manifeste, de manière très nette, la dissymétrie entre les ions positifs et les ions négatifs dans un même gaz ; alors que, pour les premiers, conformément à ce que prévoit la théorie cinétique pour un ion de structure fixe, la mobilité varie en raison inverse de la pression du gaz, j'ai montré, pour la première fois, que, lorsque la pression s'abaisse au-dessous de quelques centimètres de mercure, la mobilité des ions négatifs augmente plus vite que l'inverse de la pression, rendant par là probable que, même à la température ordinaire, ces ions négatifs existent à l'état d'électrons libres pendant une partie appréciable du temps. Ces résultats ont été confirmés par les recherches ultérieures de divers auteurs et facilitent l'interprétation de la grande conductibilité révélée dans la haute atmosphère par la manière dont s'y propagent les ondes hertziennes.


4. Le coefficient de recombinaison

Conformément à la loi d'action de masse, l'expérience confirme que des ions de signes contraires se recombinent proportionnellement au produit de leurs concentrations. J'ai pu établir et appliquer une méthode nouvelle pour la mesure du coefficient correspondant, u, en utilisant le résultat très simple du problème qui s'était posé à moi à propos des rayons secondaires. Le gaz intérieur à un condensateur plan étant soumis pendant un temps très court à l'action d'un rayonnement ionisant, j'ai pu montrer que la manière dont varie la quantité d'électricité recueillie par les armatures en fonction de la différence de potentiel établie entre celles-ci, ne fait inter-venir les propriétés du gaz et des ions qu'il renferme, que par l'intermédiaire de la seule quantité, purement numérique:

epsilon = [(K*alpha)/(4*Pi*(k(1)+k(2)))],

où K est la constante diélectrique du gaz, alpha le coefficient de recombinaison, k(1) et k(2) les mobilités des ions positifs et négatifs. Il se produit, en outre, le fait remarquable que cette loi de variation est complètement indépendante de la manière dont l'ionisation du gaz varie d'un point à l'autre en fonction de la distance aux armatures du condensateur et, en particulier, de l'absorption plus ou moins rapide dans le gaz des rayons secondaires émis par ces armatures. Après avoir vérifié expérimentalement la forme ainsi prévue pour la courbe de saturation, j'ai pu en déduire une méthode simple et sûre pour la mesure de la quantité epsilon et par suite pour obtenir le coefficient de recombinaison des ions quand les mobilités sont connues. La constance des résultats obtenus quand on fait varier dans de larges limites l'intensité des rayons ionisants et par suite la concentration des ions, et leur concordance avec ceux que fournissent les autres méthodes de mesure du coefficient de recombinaison apportent une vérification expérimentale complète de la loi d'action de masse appliquée aux ions. Un des principaux résultats de mes recherches concerne la variation du coefficient de recombinaison avec la pression. Conformément aux prévisions théoriques que je rappellerai plus loin, le rapport epsilon et, en même temps que lui, le coefficient alpha, diminuent très rapidement aux faibles pressions. Il en résulte une faible recombinaison des ions dans la haute atmosphère et par suite une forte concentration d'équilibre de ceux-ci sous l'action ionisante des rayons ultraviolets ou cathodiques solaires. La conductibilité étant proportionnelle au produit de cette concentration par la somme des mobilités, il résulte de mes recherches que l'augmentation rapide de ces deux facteurs aux basses pressions permet d'expliquer l'existence de la couche d' Heaviside. En outre, la petitesse du coefficient de recombinaison permet de comprendre la persistance nocturne de la conductibilité, le temps nécessaire à la disparition de celle-ci après la cessation de l'action ionisante étant inversement proportionnel au coefficient de recombinaison. Aux pressions plus élevées, le coefficient alpha, qui varie d'abord proportionnellement à la pression, passe par un maximum et décroît ensuite lorsque la pression croît et tend à devenir inversement proportionnel à celle-ci. Ces résultats, d'apparence complexe, s'éclairent, comme on le verra, par l'interprétation théorique que j'ai pu donner du rapport epsilon.


5. Recombinaison et diffusion

Des divergences importantes entre mes résultats concernant la variation du coefficient de recombinaison avec la pression et ceux d'autres expérimentateurs tels que M. Mac Clung et Retschinsky m'ont conduit à examiner de près l'influence, dans ces mesures, de la diffusion des ions, d'une part, et de leur répartition dans le gaz, d'autre part, M. Mac Clung obtenait, aux pressions inférieures à celle de l'atmosphère un coefficient alpha sensiblement constant. J'ai pu montrer, en traitant de manière complète au point de vue théorique (11) le problème de la distribution des charges dans un gaz placé entre plateaux parallèles et soumis à l'action d'un rayonnement constant, que ces charges disparaissent à la fois par recombinaison dans la masse du gaz et par diffusion vers les plateaux qui les absorbent, cette dernière cause pouvant devenir aux basses pressions beaucoup plus importante que la première dans un rapport qui augmente à mesure que la pression diminue et qui pouvait aller jusqu'à dix dans les conditions où opérait M. Mac Clung, expliquant ainsi de manière complète les divergences entre les résultats de cet auteur et les miens.


6. La recombinaison initiale et l'ionisation en colonnes

La cause qui faussait les résultats de M. Retschinsky était toute différente et se rattachait aux phénomènes de recombinaison initiale invoqués par M. Bragg pour interpréter l'allure particulière présentée par le phénomène de recombinaison lorsque le gaz est ionisé par des rayons alpha, comme c'était le cas dans les expériences de M. Retschinsky. M. Bragg avait constaté que, à égale ionisation moyenne du gaz, il est beaucoup plus difficile d'obtenir la saturation, d'extraire, par un champ suffisamment intense, la totalité des ions produits lorsque ceux-ci sont dus au passage dans le gaz de rayons alpha au lieu de rayons de Röntgen ou de rayons beta ou gamma. Il supposait, dans le cas des rayons u un phénomène particulier de recombinaison initiale. J'ai pu montrer que la loi générale d'action de masse suffit à expliquer la différence si l'on tient compte de la manière dont les ions sont distribués dans le gaz au moment de leur production. On savait, et les expériences de condensation de C.T.R. Wilson le montraient avec une très grande netteté, que cette production se fait avec une densité beaucoup plus grande sur les trajectoires des rayons alpha que sur celles des rayons beta ou des rayons cathodiques secondaires par l'intermédiaire desquels les rayons de Röntgen ou les rayons gamma ionisent le gaz en agissant photo-électriquement sur un nombre insignifiant de molécules par rapport à celui des ions produits. Avant que la diffusion ou l'action du champ permettent aux ions de se répartir dans le gaz de manière plus uniforme, leur concentration, et par conséquent leur vitesse de recombinaison est particulièrement grande à l'intérieur des colonnes d'ions produites par les particules alpha. En appliquant la loi de recombinaison comme si la production des ions était répartie de manière uniforme, on doit obtenir un coefficient trop élevé, comme c'était le cas pour M. Retschinsky, et, d'autre part, un champ particulièrement intense est nécessaire pour séparer assez rapidement les ions des deux signes présents dans ces colonnes, si l'on veut obtenir la saturation et rendre insignifiant l'effet de la forte concentration locale initiale, proportionnellement au carré de laquelle se produit la recombinaison conformément à la loi d'action de masse. Pour soumettre cette interprétation au contrôle de l'expérience, j'ai pensé que, pour obtenir la séparation rapide des ions de signes contraires présents dans les colonnes, un champ électrique perpendiculaire à la direction de celles-ci serait beaucoup plus efficace qu'un champ parallèle à cette direction, et par conséquent que la saturation s'obtiendrait plus rapidement, dans un gaz ionisé par des rayons u, par un champ perpendiculaire à la direction de ces rayons que par un champ parallèle. L'application simultanée des lois de mobilité, de recombinaison et de diffusion me permettait d'ailleurs de prévoir l'aspect quantitatif de cette différence. L'expérience, réalisée par M. Marcel Moulin est venue confirmer entièrement ces prévisions.


7. Le rapport epsilon.

J'ai dit plus haut comment la solution d'un problème d'ionisation dans un condensateur plan m'avait conduit à une méthode directe de mesure du rapport epsilon. Des considérations très simples de théorie cinétique m'ont permis de prévoir que ce rapport devait nécessairement être inférieur à l'unité 'et tendre vers cette valeur à mesure qu'augmente la densité et par conséquent la pression du gaz. La recombinaison entre des ions de signes opposés étant évidemment liée à l'attraction électrostatique entre leurs charges, j'ai été conduit à étudier le mouvement qui en résulte pour les ions d'un signe par rapport à ceux du signe opposé et à montrer que l'influence de cette attraction sur le mouvement relatif de deux ions de signes contraires voisins est déterminé par la somme k(1)+k(2), de leurs mobilités, de même que leur diffusion relative est déterminée par la somme de leurs coefficients respectifs de diffusion dans le gaz. Il est facile de montrer que, si la répartition initiale des ions d'un signe par rapport à ceux de l'autre signe est uniforme, et si le rapport epsilon est égal à l'unité, cette répartition relative reste uniforme, la quantité recombinée étant égale au flux d'ions d'un signe amené par attraction électrostatique vers les ions de l'autre signe les plus voisins, le nombre de recombinaisons étant égal à ce que j'appelle le nombre de collisions entre des ions de signes contraires. Il ne peut d'ailleurs lui être supérieur. Lorsqu'il lui est inférieur, un régime s'établit où la diffusion intervient et où la concentration des ions d'un signe autour de ceux du signe opposé va en diminuant à mesure qu'on s'écarte de ces derniers. L'expérience est venue confirmer entièrement cette prévision théorique que le rapport epsilon doit être toujours inférieur à l'unité et tendre vers cette limite quand la mobilité des charges diminue. La méthode du condensateur plan m'a donné pour epsilon des valeurs variant depuis 0,01 jusqu'à 0,90 pour l'air et 0,95 pour le gaz carbonique quand la pression passe de 0,2 à 5 atmosphères. Une méthode de courant gazeux, dérivée de la précédente et qui permet de mesurer epsilon dans un condensateur cylindrique m'a donné, en collaboration avec M. Eugène Bloch (9), dans le cas des gaz conducteurs issus d'une flamme, une valeur de epsilon égale à 0,7, conformément encore aux prévisions de la théorie. Je crois devoir rappeler, d'autre part, que M. G. Moreau, en mesurant séparément le coefficient de recombinaison et les mobilités dans le cas des gaz rendus conducteurs par la vaporisation de sels alcalins, a obtenu dans tous les cas, pour epsilon, des valeurs extrêmement voisines de l'unité. M. G. Jaffé, travaillant à Leipzig sur le cas de l'hexane liquide rendu conducteur par les rayons de Röntgen a également obtenu pour epsilon des valeurs conformes aux prévisions de la théorie. J'ai pu, enfin, établir une méthode entièrement différente de celles qui précèdent, dans le cas des diélectriques solides ou liquides que les rayons de Röntgen ou ceux des corps radioactifs rendent aussi conducteurs (14). On peut montrer, en effet, que lorsqu'un diélectrique a été soumis à l'action d'un rayonnement, la manière dont disparaît avec le temps la conductibilité acquise dépend uniquement encore du rapport epsilon ; on peut déduire de là un procédé très simple pour la mesure de ce rapport et constater que son application à tous les diélectriques homogènes fournit pour epsilon des valeurs très voisines de l'unité et toujours inférieures à celle-ci. Lorsque l'isolant solide n'est pas homogène mais composé, comme c'est le cas pour le soufre ordinaire ou pour la paraffine, de grains juxtaposés, la conductibilité spontanée ou acquise par ces grains sous l'action d'un rayonnement donne lieu, en présence d'un champ, à des accumulations de charges sur les surfaces des intervalles isolants qui séparent ces grains. L'application des théories précédentes a permis à M. Jean Langevin d'interpréter quantitativement les phénomènes de pénétration de charges qui résultent de ce mécanisme dans le cas des diélectriques solides hétérogènes. Les mobilités et les coefficients de recombinaison sont cependant extrêmement différents ici de ce qu'ils sont dans les gaz, de l'ordre de un millier de fois plus faibles. On verra plus loin que j'ai pu également faire une application de tette théorie au problème de la formation des gros ions dans les gaz par diffusion des ions ordinaires vers les particules en suspension.


8. Les vitesses de réaction et la conductibilité des électrolytes

Les raisonnements de la théorie précédente s'appliquent en tous points à la recombinaison des ions dans les électrolytes, au moins quand ceux-ci sont suffisamment dilués pour que la recombinaison entre deux ions de signes contraires ne soit pas troublée par la présence des autres ions. Ces dilutions sont de l'ordre de celles pour lesquelles la loi d'action de masse commence à s'appliquer dans les électrolytes (concentrations inférieures au dix-millième normal). La viscosité du milieu étant suffisante pour que le rapport epsilon puisse y être admis très voisin de l'unité, la connaissance des mobilités des ions permet de calculer à priori le coefficient de recombinaison alpha et par suite la vitesse de réaction entre les ions électrolytiques. Le calcul effectué fait prévoir une grande rapidité de réaction ; pour des concentrations dix-millième normales des deux espèces d'ions, on prévoit que l'établissement de l'équilibre entre ces ions et les molécules neutres résultant de leur recombinaison doit se faire en un temps de l'ordre du dix-millième de seconde. Ainsi s'explique l'extrême rapidité des réactions où interviennent des ions électrolytiques. J'ai obtenu, de plus, des indications qualitatives d'accord avec les faits en cherchant à prolonger la théorie dans le cas où les ions sont assez nombreux pour que la recombinaison de deux ions soit gênée par les ions voisins, espérant ainsi rendre compte des écarts à partir de la loi d'action de masse qu'on observe dans les phénomènes de dissociation électrolytique. Des considérations analogues ont été reprises quinze ans plus tard par MM. Debye et Huckel, dans l'hypothèse d'un coefficient de recombinaison nul, c'est-à-dire d'une dissociation électrolytique complète, pour étudier la distribution d'équilibre des ions d'un signe par rapport à ceux du signe opposé, soit en l'absence, soit en présence d'un champ électrique extérieur, dans le but d'en déduire la variation des mobilités des ions et par conséquent de la conductibilité des électrolytes en fonction de la concentration. On sait que leurs résultats sont à la base de toute la théorie moderne des électrolytes.


9. Variation de epsilon avec la pression

En admettant que la condition nécessaire et suffisante pour que la recombinaison entre deux ions de signes contraires puisse avoir lieu est que leurs centres passent, dans leur mouvement relatif, à une distance l'un de l'autre inférieure à une limite donnée, j'ai pu (8) prévoir que, pour des ions de structure fixe, le rapport epsilon doit varier, à faible pression, proportionnellement au carré de celle-ci et, par conséquent, les mobilités étant, sous cette même condition de structure fixe, inversement proportionnelles à la pression, le coefficient de recombinaison doit varier proportionnellement à cette pression. Nous avons vu que ceci correspond bien à l'allure générale des variations expérimentales.


10. La charge et la valence des ions

J'ai pu, par des voies diverses, obtenir une mesure de la charge individuelle des ions dans les gaz ou de leur valence, c'est-à-dire du rapport de cette charge à celle d'un ion monovalent dans l'électrolyse. Tout d'abord, j'ai pu, par des raisonnements de thermodynamique, montrer que la sursaturation minimum reconnue nécessaire par C.T.R. Wilson pour permettre la condensation de la vapeur d'eau sur un ion et la formation d'une goutte, permet d'évaluer approximativement la charge portée par cet ion. Ce calcul (25) conduit à la valeur 5 X 10^(-10) unité électrostatique C.G.S., très voisine, par conséquent, de la valeur 4,77 que fournit la mesure directe par la méthode de Townsend, Joseph John Thomson et Millikan. D'autre part, M. Townsend a montré que la connaissance du quotient de la mobilité par le coefficient de diffusion d'un ion donne immédiatement la valence de celui-ci. Au lieu de mesurer séparément les deux termes de ce quotient, j'ai pu atteindre directement celui-ci en étudiant la variation du courant en fonction de la différence de potentiel, c'est-à-dire la courbe de saturation d'un condensateur plan entre les armatures duquel le gaz est ionisé de manière permanente par un rayonnement passant à travers les armatures, rayons de Röntgen ou rayons gamma. Lorsque la distance entre les armatures est assez petite pour que les effets de diffusion l'emportent de beaucoup sur ceux de recombinaison dans la disparition des ions, une méthode convenable d'approximations successives appliquée aux équations différentielles qui régissent le phénomène m'a permis de montrer (15) que la forme de la courbe de saturation dépend uniquement du rapport k/D — c'est-à-dire de la valence des ions. Cette méthode de détermination directe de la valence a été appliquée par M. E. Salles avec le résultat que les ions produits dans les gaz ordinaires par les divers rayonnements sont en général monovalents. La méthode d'approximation que j'ai introduite dans ce travail et qui consiste à développer les solutions des équations différentielles, suivant les puissances du nombre d'ions produits par le rayonnement extérieur dans l'unité de volume du gaz, a été reprise et utilisée par divers auteurs, M. Max Reinganum, en particulier, pour traiter des problèmes analogues.


11. La nature des ions

J'ai cherché, par divers procédés à étudier la manière dont sont constituées les particules électrisées que représentent les ions dans le gaz et j'ai pu, non seulement confirmer l'idée qu'ils sont formés par une agglomération d'un certain nombre, variable avec la température, de molécules maintenues par attraction électrostatique autour d'un électron ou d'une molécule chargée, mais encore déterminer l'importance de ces agglomérations. J'ai, tout d'abord (6), cherché quelle est l'attraction d'un centre électrisé sur une molécule voisine assimilée à une sphère diélectrique et résolu, pour la première fois, le problème correspondant d'électrostatique. Le résultat montre que cette attraction peut, à la température ordinaire, fournir un travail très notablement supérieur à l'énergie moyenne d'agitation thermique pour une molécule et, par conséquent, que l'association de plusieurs molécules autour du centre doit être stable dans ces conditions. De plus, la solution que j'ai pu donner en théorie cinétique du problème de la diffusion ou de la mobilité d'un ion dans un gaz permet (21), en tenant compte de l'attraction précédente, de calculer le rayon de la sphère équivalente à l'ion dans ses chocs contre les molécules du gaz. On obtient ainsi, à la température ordinaire, pour l'ion négatif un rayon double et pour l'ion positif un rayon triple de celui de la molécule du gaz. Aux températures élevées, dans les flammes, par exemple, les mêmes formules montrent que les ions négatifs, très rapides, sont constitués par des électrons libres et que les positifs, beaucoup plus lents, ont la dimension des atomes.


12. Les courbes de saturation

En dehors des cas particuliers de courants d'ionisation dans le condensateur plan, qui m'ont permis la mesure du rapport epsilon ou de la valence des ions, j'ai traité (6) des cas plus généraux de régime variable ou de régime permanent en tenant compte des écarts à la distribution uniforme du champ électrique qui résultent de la présence dans le gaz des charges portées par les ions. J'ai pu, par un changement de variables qui met les équations sous forme réduite où n'interviennent que des quantités sans dimensions, montrer le rôle très général que joue, dans tous ces problèmes, le rapport epsilon soit seul pour caractériser les propriétés des gaz, soit associé au rapport k(1)/k(2) entre les mobilités des ions positifs et négatifs. La forme de la courbe de saturation et la loi de distribution du champ entre les plateaux, pour un gaz soumis à une action ionisante uniforme et constante à l'intérieur d'un condensateur plan, en ce qui concerne le régime permanent, ne dépendent du gaz que par l'intermédiaire de ces deux constantes. Dans le cas où les mobilités k(1) et k(2) sont égales, j'ai étudié dans le détail la manière dont varie avec epsilon la forme des courbes de saturation et de répartition du champ, et montré, en particulier, que si epsilon est petit, les courbes de saturation sont, à leur début, des paraboles dont la mesure du paramètre permet le calcul du nombre epsilon.


13. La technique électrométrique

Dans la mise en oeuvre des diverses méthodes qui viennent d'être rappelées, j'ai rencontré des difficultés expérimentales considérables tenant à la petitesse des quantités d'électricité à mesurer et à l'insuffisante sensibilité des électromètres dont disposaient les physiciens il y a vingt ou trente ans. j'ai dû perfectionner la technique, employer des procédés électro-métriques particuliers à chaque méthode de mesure, réaliser des condensateurs à capacité variable pour augmenter la sensibilité dans la mesure des charges, remplacer la mesure de déviations par celle d'impulsions et reprendre à ce sujet (6) la théorie de l'électromètre à quadrants pour interpréter les variations observées de l'amortissement avec la capacité reliée à l'électromètre transformé en instrument de mesure balistique de précision. D'autre part, l'emploi constant de méthodes différentielles m'a permis d'éliminer complètement les variations inévitables dans l'intensité des rayons de Röntgen émis par un tube de Crookes dans les décharges successives. D'autres problèmes d'électrométrie ont dû être résolus, soit à propos des recherches sur les ions de l'atmosphère dont il va être question, soit à propos de la présentation des diverses méthodes de mesure et des résultats concernant les ions à laquelle j'ai consacré les premières années de mon enseignement au Collège de France. j'ai tiré de cet effort considérable la conviction, exprimée et démontrée expérimentalement au cours d'une conférence faite en 1911 devant la Société française de Physique (88), que l'électromètre peut rendre les plus grands services dans l'enseignement, même élémentaire, de l'électrostatique et dans l'établissement des lois expérimentales de cette partie de la Science, tellement fondamentale et si injustement négligée aujourd'hui.


II. Sur les ions de l'atmosphère et les particules en suspension


1. La conductibilité de l'atmosphère

Depuis les expériences d' Elster et Geitel et de C.T.R. Wilson, on sait que l'atmosphère possède en permanence une faible conductibilité due, en grande partie, à la présence dans le sol et dans l'air lui-même de très petites quantités de substances radioactives, due aussi, pour une moindre part, à faible altitude, à l'action ionisante du rayonnement cosmique. Cette conductibilité joue un rôle important en météorologie; tout d'abord, par les courants qui en résultent sous l'action du champ électrique terrestre et qui viennent constamment modifier la charge électrique du sol, puis surtout par son rôle dans la formation des nuages et de la pluie, puisque les gaz rendus conducteurs de l'électricité prennent en même temps la propriété, en l'absence de poussières ou autres particules en suspension, de faciliter la condensation en gouttelettes de la vapeur d'eau sursaturante. Chaque ion, positif ou négatif peut servir de germe à la formation d'une goutte d'eau. Je me suis proposé, tout d'abord, pour opérer à Paris dans un air aussi pur que possible, d'entreprendre au sommet de la Tour Eiffel, de jour et de nuit, une étude systématique des variations que présentent les charges électriques libres dans l'atmosphère ; j'employais dans ce but un appareil analogue à celui décrit par M. Ebert. Un volume déterminé d'air passe dans un condensateur cylindrique chargé, dont l'armature intérieure communique avec un électroscope ; les ions qui portent les charges libres d'un certain signe sont amenés par le champ vers cette armature et déchargent l'électroscope.


2. Les gros ions

L'étude de ce procédé de mesure, reprise au laboratoire, m'a montré qu'il est en réalité extrêmement difficile d'extraire de l'air atmosphérique tous les ions qu'il renferme. Une partie de ces ions, de beaucoup la plus considérable parfois, se meut avec une extrême lenteur sous l'action du champ électrique et passe inaperçue avec les procédés ordinaires de mesure. J'ai montré (16) qu'en utilisant un condensateur cylindrique approprié, où circule un courant d'air de vitesse constante, il est possible de déduire, de la variation du courant obtenu en fonction de la différence de potentiel entre les armatures, la manière dont se répartissent les ions présents entre les diverses mobilités. Le résultat, assez inattendu, m'a montré que les ions de l'atmosphère se répartissent de manière très nette en deux catégories, les ions ordinaires produits directement sous l'action des rayonnements et, sans aucun intermédiaire, des ions plusieurs milliers de fois plus lents auxquels j'ai donné le nom de gros ions. Les mobilités de ces ions sont tout à fait du même ordre que celles observées antérieurement, par M. Townsend dans les gaz dégagés par certaines réactions chimiques, ou par Eugène Bloch dans les fumées qui résultent de l'oxydation du phosphore blanc au contact de l'air. Après avoir constaté que les gros ions sont toujours présents dans l'air prélevé à diverses altitudes, en nombre qui peut aller, au niveau du sol, jusqu'à cinquante fois ou plus celui des ions ordinaires, j'ai cherché à expliquer leur origine et déduit de leur existence diverses conséquences d'ordre expérimental et météorologique (17), (19), (20).


3. Origine et nature des gros ions

L'air atmosphérique contient normalement, au moins jusqu'à une altitude de l'ordre du kilomètre au-dessus du sol, des particules en suspension, poussières ou résidus d'évaporation de gouttes d'eau, que l'on peut dénombrer par la méthode d' Aitken en profitant de ce qu'elles servent de germes à la formation de gouttes, dès que la vapeur d'eau devient sursaturante par dé-tente, et peuvent être comptées par numération des gouttes que contient le brouillard ainsi formé. Si le brouillard s'évapore dans l'air réchauffé, les germes subsistent. Leur nombre dans l'air normal varie autour de 100.000 par centimètre cube. La mobilité des gros ions, voisine, pour la plupart d'entre eux, de un trois centième de millimètre par seconde dans un champ d'un volt par centimètre, permet, par application de la formule de Stokes, de calculer le rayon de ces particules assimilées à des sphères. On trouve un rayon de l'ordre du centième de micron, tout à fait conforme à celui que la théorie m'a permis de prévoir pour une gouttelette d'eau en équilibre avec une atmosphère non saturée. Cette théorie donnée, ainsi que bien d'autres, dans mon enseignement du Collège de France a été reproduite par MM. Eugène Bloch et H. Henriet dans leurs thèses de doctorat. Elle permet de comprendre qu'il n'existe pas d'intermédiaire entre les ions ordinaires et les gros ions résultant de la charge des gouttelettes précédentes. Si, en effet, des ions ordinaires sont produits dans l'air contenant en suspension de semblables particules, une attraction due à l'influence électrique s'exerce, qui tend à fixer les ions sur les particules et à transformer celles-ci en centres électrisés de faible mobilité : ce sont les gros ions. Ceux d'un certain signe attirent les ions ordinaires du signe opposé et se recombinent avec eux pour reconstituer des particules neutres. La recombinaison entre gros ions de signes opposés est d'ailleurs négligeable en raison de leur très faible mobilité. Si le rayonnement générateur d'ions ordinaire agit de manière constante, un équilibre s'établit entre ces divers processus et j'en ai pu développer la théorie, en admettant que le rapport epsilon correspondant à la recombinaison entre petits et gros ions est égal à l'unité. Dans le cas où les ions ordinaires des deux signes sont produits en nombres égaux, comme c'est le cas sous l'action d'un rayonnement, les résultats suivants très simples sont obtenus :

  • 1) Une proportion déterminée des particules en suspension, calculable à partir des mobilités et indépendante de la concentration des ions ordinaires, reste à l'état neutre, le reste est transformé en gros ions des deux signes avec une répartition également déterminée.
  • 2) Pour une production déterminée d'ions ordinaires, le nombre de ceux qui sont présents dans l'état d'équilibre, et, par conséquent, la conductibilité de l'air, qui leur est à peu près exclusivement due, en raison de leur grande mobilité, varie en sens inverse du nombre des particules en suspension.

C'est par une application de la théorie précédente que M. Millikan a pu transformer en particules électrisés des gouttelettes d'huile introduites dans un gaz rendu conducteur par des rayons de Röntgen. On sait le parti qu'il en a tiré dans ses belles expériences sur la mesure de la charge élémentaire. En examinant des fumées à l'ultramicroscope et en les soumettant à l'action d'un champ électrique, M. Maurice de Broglie a pu vérifier qualitativement et quantitativement les conséquences précédentes. Il a pu constater la présence de particules de fumée positives, négatives et neutres, en proportions indépendantes de l'intensité du rayonnement ionisant auquel est soumis le gaz qui les renferme, et conformes aux valeurs déduites des mobilités La seconde des conséquences ci-dessus permet de comprendre pourquoi la conductibilité de l'air diminue quand le nombre des particules en suspension augmente, par temps de brume, par exemple. Dans une série de travaux récents, M. Mac Laughlin a pu vérifier de manière précise les relations prévues entre les nombres d'ions de diverses sortes de particules présentes dans l'atmosphère de Paris.


4. La numération des particules et le dépoussiérage

L'équilibre dont il vient d'être question, et qui s'établit normalement dans l'atmosphère, concerne le cas où des ions ordinaires des deux signes sont produits en nombre égal sous l'action d'un rayonnement. S'il n'existe, au contraire, que des ions d'un seul signe, comme c'est le cas au voisinage d'une lame métallique soumise à l'action photoélectrique, ou au voisinage d'aigrettes, toutes les particules en suspension sont transformées en gros ions de ce même signe. Le fait que les gouttes d'huile observées par M. Millikan ne portaient en général qu'une charge monovalente rend très peu probable qu'une gouttelette d' Aitken, beaucoup plus petite, puisse s'attacher plus d'un ion ordinaire ; il est facile de prévoir d'ailleurs que la répulsion électrostatique l'empêchera de s'en attacher un second. En mesurant la charge totale prise, dans ces conditions, par un volume déterminé d'air et en la divisant par la charge élémentaire, j'ai pu en déduire le nombre des particules en suspension, par une méthode plus simple que celle de la numération des gouttes de brouillard d' Aitken condensées sur les particules ultra-microscopiques en suspension. j'ai pu m'assurer d'ailleurs crue :es deux méthodes conduisent à des résultats concordants. Les particules ou poussières en suspension, transformées en gros ions d'un même signe au voisinage d'une aigrette, peuvent être recueillies par une électrode dans un champ suffisamment intense. C'est le principe même du procédé Cottrell pour le dépoussiérage, qui représente une importante application de mes travaux sur la formation des gros ions.


5.L'effet photoélectrique sur l'air

En cherchant à charger du même signe toutes les particules en suspension dans l'air par passage de celui-ci au voisinage d'une lame de zinc chargée négativement et frappée par la lumière ultraviolette d'un arc électrique, j'ai été conduit à interpréter autrement que M. Lenard certains résultats obtenus par ce physicien (17), (19). Il a constaté que l'action directe sur l'air des rayons ultraviolets y produit une conductibilité très particulière dans laquelle les ions négatifs ont la mobilité des ions ordinaires, tandis que les charges positives se meuvent beaucoup plus lentement. J'ai retrouvé ce phénomène avec la lumière de l'arc dans l'air atmosphérique, mais il disparaît de manière complète, dans les conditions où j'ai opéré, si l'air est privé, par filtration sur un tampon. d'ouate, des particules en suspension qu'il renferme. Ce fait m'a conduit à penser que la conductibilité observée par M. Lenard est due à une action photoélectrique sur les particules en suspension, qui fait émettre à celles-ci des électrons négatifs, transformés dans le gaz, par adjonction de molécules neutres, en ions négatifs ordinaires, tandis que les particules elles-mêmes, qui restent chargées positivement, constituent des gros ions positifs de faible mobilité. L'ultraviolet extrême, dans la région de Schumann, agit directement sur les molécules par effet photoélectrique et produit dans l'air des ions ordinaires, mais il y est par là-même rapidement absorbé et l'ultraviolet qui subsiste à distance un peu grande de la source ne peut plus agir photo-électriquement que sur des particules plus massives telles que les centres de condensation d' Aitken ou les poussières. J'ai pu exagérer beaucoup ce phénomène en augmentant le nombre et la sensibilité photoélectrique des particules, par exemple en mettant en suspension dans l'air de la poudre d'aluminium très ténue.


6. Courants dans les récipients clos

L'existence des gros ions permet d'expliquer les résultats obtenus par divers expérimentateurs, par M. Mc Lennan, en particulier, en mesurant le courant qu'on peut faire passer à travers de l'air puisé dans l'atmosphère et enfermé dans un récipient clos. On constate que ce courant diminue rapidement à partir du moment où l'air est introduit, pour tendre vers une limite qu'il atteint seulement au bout de plusieurs heures. j'ai pu montrer que ce phénomène, attribué tout d'abord à la présence d'une substance radioactive particulière, s'explique simplement par la disparition progressive des gros ions et des particules en suspension que contenait l'air au moment de son introduction (17), (19). J'ai justifié de diverses manières cette interprétation et obtenu en même temps des confirmations expérimentales de ma théorie sur la formation de gros ions ; j'ai mis en évidence, en particulier, l'accumulation des gros ions dans le gaz au voisinage des électrodes.


7. La formation des nuages

Il résulte de cet ensemble de travaux que la mesure de la charge totale portée par les gros ions dans l'air donne un moyen plus commode que la méthode d' Aitken pour l'étude des particules en suspension et pour la mesure de leur nombre auquel celui des gros ions garde une proportion constante. Ces particules jouent un rôle essentiel dans la formation des précipitations atmosphérique; par l'intermédiaire des brumes, brouillards et nuages. J'ai pu montrer (20) comment la discontinuité qui existe entre les ions ordinaires et les gros ions permet de comprendre l'existence d'une discontinuité entre les couches inférieures de nuages : celles des nuages lourds, stratus, cumulus ou nimbus, d'altitude toujours inférieure à deux kilomètres, et les couchés supérieures de nuages légers, les cirrus, d'altitude voisine de dix kilomètres. Les premiers se formeraient par condensation sur les particules en suspension, neutres ou gros ions, dans l'air des courants ascendants refroidi par détente adiabatique. Cette condensation n'exige aucune sursaturation appréciable et les gouttes qu'elle forme, tombant sous l'action de la pesanteur par rapport à l'air qui monte, débarrassent celui-ci des particules en suspension de sorte qu'il contient seulement des ions ordinaires au-dessus de la couche inférieure des nuages. Pour provoquer une nouvelle condensation par suite du mouvement ascendant, une sursaturation importante est nécessaire, l'air devant contenir à peu près quatre fois plus de va-peur d'eau qu'il ne correspond à la saturation par rapport à une surface liquide plane pour que la précipitation puisse se produire sur les ions ordinaires. Ce degré de sursaturation ne peut être obtenu, par la détente adiabatique liée au mouvement ascendant, qu'à plusieurs kilomètres au-dessus de la couche nuageuse inférieure, pour donner naissance aux gouttes plus fines qui composent les cirrus. Un calcul thermodynamique simple montre, d'ailleurs, que la hauteur dont doit s'élever dans l'atmosphère une masse d'air initialement saturée de vapeur d'eau à la température de zéro, pour que sa détente adiabatique produise la sursaturation nécessaire à la condensation sur les ions ordinaires est au moins égale à cinq kilomètres. C'est bien là l'ordre de grandeur de la distance qui sépare la couche des nuages lourds de celle des nuages légers. L'absence d'ions de mobilités intermédiaires entre les gros et les petits permet de prévoir qu'aucune condensation ne doit se produire, conformément aux faits, dans cette région intermédiaire épaisse d'au moins cinq kilomètres. Les gros ions et les particules d' Aitken ne doivent ainsi exister que dans les couches inférieures de l'atmosphère, jusqu'au sommet des nuages lourds. Aux deux catégories nettement distinctes d'ions correspondent ainsi les deux catégories de nuages, elles aussi sans intermédiaires, les nuages des régions basses et ceux des régions élevées.


8. L'électromètre enregistreur

Étant donnée l'importance que présente ainsi, pour la météorologie générale, l'étude des ions de l'atmosphère, gros et petits, j'ai jugé nécessaire de réaliser la construction, en collaboration. avec M. Marcel Moulin, d'un appareil capable d'enregistrer, de manière continue, pour chacun des deux signes et chacune des deux catégories, les nombres d'ions contenus dans un volume déterminé d'air. L'électromètre enregistreur (18), (20) que nous avons été conduits à réaliser est d'un type entièrement nouveau. Un compteur à gaz, mis en mouvement par un moteur, aspire l'air à travers un condensateur cylindrique dont la charge et les dimensions sont déterminées de manière que son armature intérieure, reliée à un électromètre à quadrants, puisse recueillir, soit les petits ions seulement, soit la totalité des ions d'un signe déterminé. L'électromètre, dont les déviations sont enregistrées photographiquement, est automatiquement remis au sol chaque fois qu'un volume déterminé d'air a traversé le compteur, puis isolé de nouveau. La déviation de l'électromètre est proportionnelle chaque fois au nombre d'ions de l'espèce étudiée qui sont contenus dans l'unité de volume d'air. Nous avons rencontré, avant de réussir, de grosses difficultés dans la réalisation d'interrupteurs automatiques permettant d'isoler un conducteur relié à un électromètre sans qu'il se produise aucune électrisation du fait même qu'on sépare des pièces métalliques primitivement en contact ; nous avons reconnu qu'il est nécessaire de réduire autant que possible la surface de contact et de réaliser une séparation aussi exactement normale que possible et sans aucun frottement dû à un déplacement latéral. Le résultat obtenu dans ces conditions est assez parfait pour rendre possible l'emploi de nouvelles méthodes d'enregistrement électro-métrique de grande sensibilité et pour permettre des applications très, diverses de l'appareil enregistreur. Les courants d'ionisation que nous avons ainsi réussi à enregistrer sont d'une extraordinaire petitesse puisque les plus intenses d'entre eux ont rarement dépassé 10-13 ampères. Cet appareil a été utilisé, après nous, par divers expérimentateurs, en particulier par M. Mac Laughlin, à l' Institut de Physique du Globe de Paris.


III. Sur la théorie cinétique et la thermodynamique


1. La méthode des libres parcours

En liaison avec mes recherches expérimentales sur la mobilité des ions et pour en déduire des renseignements sur la nature et la structure des centres électrisés mobiles dans les gaz, j'ai été conduit à développer, au point de vue de la théorie cinétique, la théorie du déplacement, à travers les molécules d'un gaz, d'une particule, soit soumise à une force extérieure telle que l'action d'un champ électrique, soit libre et participant simplement à l'agitation thermique. Ce sont les deux problèmes de la mobilité et de la diffusion, intimement liés l'un à l'autre, d'ailleurs, puisque le rapport des coefficients correspondants ne dépend absolument que de la charge électrique de l'ion à l'exclusion de tout autre élément caractéristique de celui-ci ou du gaz dans lequel il se trouve. Dans l'un et l'autre problème il s'agit de calculer l'échange de quantité de mouvement résultant des chocs entre les molécules du gaz et la particule, en fonction de la vitesse moyenne de celle-ci par rapport à la masse du gaz. Dans une première solution (6) j'ai perfectionné la méthode des libres parcours en tenant compte de la loi exponentielle selon laquelle les trajets librement parcourus par la particule entre deux chocs se répartissent par rapport à leur valeur moyenne, au lieu de les supposer tous égaux à cette valeur moyenne comme on l'avait fait jusque là. La formule que j'ai obtenue ainsi pour la mobilité, et qui a été utilisée maintes fois depuis par divers physiciens, diffère par un facteur deux de celle qu'on utilisait d'ordinaire. J'ai montré que ce résultat détruisait, dans ce même rapport, la remarquable coïncidence obtenue par M. Paul Drude, dans sa théorie des métaux, entre le quotient des conductibilités électrique et thermique et les valeurs expérimentales, régies par la loi de Wiedemann-Franz.


2. La méthode de Maxwell

La méthode des libres parcours ne fournit, malgré tout, qu'une solution grossièrement approchée du problème, puisqu'elle ne tient pas compte de l'extrême variabilité des conditions dans lesquelles se produisent les chocs, ni, de façon plus générale, des actions mutuelles entre les molécules dont les échanges d'impulsion au moment du choc ne représentent qu'un cas particulier. Maxwell avait montré dans quelle voie une solution correcte est possible mais n'avait pu la conduire jusqu'au bout que dans le cas très particulier où les molécules sont des centres de force exerçant les uns sur les autres des actions répulsives en raison inverse de la cinquième puissance de la dis-tance. J'ai pu donner (21) la solution générale dans le cas d'une loi d'action quelconque, y compris celle du choc élastique, et j'en ai fait l'application au cas où la particule dont on suit le mouvement à travers le gaz, non seulement possède un diamètre de choc, mais encore, étant électrisée, attire les molécules électriquement neutres du gaz par polarisation électrique de celles-ci. La formule que j'ai obtenue par des calculs extrêmement laborieux, a été utilisée par divers physiciens, MM. Richardson, Reinganum, Hassé, Loeb, en particulier. Elle m'a permis, comme je l'ai rappelé plus haut, de montrer que les ions dans les gaz, à la température ordinaire, sont formés par des agglomérations d'une seule couche de molécules maintenues autour d'un centre par attraction électrostatique ; la différence de mobilité entre les ions positifs et négatifs s'explique par le fait que ce centre est un électron dans le cas des ions négatifs et une molécule ionisée dans le cas des ions positifs. Appliquée au cas des flammes, cette même formule montre que les ions négatifs y sont des électrons libres et les positifs des atomes ou des molécules privées d'un électron. A la température élevée de la flamme, l'agitation thermique dissocie les agglomérations, stables à basse température. La méthode que j'ai suivie pour établir cette formule ne s'applique pas aux phénomènes de viscosité ou de conductibilité calorifique des gaz parce qu'elle néglige les écarts à partir de la distribution des vitesses de Maxwell entre les molécules du gaz. Une solution plus complète a été obtenue par MM. Chapman et Enskog qui ont donné une méthode d'approximations successives. Celle-ci retrouve exactement mes formules pour les échanges de quantité de mouvement, dans une première approximation largement suffisante pour ce qui concerne la mobilité ou la diffusion des ions au degré de précision des mesures.


3. Les chocs exceptionnels

La faible conductibilité que présente de manière permanente l'air enfermé dans un récipient et que nous savons aujourd'hui due à l'existence d'un rayonnement pénétrant d'origine terrestre ou cosmique, correspond à la production, au niveau du sol, d'un très petit nombre d'ions par centimètre cube et par seconde. J' ai examiné, avec M. J. J. Rey (23) la question de savoir si cette ionisation pouvait être spontanée et résulter de l'agitation thermique dans le cas de chocs exceptionnellement violents entre molécules du gaz. En admettant réalisée la distribution des vitesses de Maxwell entre les molécules, il s'agissait de calculer le nombre de chocs pour lesquels une condition capable de provoquer la dissociation électronique, l'ionisation d'une au moins des molécules, se trouverait réalisée: échange d'énergie ou de quantité de mouvement supérieurs à certaines limites, par exemple. L'application des méthodes que j'avais employées pour le calcul des mobilités nous a permis de résoudre ces divers problèmes et d'aboutir aux conclusions suivantes : les chocs exceptionnels capables d'expliquer la très faible ionisation observée à la température ordinaire devraient augmenter en nombre avec une extraordinaire rapidité pour une augmentation même très faible de la température, dans un rapport voisin de dix mille, par exemple, pour une élévation de température de dix degrés. Il se trouve, au contraire, que l'ionisation en vase clos, pour une densité constante du gaz, se montre absolument indépendante de la température, conformément à ce que permet de prévoir l'hypothèse du rayonnement pénétrant. Celle d'une ionisation spontanée liée à l'agitation thermique se trouve donc par là complètement éliminée.


4. Le mouvement brownien

Les travaux de MM. Einstein et Smoluchowski ont permis de développer quantitativement les conséquences de l'hypothèse qui voit dans le mouvement brownien une conséquence et en même temps une preuve de l'agitation moléculaire. La formule qui donne l'amplitude des déplacements d'une particule en suspension dans un fluide en fonction des dimensions de la particule et de la viscosité du fluide avait été obtenue par les deux auteurs précédents par des méthodes fort ingénieuses où l'on s'efforçait de suivre dans le détail le mécanisme des actions mutuelles entre la particule et le milieu, mais les résultats, quoique de même forme, différaient par un facteur égal à 64/27. J'ai pu constater tout d'abord qu'une application correcte de la méthode de M. Smoluchowski conduit à retrouver exactement le résultat de M. Einstein et, de plus, qu'il est possible de donner une démonstration extrêmement simple de cette formule devenue classique. Il suffit de décomposer l'action des chocs moléculaires contre la particule en deux parties, l'une, régulière, qui correspond à l'effet de la viscosité, l'autre, irrégulière, qui détermine le mouvement brownien et, par une méthode analogue à celle du "viriel", d'exprimer que l'énergie cinétique moyenne de la particule est conforme à la loi d'équipartition, pour obtenir immédiatement la formule de M. Einstein (22). La méthode que j'ai ainsi introduite a été reprise depuis par de nombreux auteurs et elle est devenue d'application très générale dans la théorie des phénomènes de fluctuation dont le mouvement brownien représente un cas particulier.


5. Les applications du calcul des probabilités

J'ai repris, de manière très générale (24), pour en faire des applications nouvelles et rectifier diverses erreurs, les raisonnements par lesquels le calcul des probabilités permet de rendre compte d'un grand nombre de faits physiques, depuis les phénomènes de fluctuation ou les lois de désintégration radioactive jusqu'au second principe de la thermodynamique ou à la composition du rayonnement thermique en équilibre. J'ai classé ces raisonnements en deux grandes catégories, celle des probabilités discontinues et celle des probabilités continues. A la première catégorie appartiennent les problèmes de fluctuation dans lesquels on cherche à déduire les grandeurs moléculaires de l'observation des écarts présentés, dans l'espace ou dans le temps, par les grandeurs mesurables autour de leurs valeurs moyennes. C'est le cas pour les phénomènes browniens, pour les fluctuations de concentration d'où provient en particulier la couleur bleue du ciel et pour les fluctuations radioactives. A la seconde catégorie correspondent, par exemple, la répartition des libres parcours autour de leur valeur moyenne, la répartition, entre l'ensemble continu des diverses valeurs possibles des intervalles de temps entre deux émissions successives d'une particule alpha, beta ou gamma par une source radioactive quelconque ou entre deux passages successifs d'un rayon cosmique dans un compteur de Geiger. J'ai montré également que la différence entre la mécanique statistique de Boltzmann-Gibbs et les statistiques quantiques, correspond encore à la différence entre ces deux catégories d'application du calcul des probabilités et que la quantification générale de la physique réalisée par l'introduction dans tous les domaines de la constante h de Planck signifie que, non seulement nous devons admettre des éléments structuraux discrets mais non individualisables, électrons, atomes ou molécules, mais encore introduire un élément nouveau de discontinuité dans les raisonnements statistiques par lesquels nous passons pour construire une image du monde à partir de ces éléments. Il est probable que cette introduction de discontinuité devra s'étendre jusqu'aux notions fondamentales de l'espace et du temps, jusqu'à l'espace-temps d' Einstein, dernier refuge de la continuité.


6. Principe de Carnot et applications de la thermodynamique

Je rappelle ici la manière dont j'ai analysé, en collaboration avec Jean Perrin, la signification du second principe de la thermodynamique envisagé comme interdisant à un système complexe, abandonné à lui-même, de repasser deux fois par le même état dans son évolution spontanée. Cet énoncé suffit, à la fois pour permettre les applications du principe et aussi pour laisser prévoir ses limitations sous l'aspect des fluctuations, puisque son exactitude est liée à la complexité du système envisagé et ne devient complète qu'à la limite, à la manière des lois des grands nombres. J'ai indiqué plus haut l'application que j'ai faite (25) de la thermodynamique au problème de l'équilibre entre la vapeur d'eau et une gouttelette de très petit rayon ainsi que les conséquences relatives à la charge des ions. Le détail de ces raisonnements se trouve exposé dans la thèse de M. Eugène Bloch d'après mon enseignement du Collège de France.


IV. Sur la théorie électromagnétique et les électrons


1. La physique des électrons

Avant que les difficultés qui sont à l'origine de la crise des quanta n'aient imposé l'introduction de discontinuités nouvelles, la théorie dite aujourd'hui classique, sous la forme que lui avait donnée en dernier lieu Hendrik Antoon Lorentz, permettait de réaliser une synthèse déjà très importante où la matière était considérée comme composée de particules électrisées dont l'électron négatif représentait la partie la plus mobile et la plus active dans les relations d'ordre physico-chimique entre diverses portions de matière, ou dans les échanges d'énergie et de quantité de mouvement entre la matière et le rayonnement par émission, absorption ou diffusion de celui-ci. Si la structure de la matière était discontinue, celle du rayonnement, par contre, était considérée comme continue et régie par les équations de la théorie électromagnétique. Les résultats obtenus dans le développement de cette synthèse conservent aujourd'hui une grande valeur, malgré les modifications introduites par la théorie des quanta. Celle-ci affirme en effet, avec M. Niels Bohr, un principe de correspondance en vertu duquel la théorie classique représente la forme limite des lois quantiques lorsque les nombres introduits par celles-ci deviennent très grands. La théorie classique s'apparenterait ainsi au principe de Carnot, qui conserve une immense valeur théorique et pratique malgré l'existence des écarts que représentent les phénomènes de fluctuation. je me suis efforcé de contribuer à ce développement des conséquences de la conception classique, soit en ce qui concerne l'interprétation électromagnétique de l'inertie et les relations entre la matière et le rayonnement, soit en ce qui concerne les propriétés électriques et magnétiques de la matière considérée comme construite au moyen de particules électrisées. J'ai tout d'abord montré comment un raisonnement très élémentaire (32) permet d'obtenir la distribution du champ électrique et du champ magnétique autour d'une particule électrisée en mouvement de vitesse constante, ce que j'ai appelé le sillage de cette particule. L'énergie que représente la modification de ce sillage quand la vitesse augmente est, en première approximation, proportionnelle au carré de la vitesse, ce qui correspond, comme l'avait montré pour la première fois Joseph John Thomson, à une inertie électromagnétique liée à l'électrisation de la particule, proportionnelle au carré de sa charge et inversement proportionnelle à son rayon si on suppose la particule sphérique. En partant d'un énoncé hamiltonien des lois de l'électromagnétisme, j'ai pu aller plus loin (25) et montrer qu'on en peut déduire toutes les lois de la dynamique des électrons en assimilant ceux-ci à des vacuoles électriquement chargées en surface dans un espace régi par les lois de l'électromagnétisme. L'inertie obtenue varie en fonction de la vitesse suivant une loi qui dépend de l'hypothèse faite sur la manière dont varie la forme de l'électron avec la vitesse. Si on la suppose invariable, on retrouve les formules données par M. Max Abraham ; si on impose la seule condition d'un diamètre constant dans le plan équatorial perpendiculaire à la direction de la vitesse, on obtient les formules données tout d'abord par M. Lorentz et déduites ultérieurement du principe de relativité restreinte ; enfin, si on impose à la vacuole la condition de conserver un volume constant j'ai trouvé une loi nouvelle, différente des deux précédentes et que M. Bucherer obtenait en même temps de manière indépendante. Les expériences de MM. Charles Eugène Guye et Lavanchy sur les rayons cathodiques de grande vitesse sont venues, en utilisant une méthode que j'avais indiquée pour la première fois à M. Malassez, et qu'il avait employée dans sa thèse, montrer que, seules, les formules de Lorentz étaient conformes aux faits. En même temps que se construisait ainsi une dynamique fondée sur l'électromagnétisme, l'échec de la tentative inverse, celle de donner une interprétation mécanique de l'électromagnétisme et de l'optique, se confirmait de plus en plus. J'ai pu montrer (25) comment la dernière et peut-être la plus puissante de ces tentatives, celle qu'a faite M. Larmor pour développer l'image d'un éther gyrostatique, conçue par Lord Kelvin, conduisait à des impossibilités lorsqu'on essayait d'en déduire une représentation, non seulement des phénomènes périodiques tels que ceux de l'optique, mais encore des états permanents tels que l'existence d'un champ électrique ou d'un champ magnétique constants.


2. L'origine des radiations et l'inertie

Lorsque le mouvement d'un centre électrisé n'est pas uniforme, la distribution du champ électromagnétique qu'il crée autour de lui devient plus complexe. En utilisant la solution du potentiel retardé de Lorentz, j'ai montré qu'on peut décomposer ce champ, tel qu'il se présente à un instant donné, en couches par des sphères centrées sur les diverses positions antérieures de la particule et de rayon égal pour chacune au produit de la vitesse de la lumière par le temps écoulé depuis la position correspondante de la particule jusqu'à l'instant où l'on étudie la distribution. Retrouvant ainsi par une autre voie d'importants résultats déjà obtenus par M. Liénard, j'ai décomposé le champ contenu entre deux de ces ondes sphériques infiniment voisines en deux parties, l'une, l'onde de vitesse, qui dépend seulement de la vitesse de la particule à l'instant de l'émission et est exactement la même que si cette vitesse avait toujours existé, l'autre, l'onde d'accélération, qui dépend à la fois de la vitesse et de l'accélération mais surtout de cette dernière lorsque la vitesse est petite par rapport à celle de la lumière, et qui présente tous les caractères du rayonnement libre : transversalité des champs électrique et magnétique, perpendicularité de leurs directions, égalité des énergies qu'ils représentent par unité de volume. De plus, les champs présents dans l'onde de vitesse variant en raison inverse du carré du rayon de cette onde, tandis que ceux de l'onde d'accélération varient seulement en raison inverse du rayon, c'est-à-dire beaucoup plus lentement, l'onde d'accélération subsiste seule à grande distance du point d'émission (26). L'émission d'un rayonnement est donc liée à l'accélération des mouvements particulaires. L'onde d'accélération, c'est-à-dire le rayonnement, joue un rôle essentiel dans le mécanisme de l'inertie, au point de vue de l'interprétation électromagnétique de celle-ci. Quand la vitesse d'une particule électrisée change, et par conséquent aussi son énergie cinétique supposée répartie dans tout le sillage électromagnétique, l'onde d'accélération est l'intermédiaire par lequel se fait le remaniement nécessaire du sillage et qui réalise à toute distance, grâce à l'énergie supplémentaire qui résulte de sa superposition à l'onde de vitesse, le sillage nouveau qu'elle laisse derrière elle à la place du sillage qu'elle trouve devant elle et qui correspondait à la vitesse ancienne. Cette tâche remplie, lorsqu'à grande distance l'onde d'accélération reste seule et devient le rayonnement pur émis par la particule, elle représente une énergie rayonnée qui doit avoir été fournie, en plus du supplément d'énergie cinétique, par l'action qui a produit l'accélération. Cela correspond à la présence, dans la réaction de la particule au changement de vitesse, de deux termes ; l'un est la force d'inertie ordinaire par l'intermédiaire de laquelle est emprunté l'accroissement d'énergie cinétique correspondant au changement de vitesse, emporté par l'onde d'accélération avec la vitesse de la lumière et répartie par elle entre les diverses régions du sillage, l'autre, la réaction de rayonnement, correspond à l'énergie propre de cette onde, au rayonnement émis à grande distance proportionnellement au carré de l'accélération. Le second terme est d'ailleurs, généralement très faible par rapport au premier.


3. La propagation du rayonnement dans la matière et le bleu du ciel

L'onde rayonnée, en rencontrant des électrons, peut agir sur eux par son champ électrique et son champ magnétique en donnant lieu aux phénomènes d'absorption, de réfraction et de diffusion du rayonnement par la matière. J'ai poursuivi l'analyse de ces phénomènes au point de vue de la théorie classique (27), (28) et montré que les accélérations communiquées aux électrons par le champ électromagnétique du rayonnement incident donnant lieu, par le mécanisme précédemment indiqué, à l'émission d'ondes secondaires qui se superposent au rayonnement incident, on peut rendre compte ainsi d'un grand nombre de faits de l'optique, de la réfraction dans les milieux homogènes et de la diffusion dans les milieux troubles. Le trouble produit dans un gaz comme l'air par les fluctuations de concentration donne lieu, comme l'a suggéré Lord Rayleigh, à la diffusion par l'atmosphère du rayonnement solaire, avec une intensité relativement plus grande à mesure que la fréquence du rayonnement incident augmente, ce qui interprète la couleur bleue du ciel. J'ai, pour la première fois, développé cette conception au point de vue de la théorie électromagnétique classique (27) et montré qu'elle rend compte de tous les caractères du phénomène, comme intensité et polarisation, en particulier. A cette occasion, j'ai demandé à mes élèves, MM. Edmond Bauer et Marcel Moulin, de reprendre les mesures qui permettent de déduire, comme conséquence de la théorie de Rayleigh, le nombre d' Avogadro de l'intensité de la lumière diffusée par le ciel. Les considérations que j'ai développées sur la propagation du rayonnement' à travers la matière ont été reprises par divers physiciens, en particulier par M. L. Natanson.


4. La loi du déplacement de Wien

L'application du principe de Doppler, introduite par M. Wilhelm Wien pour prévoir la manière dont varie la composition du rayonnement intérieur à un récipient dont les parois sont parfaitement réfléchissantes, quand on fait varier le volume de celui-ci, se présente de manière particulièrement simple quand on suppose que la variation de volume se fait sans changement de forme. J'ai pu montrer qu'une déformation homothétique, effectuée adiabatiquement, modifie dans le rapport d'homothétie toutes les longueurs d'onde du rayonnement présent à l'intérieur, en même temps que la densité d'énergie représentée par ce rayonnement varie en raison inverse de la quatrième puissance de ce rapport. Si le rayonnement correspond à un équilibre thermique, il conserve ce caractère par détente ou compression adiabatique et la température absolue correspondante varie en raison inverse du rapport d'homothétie. De là résulte immédiatement la loi du déplacement de Wien en vertu de laquelle la répartition de l'énergie du rayonnement thermique entre les longueurs d'onde fait intervenir une fonction universelle du produit de la longueur d'onde par la température absolue.


V. Sur la théorie du magnétisme et l'orientation moléculaire


1. Le diamagnétisme

Le développement des conséquences de la théorie classique m'a conduit à reprendre, au point de vue des conceptions électroniques, les idées d' André-Marie Ampère sur les courants particulaires et à considérer ceux-ci comme correspondant à la circulation d'électrons à l'intérieur d'atomes ou de molécules. L'application des lois du courant de convection représenté par un électron mobile m'a permis de calculer le moment magnétique de l'aimant équivalent au mouvement de circulation d'un électron suivant une orbite fermée autour d'un centre attirant tel qu'un noyau d'atome. Ce moment magnétique s'obtient en multipliant le moment de quantité de mouvement de l'électron par rapport au centre par le quotient e/(2*m) de sa charge électrique par le double de sa masse. La même relation subsiste quand plusieurs électrons circulent autour d'un même centre sous l'action combinée de l'attraction de celui-ci et de leurs répulsions mutuelles. Quand on fait agir sur le système ainsi constitué un champ magnétique extérieur H, M. Larmor avait montré que les équations du mouvement sont modifiées en présence de ce champ, au premier ordre d'approximation, exactement comme si le système primitif était rapporté à un système de référence en rotation avec la vitesse angulaire (H*e)/(2*m) autour de la direction du champ magnétique ; c'est ce qu'on désigne fréquemment sous le nom de « rotation de Larmor ». J'ai pu aller plus loin et montrer (30), (31), (32) , que non seulement les équations différentielles du mouvement sont modifiées de la manière indiquée, mais encore, ce qui est complètement indépendant, que le champ électrique induit pendant la création du champ magnétique ou, ce qui revient au même, que les forces électromagnétiques de Lorentz pendant le transport adiabatique du système dans un champ magnétique supposé permanent, modifient les constantes du mouvement de manière que celui-ci, en présence du champ, est exactement ce que deviendrait le mouvement primitif de l'ensemble des électrons composé avec une rotation d'ensemble autour de la direction du champ magnétique et de vitesse angulaire égale à la rotation de Larmor. Il en résulte, pour l'ensemble des électrons circulant autour d'un centre, un moment de quantité de mouvement et par conséquent un moment magnétique supplémentaire dirigé en sens inverse du champ magnétique et proportionnel à l'intensité de celui-ci. C'est une action diamagnétique, apparaissant ainsi comme une propriété commune à tous les atomes et dont le coefficient de proportionnalité au champ ou susceptibilité diamagnétique se calcule immédiatement à partir du nombre des électrons et des dimensions de leurs orbites. J'ai pu montrer que les constantes diamagnétiques expérimentales sont entièrement d'accord avec cette conception et avec ce que nous savons d'autre part sur les dimensions atomiques. La formule que j'ai ainsi établie pour relier la constante diamagnétique d'un élément à la structure électronique des atomes qui le composent n'a pas été modifiée par les développements récents de la théorie quantique. En particulier la démonstration que j'ai donnée du fait que l'introduction d'un atome dans un champ magnétique n'en modifie pas la configuration électronique mais la fait simplement tourner autour de la direction du champ avec la vitesse angulaire de Larmor, a représenté le premier exemple d'un théorème général établi par M. Paul Ehrenfest en théorie quantique, celui qui affirme la conservation des nombres quantiques caractérisant une configuration ou un état quand on fait varier adiabatiquement, c'est-à-dire avec une infinie lenteur, les actions extérieures qui s'exercent sur le système. Les échanges d'électrons entre atomes pour former des molécules ne modifient en général que de manière très superficielle l'édifice électronique correspondant à chaque atome. Il en résulte qu'en première approximation la propriété diamagnétique doit présenter un caractère atomique et que la constante correspondante pour une molécule doit être la somme des constantes relatives aux atomes qui la composent. Ce fait a été vérifié bien des fois, en particulier par M. Pascal dans ses belles recherches sur le diamagnétisme des composés organiques. Comme il est également conforme à la théorie, chaque type de liaison, d'échange d'électrons entre atomes, modifie la constante diamagnétique moléculaire par un terme caractéristique de la liaison. Je souligne enfin le fait que, comme il est facile de le prévoir, l'existence du spin ou moment magnétique de l'électron ne correspond à aucun effet d'induction du type diamagnétique et par conséquent ne modifie pas la formule que j'ai donnée pour représenter la constante diamagnétique d'un atome en fonction de sa configuration électronique.


2. Les moments de circulation et le spin

Si l'effet magnétique de circulation des électrons dans l'atome existait seul, le moment magnétique résultant d'un système électronique quelconque serait proportionnel au moment de quantité de mouvement résultant avec le coefficient e/(2*m). La théorie des quanta qui attribue à tout moment de quantité de mouvement une valeur multiple entière de h/(2*Pi) conduit à prévoir pour tout moment magnétique une valeur multiple entière du magnéton de Bohr (h*e)/(4*Pi*m). Les difficultés qu'a soulevées cette conception en spectroscopie a conduit à la découverte du spin de l'électron, en vertu duquel celui-ci possède un moment propre de quantité de mouvement h/(4*Pi) et un moment magnétique en rapport (e/m) avec la quantité de mouvement, c'est-à-dire égal aussi au magnéton de Bohr (h*e)/(4*Pi*m). La superposition de ces deux effets a pour résultat que le moment magnétique résultant cesse d'être en rapport simple avec le moment de quantité de mouvement résultant, et comme c'est ce dernier qui donne lieu à quantification, le moment magnétique de l'atome n'obéit plus à des lois simples et cesse, en particulier, d'être représenté par un nombre simple en fonction du magnéton de Bohr. C'est là l'origine des aspects complexes du phénomène de Zeeman. Il est très remarquable que le diamagnétisme fasse intervenir uniquement les moments de circulation à l'exclusion du spin, tandis que le ferromagnétisme, au contraire, semble ne faire intervenir que le spin. Le paramagnétisme, intermédiaire, fait intervenir, comme nous l'allons rappeler, le moment magnétique résultant total de l'atome ou de la molécule.


3. Les effets gyromagnétiques

La manière la plus simple de déterminer dans quelle proportion les deux effets de circulation et de spin interviennent dans un phénomène magnétique est de chercher le rapport correspondant entre le moment magnétique ou la variation de celui-ci, et le moment de quantité de mouvement ou sa variation. L'expérience montre en effet que toute aimantation sous l'action d'un champ extérieur s'accompagne de l'apparition d'un moment de quantité de mouvement (effet gyromagnétique de Richardson, Einstein, de Haas) et, inversement, que la mise en rotation d'un corps magnétique aimante celui-ci comme le ferait un champ magnétique d'intensité proportionnelle à la vitesse angulaire communiquée (phénomène gyromagnétique de Barnett). J'ai pu montrer, par des raisonnements d'énergétique générale (Le magnétisme, rapports et discussions du sixième "Conseil de physique Solvay", Gauthiers-Villars, 1932, p. 352) que les deux effets sont réciproques et doivent nécessairement conduire, comme l'expérience semble bien le confirmer, à une même valeur pour le rapport du moment magnétique au moment de quantité de mouvement dans le premier effet, et pour le rapport de la vitesse angulaire au champ magnétique équivalent dans le second effet. Les substances ferromagnétiques conduisent toutes, pour cette valeur commune aux deux effets, à des résultats égaux au rapport (e/m) pour l'électron, signifiant par là que le ferromagnétisme ne fait intervenir, à l'opposé du diamagnétisme, que les effets de spin électronique. Les corps paramagnétiques donnent des résultats intermédiaires entre (e/m) et (e/(2*m)), conformément aux prévisions de la spectroscopie.


4. Le paramagnétisme et la loi de Curie

Les actions mutuelles entre électrons tendent, soit à l'intérieur de chaque atome, soit dans les molécules que forment les atomes par échange d'électrons, à constituer des édifices électroniques de symétrie aussi élevée que possible, c'est-à-dire de moment magnétique résultant aussi faible que possible. Comme un système de moment résultant nul ne réagit que diamagnétiquement sous l'action d'un champ, cette tendance vers la symétrie correspond au fait que les combinaisons chimiques, par formation de molécules ou de complexes, tendent vers la formation de composés diamagnétiques qui sont, en effet, la grande majorité. Les autres, où la symétrie complète ne peut pas s'établir, ont un moment résultant de quantité de mouvement et par suite un moment magnétique résultant dont le rapport au premier varie entre (e/m) et (e/(2*m)) suivant que prédominent les effets de spin ou de circulation. Un champ magnétique extérieur, indépendamment de l'effet diamagnétique général qu'il exerce sur tout édifice électronique, tend à orienter dans sa direction le moment résultant de chaque atome ou molécule. Du point de vue de la théorie classique, cette tendance est contrariée par l'agitation thermique qui tend à maintenir le désordre d'orientation entre les directions des axes magnétiques individuels. Il en doit résulter un équilibre statistique entre ces deux tendances opposées avec prédominance d'autant plus marquée du parallélisme imposé par le champ extérieur, que l'agitation thermique est plus faible et par conséquent la température plus basse. En appliquant à cette conception (20), (31), (32), soit des raisonnements de thermodynamique, soit les méthodes de la mécanique statistique et en particulier la loi de répartition de Ludwig Boltzmann, j'ai pu obtenir la loi théorique de variation du moment magnétique résultant d'un ensemble de molécules magnétiques en fonction de l'intensité du champ extérieur, du champ qui tend à les orienter. Lorsque l'intensité du champ est faible, on retrouve ainsi la loi du paramagnétisme établie expérimentalement par Pierre Curie et suivant laquelle le coefficient d'aimantation varie en raison inverse de la température absolue. Le résultat n'est pas modifié quand, au lieu de tenir compte uniquement, dans les raisonnements statistiques, de l'énergie relative de l'aimant moléculaire et du champ, on tient compte également de la répartition des énergies cinétiques de translation et surtout de rotation entre les molécules. J'ai établi ce point (35) au cours d'une correspondance avec M. W. Voigt. La question a été posée et traitée ultérieurement par divers physiciens qui n'avaient pas eu connaissance de cette publication. La loi de variation du moment paramagnétique résultant en fonction du champ lorsque l'intensité de celui-ci, ou plutôt son quotient par la température absolue, augmente suffisamment, prévoit une saturation paramagnétique lorsque l'action du champ prédomine et oriente les moments individuels à peu près parallèlement. En abaissant suffisamment la température, M. Heike Kammerlingh Onnes a pu observer cet effet sur divers corps, sur le sulfate de gadolinium en particulier, qui donne une variation de l'aimantation en fonction du champ tout à fait conforme aux prévisions de la théorie classique.


5. L'obtention des basses températures

J'ai signalé, dès le début de mes recherches sur ce sujet, que l'orientation paramagnétique doit s'accompagner d'un dégagement de chaleur facilement calculable et que le rétablissement du désordre d'orientation au ma-nient de la suppression du champ magnétique doit s'accompagner d'un abaissement de température dont l'importance relative est d'autant plus grande, pour une même intensité du champ, que la température absolue dont on part est plus basse. M. de Haas vient de faire une belle application de cette possibilité en l'utilisant pour abaisser jusqu'à un quart de degré absolu la limite inférieure des basses températures obtenues jusqu'ici.


6. Paramagnétisme et théorie des quanta (34), (36).

Il est très remarquable que la formule donnée, par la théorie classique précédente, pour la constante paramagnétique d'un corps en fonction des moments individuels des molécules qui le composent, après avoir été modifiée par la théorie de la quantification au sens de Niels Bohr et d' Arnold Sommerfeld, se retrouve exacte dans la nouvelle mécanique quantique ou ondulatoire. Il en résulte que les deux termes dans lesquels j'ai été conduit à décomposer l'action d'un champ magnétique extérieur sur un corps non ferromagnétique, le terme diamagnétique, négatif, indépendant de la température et très peu sensible à l'état de combinaison chimique, et le terme paramagnétique, positif, de beaucoup plus important en général, inversement proportionnel à la température absolue et très sensible à l'état chimique, restent tous deux exacts dans les théories quantiques actuelles. Une modification importante introduite par ces théories consiste dans l'intervention possible, pour une même sorte de molécules ou d'atomes, de divers états plus ou moins excités, en équilibre les uns avec les autres dans des proportions qui varient avec la température et qui correspondent à des moments magnétiques individuels différents. Il suffit de tenir compte du mélange ainsi constitué pour rendre compte, comme l'a fait M. Van Vleck, des écarts à partir de la loi de Curie présentés par certaines substances comme le bioxyde d'azote. Il convient enfin de rappeler que l'introduction du spin des électrons libres dans les métaux a permis à M. Wolfgang Pauli d'interpréter le paramagnétisme indépendant de la température présenté par certains métaux. En liaison avec les moments magnétiques des orbites électroniques, j'ai signalé le premier, je crois (34), le rôle que pouvait jouer la constante h de M. Max Planck, homogène à un moment de quantité de mouvement, dans la détermination de ces orbites. On sait que cette même idée a été placée par M. Niels Bohr à la base de sa théorie de l'atome et quel rôle considérable elle a joué dans le développement de la physique depuis vingt ans.


7. Les constantes diélectriques

La théorie que j'ai développée pour rendre compte des propriétés magnétiques de la matière a été exactement transposée par M. Debye dans le domaine de la polarisation électrique. Il a montré que si les molécules d'un corps ne possèdent aucun moment électrique résultant, l'action d'un champ électrique extérieur les polarise en modifiant la répartition des électrons ; l'ensemble prend un moment électrique dirigé dans le sens du champ, proportionnel à celui-ci et indépendant de la température comme l'effet diamagnétique. Lorsque les molécules sont polaires, c'est-à-dire possèdent normalement un moment électrique de structure, le champ électrique extérieur tend à les orienter ; un équilibre statistique s'établit entre cette action et l'influence contraire de l'agitation thermique, conduisant à un moment résultant qui, dans les conditions d'intensité de champ réalisables, est proportionnel à cette intensité et en raison inverse de la température absolue. C'est exactement l'équivalent du terme paramagnétique. La superposition des deux effets conduit, pour la constante diélectrique, à une formule à deux termes dont le premier dépend de la polarisabilité interne des molécules et le second de leur moment électrique résultant de la même manière que la constante paramagnétique dépend du moment magnétique moléculaire. Sur ces bases s'est développée la théorie moderne des diélectriques parallèlement à la théorie moderne du magnétisme. Ce double mouvement, qui est représenté actuellement par un nombre considérable de travaux dans le monde entier, a été déterminé par celles de mes recherches que je viens de rappeler.


8. Les moments moléculaires

Le terme paramagnétique dans l'expression du coefficient d'aimantation d'un corps fait intervenir le moment magnétique individuel des molécules du corps et permet, par conséquent, de calculer celui-ci. M. Pierre Weiss et ses collaborateurs, ainsi que de nombreux physiciens étrangers, ont utilisé cette méthode et en ont déduit des résultats fort importants sur la manière dont varie le moment magnétique d'un atome avec son rang dans la classification des éléments ou en liaison avec son spectre d'émission, ou sur l'influence de la combinaison chimique. La même formule appliquée aux constantes diélectriques a permis la détermination des moments électriques des molécules polaires et donné d'importants renseignements sur la structure de celles-ci.


9. Le ferromagnétisme

La théorie que j'ai développée pour le diamagnétisme et le paramagnétisme ne tient pas compte des actions mutuelles entre les molécules et j'ai souligné le fait que c'est dans l'intervention de ces actions mutuelles qu'il fallait chercher l'interprétation du ferromagnétisme. M. Pierre Weiss a obtenu dans cette voie des résultats remarquables en introduisant l'hypothèse du champ moléculaire d'après laquelle l'action magnétique des molécules voisines d'une molécule donnée est équivalente, sur celle-ci, à l'existence d'un champ magnétique de type particulier, proportionnel à l'intensité d'aimantation de la substance, c'est-à-dire au degré de parallélisme existant entre les aimants moléculaires individuels au voisinage de la molécule considérée. C'est l'ensemble de ce champ moléculaire et du champ extérieur qui interviendrait dans l'équilibre statistique entre l'action d'orientation et l'agitation thermique et remplacerait le seul champ extérieur dans ma formule relative au paramagnétisme. Cette conception a conduit à des résultats remarquables dont l'intérêt s'est encore accru depuis que la découverte du spin et les mesures concernant l'effet gyromagnétique ont montré que les porteurs de moment dans les corps ferromagnétiques sont des électrons et depuis que M. Werner Heisenberg a donné l'interprétation du champ moléculaire de M. Pierre Weiss par les actions d'échange entre ces électrons.


10. Les biréfringences électrique et magnétique

La considération d'un équilibre statistique entre l'agitation thermique et une tendance quelconque à l'orientation moléculaire s'est montrée d'une portée très générale et a permis de traiter tous les problèmes où une dissymétrie de la molécule donne lieu à des actions extérieures qui tendent à l'orienter. Il en est ainsi dans le cas de la biréfringence électrique, découverte par Kerr et que M. Larmor avait proposé d'interpréter par une action d'orientation du champ électrique sur des molécules anisotropes, et de la biréfringence magnétique découverte par MM. Cotton et Mouton et attribuée par eux à une anisotropie diamagnétique des molécules qui les fait tendre à s'orienter sous l'action du champ dans la direction de moindre polarisation. L'application de la méthode statistique à ces deux problèmes m'a permis de déterminer le degré d'orientation et par conséquent l'anisotropie moyenne de l'ensemble, proportionnelle ici, en première approximation, au carré de l'intensité du champ. En introduisant, pour chaque espèce de molécules, des coefficients caractéristiques de la dissymétrie électrique, magnétique et optique, j'ai pu calculer les indices de réfraction ordinaire et extraordinaire dans le milieu rendu uniaxe autour de la direction du champ par l'anisotropie résultant de cette orientation et prévoir comment devait varier la biréfringence en fonction de la température, ainsi qu'une relation très simple et très générale, observée expérimentalement par M. Aeckerlein sur le phénomène de Kerr de la nitrobenzine, entre les indices ordinaire et extraordinaire et l'indice normal que possède la substance lorsque, en l'absence de champ, le désordre d'orientation des molécules lui donne des propriétés optiques isotropes. Ce développement quantitatif complet des hypothèses d'orientation moléculaire m'a permis de montrer qu'elles rendent bien compte des faits, par opposition à une théorie que M. Voigt avait développée antérieurement dans le cas de la biréfringence électrique et qui conduisait à des résultats mille fois trop petits pour la biréfringence magnétique. M. Pockels ayant fait très justement observer que l'électro- ou la magnétostriction se superposant à l'effet d'orientation par le champ, les relations prévues en tenant compte uniquement de ce dernier effet pouvaient se trouver faussées, M. Pauthenier a pu séparer très ingénieusement les deux effets, dans le cas du phénomène de Kerr, en n'appliquant le champ électrique que pendant un temps très court, de l'ordre du millionième de seconde, largement suffisant pour l'établissement de l'équilibre statistique d'orientation, mais beaucoup trop petit pour produire l'accroissement de densité moyenne dans les champs intenses qui correspond à l'effet d'électrostriction. Il a pu ainsi vérifier de manière très exacte la relation d' Aeckerlein prévue par la théorie d'orientation et non par la théorie de M. Voigt. La variation des biréfringences électrique et magnétique avec la température, prévue par mes formules, a été soumise par divers auteurs au contrôle de l'expérience, et les résultats ont montré, en confirmant la théorie de manière générale, qu'il était nécessaire, comme on pouvait le prévoir, de supposer que les dissymétries caractéristiques des molécules individuelles variaient avec la température, par suite de l'intervention de l'agitation thermique dans l'équilibre interne entre les atomes qui constituent ces molécules, généralement très complexes. Cette théorie, comme celle du magnétisme, a provoqué de nombreux travaux, d'ordre théorique et expérimental. Elle a permis d'atteindre quantitativement les dissymétries moléculaires et d'en déduire d'importants renseignements sur la structure interne des molécules organiques, en particulier.


VI. Sur le principe de relativité et l'inertie de l'énergie


1. La contraction de Lorentz

La théorie électromagnétique classique, sous la forme où l'avait mise Lorentz, a trouvé son aboutissement et son expression complète grâce à la crise de la relativité qu'elle contenait en puissance et qui en a dégagé le véritable sens. Celui-ci n'était rien moins qu'une conception nouvelle et relative du temps, adéquate à l'idée d'action de proche en proche, introduite par Faraday, exprimée mathématiquement par Maxwell, Hertz et Lorentz et opposée à la conception ancienne du temps absolu dépourvue de base expérimentale, puisque celle-ci exigerait que nous disposions d'un moyen effectif pour agir ou signaler instantanément à distance. Pour qu'on s'aperçoive de cette opposition et que se dégage le sens physique du groupe de transformations dont Lorentz avait reconnu qu'il conserve les équations de l'électromagnétisme, il a fallu un détour d'ordre expérimental : celui des expériences d'optique ou d'électromagnétisme entreprises pour mettre en évidence le mouvement de la Terre par rapport à l'éther ou à l'espace absolu qu'il supporte et la variation de ce mouvement au cours des saisons. Il a fallu le résultat négatif de l'expérience de Michelson, et celui de l'expérience de Trouton et Noble sur un condensateur plan chargé suspendu à un fil de torsion qui devait être soumis à un couple tendant à orienter les plateaux du condensateur parallèlement à la direction du mouvement absolu et, par conséquent, tordre le fil de suspension de manière variable avec l'orientation d'ensemble de l'appareil. On sait que ces expériences et d'autres analogues ont toujours donné des résultats négatifs. Il est remarquable qu'on ait pu en obtenir une interprétation satisfaisante quoiqu'assez étrange, sans mettre en cause la notion de temps, par l'hypothèse de la contraction de Fitzgerald et de Lorentz. L'application de cette hypothèse à l'expérience de Michelson était d'ordre purement géométrique et cinématique, puisqu'il s'agissait d'expliquer l'absence de tout déplacement des franges d'interférence pendant la rotation de la plate-forme de Michelson. Le cas du condensateur de Trouton et Noble était différent et plus mécanique puisqu'il s'agissait d'expliquer l'absence du couple prévu par la théorie. J'ai pu montrer (37) que la même hypothèse de contraction appliquée au condensateur dans la direction où il est supposé en mouvement par rapport à un observateur ou à l'espace absolu, dont celui-ci se suppose solidaire, suffit pour expliquer l'absence de toute tendance du condensateur à s'orienter du fait de son mouvement de translation d'ensemble. J'utilise dans ce but l'énoncé hamiltonien (25) des lois de l'électromagnétisme où la fonction de Lagrange est représentée par la différence entre les énergies localisées respectivement dans le champ électrique et dans le champ magnétique. Le calcul montre que, pour une charge donnée des plateaux du condensateur, cette fonction de Lagrange est complètement indépendante de l'orientation du condensateur si on suppose que celui-ci, pour chacune de ses positions possibles subit la contraction de Lorentz dans la direction de translation d'ensemble. La fonction de Lagrange ne varie donc pas avec l'orientation et le condensateur n'est, par conséquent, soumis à aucune action tendant à le faire tourner, Il en serait autrement si on lui supposait une forme invariable en fonction de sa vitesse.


2. Le paradoxe du temps propre

La contraction de Lorentz n'apportait qu'une solution assez artificielle de la difficulté. Il a fallu, pour résoudre véritablement celle-ci, prendre comme point de départ, comme fait expérimental, le résultat négatif de toutes ces expériences, et en particulier celui de l'expérience de Michelson qui établissait, pour tous les systèmes de référence galiléens en translation uniforme les uns par rapport aux autres, l'isotropie complète de la propagation de la lumière. On sait comment M. Einstein en a déduit la nécessité de substituer à l'ancienne notion du temps absolu celle d'un temps relatif où la simultanéité n'a plus de sens absolu et où l'ordre de succession dans le temps de deux événements, suffisamment distants dans l'espace pour que chacun d'eux ait lieu avant l'arrivée d'un signal lumineux parti de l'autre, peut être inversé par un changement convenable du système de référence. Partant des mêmes principes, mais utilisant des raisonnements différents pour établir la correspondance des temps en différents lieux, en particulier celui du chronomètre à lumière (46) au lieu des échanges de signaux lumineux, j'ai pu aboutir, indépendamment de M. Einstein, aux mêmes conclusions et en poursuivre, dans mon enseignement du Collège de France, l'examen des conséquences d'ordre cinématique et dynamique. L'introduction du caractère relatif de la simultanéité enlève à la contraction de Lorentz son caractère artificiel, puisque la contraction concerne la forme d'un objet en mouvement, et que cette forme ne peut être définie que par l'ensemble des positions simultanées des différents points de la surface de l'objet. Si, conformément à la nouvelle notion de temps, la simultanéité n'est pas définie de la même manière par des observateurs en mouvement les uns par rapport aux autres, il n'est pas surprenant que la forme d'un même objet varie également des uns aux autres. Pour rendre plus sensibles sur un exemple concret les caractères nouveaux du temps relatif, j'ai particulièrement insisté (38), (39), sur le paradoxe du temps propre, équivalent pour le temps à ce qu'est la contraction de Lorentz pour l'espace, et montré qu'il est impossible d'échapper à la conclusion que deux observateurs qui se séparent et se retrouvent n'auront pas, en général, tout en employant des horloges de construction identique, mesuré de la même manière l'intervalle de temps de leur séparation, ou, pour mieux dire, qu'ils n'auront pas vieilli de la même manière, celui qui aura le plus vieilli étant celui dont le mouvement aura été le plus voisin d'être uniforme au cours de la séparation. J'ai particulièrement insisté sur le fait que la nouvelle notion de temps ne conduit à aucune difficulté en ce qui concerne le principe de causalité si fion admet, conformément aux faits, qu'aucune liaison causale entre deux événements ne peut se transmettre, par signal ou messager, avec une vitesse supérieure à celle de la lumière. Les couples d'événements, dont l'ordre de succession peut être inversé par un changement du système de référence, sont précisément tels que, dans les conditions qui viennent d'être posées, aucune liaison causale ne peut exister entre eux.


3. Le facteur de Thomas

L'introduction de la relativité, jointe à celle du spin de l'électron dans le modèle d'atome de Bohr, a permis d'interpréter la structure fine du spectre de l'hydrogène ou les doublets des métaux alcalins, mais en laissant subsister une difficulté d'ordre cinématique qui obligeait à réduire de moitié, pour obtenir l'accord avec les faits dans la formule théorique, la vitesse angulaire de circulation de l'électron autour du noyau (facteur 1/2 de Thomas). j'ai pu montrer (48) que l'introduction de ce facteur est imposée par la cinématique même de la relativité restreinte si l'on tient compte de ce que le mouvement de l'électron considéré n'est pas une translation uniforme et que, pour l'obtenir, il faut composer des mouvements, dont les vitesses ont des directions différentes ; dans le mouvement de circulation, en particulier, le changement de vitesse, ou l'accélération, est à chaque instant perpendiculaire à la direction de la vitesse acquise. Or, la cinématique de la relativité présente ce caractère particulier que, par opposition avec ce qui se passe en cinématique du temps absolu, la composition de deux mouvements de translation ne donne pas une translation, mais fait apparaître en même temps une rotation. Exprimé sous une autre forme, ce résultat correspond au fait que deux transformateurs d'espace-temps de Lorentz ne sont commutables que si elles correspondent à des translations relatives de même direction. La rotation qui apparaît ainsi se traduit précisément, au point de vue de l'électron, par l'application du facteur de Thomas à sa vitesse angulaire autour du noyau de l'atome.


4. L'inertie de l'énergie et ses conséquences

Par diverses voies, toutes différentes de celle qu'a suivie M. Einstein, j'ai obtenu la dynamique nouvelle qui correspond au nouvel espace-temps (40), (46). Je reviendrai plus loin sur la plus importante de ces déductions de la dynamique compatible avec la cinématique du groupe de Lorentz, mais j'insisterai seulement ici sur les applications que j'ai faites du résultat le plus essentiel qui caractérise ce nouveau corps de doctrine, celui qui concerne l'inertie de l'énergie. A la conservation de la masse d'un système matériel, admise à priori par Newton et appliquée à la Chimie par Lavoisier, se trouve substitué un principe qui unifie en réalité les deux notions de masse et d'énergie et fait dépendre la conservation de la masse de celle de l'énergie ; de façon plus précise, la masse d'un système ne se conserve que si celui-ci n'échange avec l'extérieur ni matière ni rayonnement ; tout changement d'énergie interne se traduit par un changement de masse obtenu en divisant le change-ment d'énergie par le carré de la vitesse de la lumière. Il a fallu, pour permettre la découverte de ce principe, un bien long détour à travers la théorie électromagnétique et celle de la relativité. Cela tient à ce que les changements d'énergie que subit la matière dans les transformations physiques ou chimiques les plus profondes que nous savons provoquer, les réactions chimiques les plus violentes par exemple, ne correspondent qu'à des variations de masse tout à fait insensibles en raison de l'énormité du facteur que représente le carré de la vitesse de la lumière. Les réactions les plus exothermiques se traduisent par une variation de masse inférieure au milliardième, entre le composé et l'ensemble des composants. J'ai pu trouver (40) à la fois une confirmation remarquable du nouveau principe et la solution d'une difficulté qui arrêtait depuis plus d'un siècle la reconnaissance de l'unité de la matière, en interprétant par l'inertie de l'énergie les écarts entre les masses atomiques autres que celles de l'hydrogène et les multiples entiers de la masse atomique de ce dernier élément. Dans l'hypothèse de la masse absolue, ces écarts, voisins du centième et, par conséquent, incontestables, étaient inconciliables avec l'idée que les atomes pouvaient résulter de la condensation d'un nombre entier d'atomes d'hydrogène. Toute difficulté disparaît avec l'inertie de l'énergie : le poids atomique d'un corps quelconque se montrant toujours inférieur au multiple entier le plus voisin du poids atomique de l'hydrogène, nous devons en conclure que la condensation de l'hydrogène s'est accompagnée d'une perte d'énergie, comme l'exige la stabilité de l'atome. De plus l'écart mesuré, le défaut de masse, multiplié par le carré de la vitesse de la lumière donne immédiatement l'énergie dégagée par la condensation, par la formation des atomes lourds à partir de l'hydrogène. Ces énergies sont énormes par rapport à celles qui interviennent dans les réactions chimiques ordinaires, de l'ordre de dix millions de fois plus grandes, au moins. La condensation d'un gramme d'hydrogène en l'un quelconque des autres éléments dégagerait autant de chaleur que la combustion d'environ vingt tonnes de charbon. Il ne paraît pas probable que nous puissions jamais provoquer ou contrôler de semblables réactions, mais il est vraisemblable que la fournaise solaire en est alimentée. Jean Perrin a fait remarquer que la transformation en hélium ou en d'autres éléments d'une masse d'hydrogène égale à celle du Soleil suffirait pour entretenir le rayonnement actuel de celui-ci pendant plus de cent milliards d'années. Il semble, cependant, d'après les résultats récents de l'astrophysique sur l'évolution des étoiles et sur la disparition de la plus grande partie de leur masse au cours de cette évolution, que nous devions admettre la possibilité d'une transformation plus profonde encore de masse en énergie que la condensation de l'hydrogène pour donner d'autres atomes. Une destruction complète des corpuscules, dont la matière nous paraît constituée, doit être considérée comme possible, en particulier dans les conditions de température et de pression, très différentes des nôtres, qui règnent au sein des étoiles. Cette destruction de matière s'accompagnerait de l'émission d'un rayonnement dont l'énergie, par gramme de matière détruite, correspondrait à la chaleur dégagée par la combustion de plus de deux mille tonnes de houille. Par la découverte récente de l'électron positif et la constatation expérimentale de sa formation en même temps qu'un électron négatif aux dépens d'un photon, ainsi que du processus inverse de dématérialisation, avec la proportion prévue par la théorie entre les masses et les énergies, la doctrine de l'inertie de l'énergie, si féconde dans ses conséquences, a reçu une confirmation expérimentale éclatante.


5. L'expérience de M. Georges Sagnac et la relativité générale.

L'étape la plus importante dans le développement de la théorie de la relativité, celle où le génie de M. Einstein s'est le plus pleinement révélé, correspond certainement au passage de la relativité restreinte à la relativité généralisée, où l'extension du principe de relativité à un système de référence quelconque est apparu, non seulement possible et nécessaire, mais encore d'une fécondité imprévue en permettant de résoudre le problème de la gravitation et d'en tirer toute une série de conséquences nouvelles que l'expérience est venue confirmer. L'abandon du caractère euclidien de la géométrie qu'exigeait cette nouvelle étape s'est montré aussi fécond pour le moins que celui du temps absolu en relativité restreinte. Les partisans du mouvement absolu ont longtemps cherché à tirer argument d'une belle expérience de M. Sagnac, reprise depuis par M. Michelson pour mettre en évidence la rotation de la Terre, qui consiste à montrer que la propagation de la lumière ne se fait pas de la même manière pour des observateurs liés à un système en rotation que pour des observateurs galiléens, en particulier, que la lumière ne met pas le même temps pour parcourir dans les deux sens opposés un même circuit fermé, lié au système en rotation. La différence des durées de parcours, mesurée par une méthode interférentielle, se montre proportionnelle à la vitesse angulaire de rotation et à l'aire intérieure au circuit parcouru. On a voulu voir là une mise en évidence du mouvement absolu, du vent d'éther, que les expériences de translation du type de celle de Michelson se refusaient à déceler. J'ai pu montrer (42) que la manière la plus simple de comprendre l'expérience de M. Sagnac, sur laquelle d'ailleurs toutes les théories sont d'accord puisqu'elle est du premier ordre, est de se placer au point de vue de la relativité généralisée. Pour le système de référence non galiléen lié à la plate-forme en rotation, il existe, au sens de M. Einstein, un champ de gravitation qui se traduit au point de vue statique par l'apparition de la force centrifuge, et dont le tenseur fondamental possède des composantes mixtes d'espace et de temps qui donnent précisément lieu aux modifications dans la propagation de la lumière constatées par M. Sagnac. En se limitant aux termes du premier ordre en fonction de la vitesse angulaire, on retrouve exactement la formule donnée par la théorie du mouvement absolu et vérifiée par l'expérience. A ce point de vue, je considère l'expérience de M. Sagnac comme une des illustrations les plus intéressantes des conceptions de la relativité généralisée et comme une des applications les plus instructives du principe de relativité aux mouvements de rotation.


6. Les mouvements hyperboliques

Une autre catégorie intéressante et simple de systèmes de référence non galiléens est celle où les axes liés au système ont, par rapport à un système galiléen quelconque, un mouvement de translation d'accélération propre constante, c'est-à-dire qui sont le siège, au sens de M. Einstein, d'un champ de gravitation uniforme et constant. J'ai pu montrer (Cours du Collège de France) que ces systèmes sont les seuls dans lesquels une électrostatique soit possible (les systèmes galiléens en sont un cas particulier, celui d'accélération propre nulle) ; ce sont les seuls dans lesquels un corps électrisé lié au système, immobile par rapport à lui, ne donne lieu à l'émission d'aucun rayonnement. Cela permet de comprendre qu'il en soit ainsi pour un corps électrisé lié à la Terre, malgré l'existence du champ de gravitation de celle-ci qu'on peut considérer, en première approximation au moins, comme uniforme au voisinage du corps électrisé.


VII. Sur la chimie physique et la radioactivité


1. L'interprétation cinétique de la pression osmotique

Je passe rapidement sur diverses publications et interventions (49), (51), concernant la théorie des solutions et les différences essentielles qui séparent l'état dissous de l'état gazeux malgré l'analogie formelle de certaines lois, comme celle de la loi osmotique de Vant'Hoff avec la loi des gaz parfaits. J'insisterai seulement sur l'effort que j'ai fait (50) pour développer une théorie véritablement cinétique de la pression osmotique. Les expériences de Morse et de ses élèves, de Lord Berkeley et Hartley, ont montré que la loi de Vant'Hoff appliquée aux non électrolytes n'est exacte qu'en première approximation et que la pression osmotique augmente en général plus vite que la concentration, un terme parabolique en fonction de celle-ci s'ajoutant au terme linéaire, exactement comme ce serait le cas pour la pression d'un gaz dont les molécules se repousseraient au lieu de s'attirer comme le suppose la formule de Van der Waals. J'ai pu montrer que le rôle essentiel dans le phénomène de pression osmotique, dans l'équilibre entre une solution située d'un côté d'une paroi semi-perméable et le solvant pur situé de l'autre côté, est joué par les actions mutuelles entre les molécules du solvant et celles de la substance dissoute, par les mêmes forces qui empêchent ces dernières molécules de s'évaporer à la surface libre de la solution en raison de leur agitation thermique. Un raisonnement simple, fondé sur l'analyse des échanges de quantité de mouvement à travers une surface intérieure à la solution par l'intermédiaire des actions mutuelles des trois types, solvant-solvant, solvant-molécule dissoute, et molécules dissoutes entre elles, me permet de montrer que la différence totale des pressions supportées par les deux faces de la membrane semi-perméable comporte comme terme de premier ordre celui de Vant'Hoff, plus des termes du second ordre qui sont bien dans le sens donné par l'expérience si l'on suppose que, à volume égal, les molécules dissoutes attirent les molécules du solvant moins énergiquement que celles-ci ne s'attirent entre elles. Les considérations précédentes ont été confirmées par des raisonnements variés et ont provoqué des travaux de divers physiciens, de M. Paul Ehrenfest, en particulier.


2. Sur les intervalles d'émission des particules alpha

J'ai rappelé à propos des applications du calcul des probabilités comment j'ai pu montrer que le problème concernant la manière dont se répartissent, entre les diverses valeurs continument variables depuis zéro jusqu'à l'infini, les intervalles de temps entre les émissions de deux particules a consécutives par une source radioactive ; appartient à la catégorie des probabilités continues et conduit à prévoir une loi exponentielle suivant laquelle la probabilité est la plus grande pour les intervalles les plus courts et décroît constamment quand la grandeur de l'intervalle augmente. Une série de mesures faites par Mme Marie Curie et portant sur plus de dix mille intervalles a permis d'obtenir une excellente confirmation de la loi exponentielle (24).


3. Sur un problème d'activation par diffusion

J'ai eu récemment l'occasion de résoudre un intéressant problème de diffusion posé par des expériences de Mlle Chamié sur l'activation par les rayons de recul du Thorium C". Ces rayons de recul sont émis par un dépôt très mince de ThC que porte une lame métallique plane. Les atomes de ThC" projetés par la désintégration du ThC sont arrêtés dans l'air au voisinage de la source dans une couche dont l'épaisseur est donnée par le parcours de ces rayons de recul, soit 0,13 millimètre. Une fois arrêtés dans l'air à la fin de leur parcours, les atomes de ThC" participent à l'agitation thermique, diffusent à la manière d'un gaz mélangé à l'air et peuvent ainsi aller se déposer, en l'activant, sur une lame plane parallèle à la source, à distance connue de celle-ci. L'activation diminue, toutes choses égales d'ail-leurs, quand cette distance augmente et, en admettant que les atomes de ThC" sont immédiatement absorbés par les surfaces solides qu'ils rencontrent, j'ai pu montrer que cette diminution devait se faire suivant une loi hyperbolique dès que la distance est supérieure à l'épaisseur de la couche d'air dans laquelle se produit l'arrêt des rayons de recul (53). Les résultats expérimentaux de Mlle Chamié sont entièrement conformes à cette prévision, au degré de précision des mesures qui sont particulièrement délicates et demandent un très grand soin.


VIII. Grandeurs et unités


1. La classification des grandeurs

On sait tout l'intérêt que présentent les questions relatives aux grandeurs et aux unités, et les difficultés qu'éprouvent les physiciens à se mettre d'accord à leur sujet. Dans quels cas doit-on considérer que deux grandeurs sont de même nature et par conséquent doivent être mesurées avec une même unité, quelle est la part des conventions dans la constitution d'un système d'unités et jusqu'où peut-on réduire le nombre de ses unités fondamentales, quelle est la signification exacte des équations de dimensions par lesquelles s'expriment les conventions introduites et les relations qui en résultent entre les rapports dans lesquels varient simultanément les unités ou les mesures de plusieurs grandeurs? Ce sont là des problèmes qui reviennent constamment en discussion et pour la solution desquels il est nécessaire de mettre à profit toutes les sources d'information. C'est ainsi qu'on a trouvé le plus grand intérêt à examiner, pour classer les grandeurs, non seulement leurs équations de dimensions, c'est-à-dire la manière dont leurs mesures réagissent à un changement du système d'unités, mais encore la manière dont ces mesures réagissent à un changement des coordonnées d'espace, ou, de façon plus générale depuis la relativité, à un changement du système de référence dans l'espace-temps. L'influence d'un changement d'orientation des axes de coordonnées a introduit la classification des grandeurs entre scalaires, vecteurs et tenseurs d'espace de divers ordres ; l'influence d'une inversion dans le sens droit ou gauche du trièdre, d'un mirage, se traduit par l'introduction de la notion d'axialité et de la distinction entre scalaires, vecteurs, tenseurs polaires ou axiaux. Il est certain que deux grandeurs ne peuvent être considérées comme de même nature que si elles ont, non seulement mêmes équations de dimensions, mais encore même nombre de composantes réagissant de la même manière à une rotation ou à un changement de sens du trièdre des axes d'espace. J'ai exposé ces conceptions (54) il y a vingt ans, en me plaçant au point de vue de la géométrie ou de l'analyse vectorielle. Le développement de la relativité a introduit, avec la notion d'espace-temps, un regroupement des grandeurs sous forme de scalaires, vecteurs, tenseurs d'Univers de divers ordres, réunissant en un même vecteur la quantité de mouvement et l'énergie, en un même tenseur à six composantes le champ électrique et l'induction magnétique d'une part, l'induction électrique et le champ magnétique d'autre part, et ainsi de suite. Ces idées nouvelles sont venues introduire de nouveaux rapprochements et de nouvelles distinctions entre les grandeurs, deux grandeurs ne pouvant être considérées comme de même nature que si, en particulier, les nombres qui servent à mesurer leurs composantes réagissent de la même manière à un changement quelconque du système de référence (56). Il y a plus. La critique des postulats de la géométrie qu'a provoquée la théorie de la relativité généralisée a conduit à distinguer ceux de ces postulats qui donnent à la géométrie son caractère affine de ceux qui lui donnent son caractère métrique, euclidien ou non. Il est remarquable que, de même qu'on peut développer une géométrie affine et non métrique, certains chapitres de la physique comme l'électrostatique, par exemple, peuvent se développer, et les lois qui les concernent s'exprimer, sans que l'introduction de la métrique soit nécessaire. On est ainsi conduit à distinguer, dans ce qui concerne l'influence sur une grandeur d'un changement du système de référence, entre les changements qui conservent un invariant métrique, et ceux, plus généraux, où cette convention n'est pas faite. Il résulte de cette distinction une nouvelle classification des grandeurs et un nouveau type d'homogénéité qui peut rendre de grands services dans beaucoup de problèmes. J'ai développé ces idées dans mon enseignement du "Collège de France". Elles ont été reprises par M. Jacques Hadamard (Cours d'analyse de l'École Polytechnique, tome I, p. 599) et par M. Léon Brillouin.


2. Sur les grandeurs champ et induction

Les discussions, non encore terminées, qui se sont poursuivies depuis près de quinze ans à la "Société de Physique" et à la "Société des Électriciens" au sujet des unités de champ et d'induction magnétiques, m'ont donné l'occasion d'appliquer à ce problème particulier les considérations d'ordre général que je viens de rappeler. Elles m'ont conduit à revenir sur la définition de ces grandeurs champ et induction (56) aussi bien du côté électrique que du côté magnétique et à formuler ces définitions de manière immédiatement expérimentale et conforme en même temps aux rapprochements introduits par la théorie de la relativité. entre le champ électrique et l'induction magnétique, d'une part, l'induction électrique et le champ magnétique d'autre part. Le premier couple est défini par les actions qui s'exercent sur une particule électrisée en mouvement, le second par les nappes de charge ou de courant nécessaires pour faire écran contre ces actions. Ces définitions sont entièrement conformes aux caractères tensoriels que doivent avoir les grandeurs pour correspondre à la forme complètement invariante des équations de l'électromagnétisme pour toutes les transformations simplement affines du système de référence. Elles attribuent, en particulier, au champ et à l'induction magnétiques des caractères tensoriels différents et doivent par conséquent faire considérer ces grandeurs comme différentes ainsi que les unités servant à les mesurer. Deux grandeurs variables ne peuvent évidemment être dites de même nature que si l'une d'elles peut devenir égale à l'autre, et cette égalité, traduite par l'égalité des mesures, doit subsister quel que soit le système de coordonnées ou de référence employé ; l'égalité doit avoir une signification intrinsèque, indépendante du système de coordonnées. J'ai montré (57) que si on voulait admettre l'identité de nature du champ et de l'induction magnétiques ainsi que des unités servant à les mesurer, il en faudrait faire autant pour un gradient de température et un flux de chaleur, pour un champ électrique et une densité de courant, pour un gradient de concentration et un flux de substance, pour une vitesse et une densité de quantité de mouvement. Il importerait de généraliser ces distinctions et d'éviter des confusions qui résultent de dégénérescences liées à l'emploi de systèmes de référence trop particuliers dans lesquels, par exemple, un même champ de vecteurs intervient à la fois par son rotationnel et par sa divergence, et dans lesquels on affirme qu'un champ de vecteurs est déterminé quand on connaît son rotationnel et sa divergence. On se convainc facilement que, dans toutes les circonstances où cette affirmation correspond à une réalité physique, elle concerne, non pas un seul champ de vecteurs, mais bien un champ de vecteurs et une densité vectorielle associés dont les mesures et les distributions peuvent se trouver coïncider fortuitement par suite d'un choix particulier d'unités ou de l'emploi d'un système particulier de référence. L'énoncé général et vraiment physique est celui-ci : un champ de vecteurs et un champ de densité vectorielle, liés l'un à l'autre en chaque point par une relation vectorielle linéaire, sont entièrement déterminés quand on connaît le rotationnel du premier et la divergence du second. Le champ magnétique appartient à la première catégorie et n'intervient dans les équations de Maxwell que par son rotationnel, l'induction magnétique appartient à la seconde et n'intervient que par sa divergence.


IX. Sur la mécanique classique et les nouvelles mécaniques


1. La mécanique et la physique (46), (58).

Un des traits les plus caractéristiques dans l'histoire récente de la physique, au cours des deux crises récentes consécutives au développement de la théorie électromagnétique, celle de la relativité et celle des quanta, est le changement complet du rôle et de la situation attribués à la mécanique par rapport à l'ensemble des sciences de la nature. Le succès considérable des conceptions newtoniennes, de temps et d'espace absolus, de masse absolue, d'action instantanée à distance, notions a priori sur lesquelles était fondée la mécanique dite rationnelle, avait fait attribuer à cette partie de la science une situation privilégiée intermédiaire entre les mathématiques et les sciences physico-chimiques ou même biologiques ; elle semblait constituer le type achevé d'une représentation du réel et devoir servir de base et de modèle à tous les autres efforts d'explication. Tout devait se ramener à des raisons de mécanique ; les notions sur lesquelles cette science était fondée apparaissaient comme intangibles. La crise de la relativité, mettant en pleine lumière les raisons profondes du conflit entre la mécanique et l'électromagnétisme augmenté de l'optique, a montré combien étaient précaires et sans base expérimentale le temps, la masse et l'espace absolus et leur a substitué des notions compatibles avec le fait expérimental des actions de proche en proche propagées avec la vitesse de la lumière. La mécanique exigeait elle-même un remaniement profond et des bases nouvelles. j'ai pensé que le mieux était, dans ce but, de faire rentrer la mécanique dans la physique d'où elle n'aurait jamais dû sortir, et de la considérer comme un chapitre de celle-ci, celui qui traite du mouvement des corps à notre échelle, des lois qui régissent les changements de ce mouvement. Il était donc indiqué de placer à sa base les principes généraux de toute la physique, c'est-à-dire le principe de conservation de l'énergie, d'une part, et le principe de relativité d'autre part.


2. Déduction de la dynamique

En associant ces deux principes, j'ai pu démontrer un théorème très général qui, étant donnée une cinématique, permet d'en déduire une dynamique. La cinématique du temps absolu conduit ainsi nécessairement à la dynamique de Newton, dont se trouvent ainsi déduits les principes autrefois posés à priori, conservation de la masse et de la quantité de mouvement, expressions de celle-ci et de l'énergie cinétique en fonction de la vitesse, égalité de l'action et de la réaction, équation fondamentale de la dynamique du point, etc... Le fait, ainsi déduit, que la masse d'un corps est indépendante de son état interne ou, ce qui revient au même, de son énergie, correspond à une séparation complète de la mécanique et du reste de la physique. Cette séparation, qui avait été postulée en même temps que les notions a priori, nous apparaît ainsi comme liée à l'hypothèse du temps absolu et à la possibilité connexe d'une action instantanée à distance. Elle disparaît quand, à la cinématique du temps absolu, on substitue celle du temps relatif imposé par l'expérience et conforme à la théorie électromagnétique. Dans la dynamique déduite à partir des deux principes et de la cinématique nouvelle, la mécanique est effectivement réintégrée dans la physique ; l'inertie d'un corps varie avec son état interne, et le principe de la conservation de la masse est remplacé par celui de l'inertie de l'énergie. La conservation de la quantité de mouvement subsiste, mais la masse, définie comme quotient de la quantité du mouvement par la vitesse, varie avec celle-ci suivant la loi indiquée pour la première fois par Lorentz.


3. La dynamique des photons et l'effet Compton

La nouvelle dynamique est également celle qui convient aux photons, sous la forme limite où la vitesse du mobile est constamment égale à celle a de la lumière et sa masse propre nulle. Elle permet d'interpréter, dans le langage corpusculaire, les actions mécaniques exercées par la lumière conformément à la théorie électromagnétique, les échanges d'énergie et de quantité de mouvement entre la matière et le rayonnement. Pour traiter de manière précise et détaillée les problèmes relatifs à ces échanges entre matière et rayonnement, ainsi qu'aux équilibres statistiques auxquels ces échanges peuvent donner lieu, j'ai été conduit à examiner de plus près qu'on ne le fait d'ordinaire les questions de choc entre une particule matérielle et un photon, dont l'effet Compton, où la particule est supposée initialement immobile d'ordinaire, représente un cas très particulier. On peut mettre sous une forme particulièrement élégante et simple la solution de ces problèmes, même dans le cas général ou la particule peut changer d'état au cours du choc, en comparant les aspects présentés par le phénomène dans les deux systèmes de référence liés respectivement à la particule avant et après le choc. Dans le cas de l'effet Compton, où la particule matérielle ne subit aucun changement d'état pendant le choc, on obtient ce résultat remarquable que la fréquence du photon diffusé est la même par rapport à la particule après le choc que celle du photon incident par rapport à la particule avant le choc, et réciproquement, la fréquence du photon incident par rapport à la particule après le choc est la même que celle du photon diffusé par rapport à la particule avant le choc.


4. L'équilibre entre la matière et le rayonnement

Si l'on cherche quelle doit être, en dynamique de la relativité, la distribution des vitesses entre particules matérielles qui correspond à l'équilibre thermique, on trouve une distribution généralisant celle de Maxwell. Cette distribution possède la propriété, analogue à celle démontrée par Boltzmann en théorie cinétique classique, que chaque processus élémentaire de choc y est exactement compensé par le processus inverse. Si l'on cherche, en faisant intervenir les chocs entre, particules matérielles et photons, quelle est la distribution de ces photons entre les fréquences, pour laquelle chaque processus élémentaire d'échange entre photons et particules, ces dernières pouvant ou non changer d'état au cours du choc, est exactement compensé par le processus inverse, il est remarquable qu'on trouve, comme solution unique compatible avec la dynamique de la relativité, la loi du rayonnement noir de Planck, la seule également qui soit conforme à l'expérience. Ainsi peut s'édifier, dans la conception corpusculaire de la matière et du rayonnement, une théorie cinétique entièrement cohérente à condition de lui donner pour base la dynamique de la relativité restreinte, applicable aux corpuscules matériels comme à ceux qui composent le rayonnement.


5. Les chocs entre particules rapides

J'ai pu mettre sous une forme particulièrement élégante la solution des problèmes de choc où interviennent des particules extrêmement rapides comme celles qui constituent les rayons cosmiques électroniques, et résoudre la question de savoir si le choc de ces électrons de grande énergie, et par conséquent de grande masse, contre des noyaux atomiques, pouvait donner lieu à un retour vers l'arrière de l'électron rapide bien que sa masse puisse être supérieure à celle du noyau rencontré. En mécanique classique, une semblable réflexion ne peut avoir lieu que si la particule incidente est de masse inférieure à celle de la particule rencontrée, supposée primitivement immobile. En dynamique de la relativité, le calcul montre que la possibilité de semblables réflexions est déterminée par les masses au repos ou masses propres des particules en collision et non par les masses fonction de la vitesse, égales au quotient de l'énergie des particules par le carré de la vitesse de la lumière. Il résulte de là qu'un électron, quelle que soit son énergie et par conséquent sa masse, se réfléchira toujours, dans un choc central conservatif, sur une particule de masse propre supérieure à la sienne. Les rayons cosmiques de toute énergie peuvent par conséquent se réfléchir sur les noyaux atomiques et donner lieu à un rayonnement pénétrant se propageant vers le haut en sens inverse du sens habituel.


6. La crise du déterminisme

La tentative faite par Niels Bohr et Arnold Sommerfeld pour fonder une théorie de l'atome sur la quantification des mouvements des électrons autour du noyau s'est montrée particulièrement féconde, surtout en spectroscopie où elle a permis, grâce à l'introduction des nombres quantiques, une classification systématique des raies ainsi que l'interprétation des spectres de bandes. Malgré la concordance quantitative remarquable entre cette théorie et l'expérience dans le cas où un seul électron est supposé circuler dans le champ électrique qui entoure le noyau, les désaccords graves qui apparaissent dès qu'on aborde le cas de deux électrons n'ont pas permis de poursuivre plus loin le développement de cette image planétaire de l'atome où les électrons sont assimilés à des mobiles qu'on peut suivre individuellement sur leur trajectoire, par extrapolation à l'échelle atomique des notions habituelles en mécanique et créées pour rendre compte du mouvement des corps à notre échelle. On sait de quelle façon brillante il a été possible de surmonter ces difficultés par le développement de la mécanique ondulatoire ou quantique qui réalise, par rapport à la mécanique des trajectoires, le même progrès qu'avait réalisé l'optique physique ou ondulatoire par rapport à l'optique géométrique ou optique des rayons. On cesse, dans la nouvelle dynamique, de chercher à suivre les corpuscules individuels sur leurs trajectoires, non plus que les photons le long des rayons lumineux ; la liaison entre les ondes et les corpuscules, en mécanique comme en optique, est considérée comme n'ayant pas un caractère individuel, mais seulement statistique, l'onde déterminant à chaque instant la probabilité de présence d'un corpuscule en chaque point. L'impossibilité fondamentale de suivre le comportement individuel d'un corpuscule, au sens de la mécanique des trajectoires, a été exprimé par M. Werner Heisenberg sous une forme qui a été accueillie avec une grande faveur, celle du principe d'indétermination, en vertu duquel il est impossible de déterminer à la fois avec précision la position et la vitesse d'un corpuscule, la limite au-dessous de laquelle il est impossible d'abaisser le produit des erreurs sur une coordonnée et sur le moment cinétique correspondant étant déterminé par la constante h de M. Max Planck. Ce principe a donné lieu à des interprétations qui sont allées Jusqu'à l'affirmation d'une indétermination fondamentale des lois de la nature, si ce n'est d'un libre arbitre des électrons ou même des photons. J'ai jugé nécessaire de faire observer (60) que les difficultés rencontrées par la tentative de représenter les phénomènes à l'échelle atomique au moyen des concepts d'objet, de mobile et de trajectoire individuels élaborés pour rendre compte des faits mécaniques à notre échelle, signifiaient simplement que l'extrapolation ainsi tentée n'était pas légitime, que le monde intra-atomique ne connaissait rien de tel que la particule individualisable et que des notions nouvelles devaient être créées pour rendre compte des faits observés dans ce domaine nouveau. Il s'agit en réalité, non pas d'une crise du déterminisme, mais d'une crise du mécanisme. L'indétermination de la réponse tient à la manière incorrecte dont la question est posée ; elle infirme simplement l'image mécaniste au moyen de laquelle nous interrogeons la nature quand nous voulons connaître à la fois la position et la vitesse d'un corpuscule. C'est parce que nous avons postulé celui-ci que nous croyons pouvoir conclure à l'indétermination de son mouvement. Ce langage n'est pas adapté à la réalité nouvelle qu'il s'efforce d'exprimer. La notion d'individualité du corpuscule doit être abandonnée ; on doit reconnaître que la question de déterminer à la fois sa position et sa vitesse n'a pas de sens, qu'on ne saurait suivre dans son comportement un objet qui n'existe pas, et encore moins le considérer comme libre. Les discontinuités indiscutables que représentent les électrons, photons ou autres soi-disant corpuscules, semblent devoir être considérées comme correspondant à des degrés successifs d'excitation de certains états stationnaires que l'image ondulatoire représente comme des systèmes d'ondes stationnaires. Seul importe le nombre de degrés d'excitation de chacun de ces états, sans qu'il y ait lieu d'attribuer une individualité à chacun de ces degrés. Seuls les états en ont une. Je trouve un argument très fort en faveur de cette conception, de la nécessité d'abandonner la notion du corpuscule individualisable, dans le succès des statistiques nouvelles, de Bose-Einstein et de Pauli-Fermi qui' diffèrent de l'ancienne statistique de Boltzmann-Gibbs, contredite par l'expérience, précisément en ce qu'elles renoncent à attribuer une individua-lité aux électrons, photons, atomes ou molécules et n'en reconnaissent une qu'aux états stationnaires engendrés par les ondes. Bien plutôt que dans la révélation d'une indétermination fondamentale des lois de la nature, inconciliable avec l'attitude scientifique qui postule au contraire l'intelligibilité, la possibilité d'une représentation cohérente de la réalité, je vois la grande valeur des nouvelles doctrines dans l'analyse qu'elles ont exigé du rôle de l'observateur et du sens de la mesure. Ce qu'elles ont révélé, c'est bien plutôt l'intervention nécessairement finie du sujet que l'indétermination fondamentale de l'objet.


X. Sur l'acoustique et les ultrasons


1. Les ultrasons

L'intérêt que présentent les ondes ultrasonores, c'est-à-dire les ondes élastiques de fréquence égale ou supérieure à 20.000 cycles par seconde, au point de vue de la détection ou de la signalisation sous-marines dirigées, a été signalé depuis plus de vingt ans comme conséquence du fait, établi par Lord Rayleigh, qu'une source de dimensions suffisamment grandes par rapport à la longueur d'onde émise localise automatiquement l'énergie rayonnée dans le milieu sous forme d'un faisceau d'autant plus étroitement limité autour de la normale à la surface émettrice supposée plane, que le rapport des dimensions de celle-ci à la longueur d'onde est plus grand. Les choses se passent très exactement comme dans le cas de la diffraction d'une onde plane périodique par une ouverture ayant les dimensions de la source, la mise en vibration de celle-ci étant supposée synchrone dans toute son étendue. On doit prévoir en même temps, par application du principe de réciprocité, que cette directivité à l'émission doit s'accompagner d'une directivité à la réception si une onde plane incidente venant du milieu rencontre une surface de même étendue que la source précédente et si les impulsions qu'elle apporte aux divers éléments de la surface réceptrice se composent pour déterminer l'excitation de l'appareil récepteur. Un physicien anglais, M. Richardson, avait proposé en 1912, après la catastrophe du "Titanic", d'utiliser de semblables faisceaux ultrasonores pour la détection dirigée des icebergs par l'intermédiaire de l'écho que ceux-ci peuvent renvoyer, leur distance se déduisant de l'intervalle écoulé entre l'émission d'un signal ultrasonore et la réception de l'écho ; la direction de l'obstacle est celle dans laquelle doit être orienté le faisceau, c'est-à-dire normale au plan de la source, pour que l'écho perçu ait le maximum d'intensité. Aucun procédé pratique n'était indiqué pour émettre ou déceler les ondes employées. M. Constantin Chilowsky, remarquant que les fréquences ultrasonores de. l'ordre de 20.000 à 40.000 qui correspondent, dans l'eau, aux longueurs d'onde de quelques centimètres pratiquement utilisables, sont précisément celles que les appareils d'émission de télégraphie sans fil permettent de produire sous forme d'oscillations électriques de grande énergie (longueur d'onde hertzienne de 15.000 à 7.500 mètres) , proposa d'utiliser ces oscillations électriques pour produire des oscillations élastiques ultrasonores au moyen d'un appareil de transformation convenablement disposé. Après avoir réalisé cette transformation au moyen d'un condensateur à lame mince de mica et rencontré des difficultés de divers ordres dans son utilisation pratique aussi bien que dans la réception des ondes ultrasonores au moyen d'un microphone immergé, je fus conduit à employer, d'abord pour la réception et ensuite pour l'émission, l'intermédiaire entre les phénomènes électriques et les phénomènes élastiques que représente la piézoélectricité, découverte trente-cinq ans auparavant par Pierre et Jacques Curie et qui n'avait encore reçu aucune application en raison de la petitesse de ses effets (61), (62), (65).


2. La solution piézo-électrique

Le fait qu'une lame de quartz, convenablement taillée, se polarise électriquement quand on la comprime, permettait, grâce à l'existence des nouveaux amplificateurs à lampes triodes, de déceler au moyen d'un condensateur dont le diélectrique était constitué par une semblable lame et dont une armature était en contact avec l'eau, les variations périodiques de pression représentées par l'arrivée d'un train d'ondes ultrasonores. Le résultat fut si encourageant que je cherchai à utiliser pour l'émission des ondes ultrasonores la propriété du quartz, prévue par Gabriel Lippmann comme réciproque de la précédente, de se dilater ou de se contracter quand on le soumet à l'action d'un champ électrique, suivant le sens de celui-ci. Un condensateur à lame de quartz, intercalé dans un circuit électrique oscillant, doit se dilater et se contracter synchroniquement dans toute sa surface, au rythme des oscillations électriques, et, par conséquent, s'il est en contact avec l'eau, émettre dans celle-ci des ondes ultrasonores. La petitesse des déformations réalisables sans employer des différences de potentiel trop élevées constituait une difficulté sérieuse pour l'application de cette méthode.


3. Utilisation de la résonance

J'ai pu faire un premier pas décisif dans la solution de cette difficulté en utilisant la résonance entre l'excitation électrique de la lame de quartz et la fréquence propre de sa vibration élastique fondamentale dans le sens de son épaisseur. L'expérience, réalisée avec une lame de quartz exceptionnellement pure, d'un décimètre carré de surface, de quinze millimètres d'épaisseur et dont la fréquence propre fondamentale était de 160 kilo-cycles par seconde, m'a permis de vérifier quantitativement l'exactitude de mes prévisions et d'émettre dans l'eau un faisceau d'ultrasons représentant une puissance voisine d'un kilowatt sous une différence de potentiel efficace de 50.000 volts entre les armatures du condensateur dont cette lame de quartz constituait le diélectrique (65).


4. La tri-lame quartz-acier

Le problème pratique n'était cependant pas résolu ; les différences de potentiel nécessaires étaient trop élevées et les fréquences propres des lames de quartz d'épaisseur acceptable beaucoup trop grandes aussi, les ondes ultrasonores correspondantes, dont le coefficient d'absorption dans l'eau est proportionnel au carré de la fréquence, n'ayant pas une portée assez grande pour les applications pratiques. La solution m'est apparue en étudiant théoriquement la manière dont se comporterait un condensateur dont le diélectrique serait une lame de quartz mince de quelques millimètres d'épaisseur et dont les armatures seraient des lames métalliques épaisses, élastiquement solidaires du quartz par l'intermédiaire d'un collage énergique, l'épaisseur totale du bloc ainsi constitué étant telle que sa fréquence propre fondamentale de vibration élastique dans le sens de cette épaisseur soit précisément la fréquence des ondes à émettre, soit six centimètres avec des lames d'acier pour une fréquence de 40.000 périodes par seconde. Le calcul m'a montré que, à la résonance, les ondes émises dans l'eau par un tel triplet en contact avec elle par une de ses faces aurait une amplitude au départ 25 fois plus grande que celle de la déformation statique de la lame de quartz sous l'action de la différence de potentiel employée entre les armatures du condensateur, le rapport des énergies émises sous forme d'ondes, égal au carré de celui des amplitudes, prenant ainsi la valeur 625, tout à fait suffisante pour permettre un emploi pratique de l'appareil. Celui-ci, capable d'émettre une puissance importante lorsqu'il est excité par une oscillation électrique, fonctionne en même temps comme récepteur accordé sur sa fréquence propre et pourvu d'une excellente directivité à la réception comme à l'émission. Le triplet quartz-acier joue ainsi, pour la transformation des oscillations électriques en ondes ultrasonores à l'émission et pour la transformation inverse des ondes ultrasonores en oscillations électriques à la réception, exactement le même rôle que l'antenne en radiotechnique pour l'émission et la réception des ondes hertziennes (62).


5. La pression de radiation

L'expérience est venue confirmer entièrement ces prévisions. Pour ce qui concerne l'émission, j'ai employé, dès le début de ces recherches, et j'utilise couramment dans la pratique, un moyen de contrôle très simple de l'émission d'ondes élastiques dans l'eau et en même temps de mesure pour la puissance représentée par ces ondes. J'ai pu en effet démontrer qu'une surface solide, en contact avec un fluide et rencontrée par des ondes élastiques propagées dans ce fluide, subit de la part de celui-ci un supplément de pression égal à la densité d'énergie représentée par ces ondes dans l'unité de volume. Un pendule de torsion placé en face de l'émetteur permet ainsi le contrôle et la mesure du fonctionnement de celui-ci.


6. Les appareils de sondage

La principale application faite jusqu'ici, de ces appareils, consiste à réaliser un sondage sous-marin pratiquement continu en disposant le triplet sous la coque du navire, avec sa surface émettrice horizontale et en lui faisant émettre, toutes les secondes par exemple, si l'on ne désire pas sonder plus bas que 700 mètres (la vitesse du son dans l'eau étant comprise entre 1.400 et 1.500 mètres par seconde), un signal ultrasonore de très courte durée, de l'ordre du millième de seconde, et en mesurant ou enregistrant, par un procédé quelconque, l'intervalle de temps qui s'écoule entre le départ du signal et le retour de l'écho produit par la réflexion sur le fond. Le signal très bref s'obtient en excitant l'appareil ultrasonore au moyen des oscillations électriques amorties produites dans le circuit dont fait partie le condensateur à quartz par une seule interruption dans le circuit primaire d'un transformateur alimenté en courant continu et dont le secondaire agit par induction sur le circuit oscillant (64). Divers perfectionnements, tels que l'introduction d'un enregistrement électrolytique m'ont permis de simplifier beaucoup l'appareillage nécessaire pour obtenir un relevé continu des variations du fond au long de la route d'un navire (67). Je dois rappeler ici que la recherche d'une solution au problème ultrasonore. qui m'a demandé trois années d'efforts, et le perfectionnement continu depuis lors, ont été effectués avec la collaboration de MM. Constantin Chilowsky, Marcel Tournier, Fernand Holweck, Florisson et Touly à qui je tiens à exprimer ici toute ma gratitude.


7. La stabilisation des fréquences

La possibilité, que j'ai indiquée au cours du précédent travail, d'utiliser la résonance entre les vibrations élastiques d'une lame de quartz et les oscillations électriques dans un circuit dont le condensateur contient la lame de quartz comme diélectrique, pour réaliser un couplage piézoélectrique, a reçu une application importante en radiotechnique. M. Cady a remarqué qu'on pouvait utiliser la réaction du quartz sur le circuit pour stabiliser, au voisinage immédiat d'une fréquence propre du quartz, la fréquence des oscillations entretenues par un poste à lampes. Cette solution d'un important problème technique voit généraliser de plus en plus son emploi ; elle permet de régler la fréquence des oscillations électriques avec une extraordinaire précision si l'on a soin de maintenir la lame de quartz à température constante. Cette lame joue ainsi le rôle d'un chef d'orchestre qui bat la me-sure pour les oscillations électriques et pour les ondes hertziennes émises par celles-ci. Les fréquences utilisées étant très élevées, pour la radiophonie en particulier, les dimensions des lames de quartz nécessaires pour cet usage sont très petites.


8. Mesure des intensités sonores

J'ai montré, en collaboration avec M. Ishimoto, que, moyennant une amplification convenable et une détection appropriée, une lame de quartz soumise, dans l'air, à l'action d'ondes sonores, permet de mesurer la puissance représentée par un son continu ou l'énergie représentée par un bruit. La sensibilité peut être rendue très grande, égale ou supérieure à celle de l'oreille.


9. Divers problèmes d'acoustique

J'ai eu l'occasion, en liaison avec les recherches de M. Jean Perrin, de traiter divers problèmes d'acoustique concernant la propagation du son dans des tuyaux de diverses formes et les phénomènes de réflexion qui se produisent aux changements de section, ainsi que d'autres problèmes concernant les fréquences propres de vibration de l'air à l'intérieur de cavités de formes variées. J'ai également, dans mon enseignement du Collège de France, examiné en détail diverses questions. En premier lieu, j'ai étudié l'absorption des ondes élastiques due à la conductibilité calorifique du milieu entre les régions échauffées par la compression et les régions refroidies par la détente qui se succèdent à l'intervalle d'une demi-longueur d'onde. Le phénomène irréversible de conduction thermique produit une dégradation d'énergie, et la transformation progressive en chaleur de l'énergie mécanique, cinétique et potentielle, représentée initialement par l'onde. J'ai, d'autre part, repris la question du changement de type des ondes résultant du fait que les différentes parties d'un train d'ondes ne se propagent pas avec la même vitesse, les régions condensées se propageant en général plus vite que les régions dilatées. Cela conduit à un redressement progressif de front d'une onde primitivement sinusoïdale et à des effets de déferlement. J'ai montré que ceux-ci ne peuvent pas intervenir de manière appréciable dans la propagation des ondes sonores d'intensité usuelle ; ils n'apparaissent, dans l'air ou dans l'eau, que pour des amplitudes ou des intensités déjà très grandes (78).


10. Le mirage ultrasonore et la directivité en acoustique sous-marine, (75), (77).

J'ai été conduit à étudier les effets de mirage qui accompagnent la propagation des ondes sonores lorsque la vitesse de celles-ci varient d'un point à l'autre du milieu, comme c'est le cas sous l'influence des variations de température et de pression avec la profondeur, et comment il est possible d'introduire les corrections correspondantes en technique ultrasonore. J'ai montré également comment il est possible d'appliquer à cette technique le principe de réciprocité qu'imposent la forme des équations de propagation des ondes dans le milieu et les liaisons entre celui-ci et les appareils d'émission ou de réception. On en peut déduire des résultats très généraux concernant la directivité de ces appareils.


XI. Divers problèmes techniques


1. L'enregistrement des pressions et les coups de bélier

La possibilité de construire, avec le quartz associé à un amplificateur à lampes, un appareil sensible à la pression et capable d'en suivre les variations avec une extrême rapidité, m'a conduit à réaliser, en collaboration avec MM. R. Hocart et André Langevin, un enregistreur oscillographique des variations de pression, particulièrement précieux pour l'étude des coups de bélier dans les conduites d'eau ou les variations de la pression artérielle, (85), (86). Cette méthode piézoélectrique, indépendamment de sa rapidité et de son apériodicité, a en même temps l'avantage d'une très grande souplesse d'adaptation puisqu'elle permet d'observer et d'enregistrer avec une égale précision relative des variations de pression très faibles ou très fortes, jusqu'à des milliers d'atmosphères s'il est nécessaire.


2. L'équilibre des rotors

Un banc d'équilibrage piézoélectrique permet d'observer avec beaucoup de précision les variations périodiques d'efforts sur les appuis qui accompagnent la rotation d'un système non équilibré et de déterminer expérimentalement les corrections nécessaires pour amener la coïncidence de l'axe de rotation avec un axe principal d'inertie (84).


3. Les courants d'air de grande vitesse (80)

En évacuant par une tuyère convergente-divergente un réservoir initialement rempli d'air comprimé, il est possible d'obtenir une veine gazeuse de vitesse supérieure à celle du son et d'y étudier, par voie d'enregistrement, les efforts exercés sur des modèles convenablement suspendus. J'ai pu, à cette occasion, vérifier expérimentalement l'exactitude des formules qui régissent la détente et l'écoulement d'un gaz comprimé. Une application intéressante de cette méthode a consisté à vérifier expérimentalement l'exactitude de la loi proposée par M. Gabriel Darrieus pour exprimer la variation de la résistance de l'air en fonction de la vitesse du mobile lorsque cette vitesse peut atteindre ou dépasser la valeur critique représentée par la vitesse du son (81). Cette étude des effets produits par les courants d'air de grande vitesse a été poursuivie avec la collaboration de MM. P. Vaillant et Jean Saphores que je suis heureux de pouvoir remercier ici.


4. Les effets propulsifs de la détente des gaz

Un dispositif imaginé par M. Delamare-Maze m'a donné l'occasion d'étudier les effets propulsifs produits dans des tuyères par la détente des gaz et de contribuer par là à la solution du problème des fusées (82). J'ai résolu également, en liaison avec les recherches d'astronautique de M. Esnault-Pelterie, un intéressant problème de calcul des variations posé par la question du rendement des fusées et de la loi suivant laquelle doit varier leur propulsion en fonction du temps pour leur permettre de monter le plus haut possible pour une charge totale déterminée.


5. La haute fréquence électrique par étincelles (79)

M. Bouthillon ayant réalisé un dispositif radiotélégraphique à étincelles musicales produites au moyen d'un éclateur tournant, je me suis proposé de chercher quelles réactions résultent, dans les diverses parties du circuit, des discontinuités introduites par les éclatements périodiques de ces étincelles. La solution que j'en ai donnée, au moyen d'une analyse harmonique appropriée, peut être transposée dans d'autres cas semblables qui ne se traitent pas facilement par les méthodes habituelles de l'électrotechnique, à cause de l'intervention des discontinuités.


  • Professeur au Collège de France, directeur de l' École de Physique et de Chimie industrielles, président du comité scientifique de l' Institut international de physique Solvay.


Table des matières.


Fonctions et titres

  • Parcours
  • Affiliations institutionnelles
  • Prix de l'Institut

Liste des publications

  • Sur les rayons de Röntgen et l'ionisation des gaz
  • Sur les ions de l'atmosphère et les particules en suspension
  • Sur la théorie cinétique et la thermodynamique
  • Sur la théorie électromagnétique et les électrons
  • Sur la théorie du magnétisme et l'orientation moléculaire
  • Sur le principe de relativité et l'inertie de l'énergie
  • Sur la chimie physique et la radioactivité
  • Grandeurs et unités
  • Sur la mécanique classique et les nouvelles mécaniques
  • Sur l'acoustique et les ultrasons
  • Divers problèmes techniques
  • Enseignement et pédagogie
  • Publications diverses
  • Conférences


Introduction

I. Sur les rayons de Röntgen et l'ionisation des gaz

  • 1. Les rayons secondaires des rayons de Wilhelm Röntgen
  • 2. L'ionisation des gaz
  • 3. Les mobilités des ions
  • 4. Le coefficient de recombinaison
  • 5. Recombinaison et diffusion
  • 6. La recombinaison initiale et l'ionisation en colonnes
  • 7. Le rapport epsilon
  • 8. Les vitesses de réaction et la conductibilité des électrolytes
  • 9. Variation de epsilon avec la pression
  • 10. La charge et la valence des ions
  • 11. La nature des ions
  • 12. Les courbes de saturation
  • 13. La technique électro-métrique

II. Sur les ions de l'atmosphère et les particules en suspension

  • 1. La conductibilité de l'atmosphère
  • 2. Les gros ions
  • 3. Origine et nature des gros ions
  • 4. La numération des particules et le dépoussiérage
  • 5. L'effet photoélectrique sur l'air
  • 6. Courants dans les récipients clos
  • 7. La formation des nuages
  • 8. L'électromètre enregistreur

III. Sur la théorie cinétique et la thermodynamique

  • 1. La méthode des libres parcours
  • 2. La méthode de James Clerk Maxwell
  • 3. Les chocs exceptionnels
  • 4. Le mouvement brownien
  • 5. Les applications du calcul des probabilités
  • 6. Principe de Carnot et applications à la thermodynamique

IV. Sur la théorie électromagnétique et les électrons

  • 1. La physique des électrons
  • 2. L'origine des radiations et l'inertie
  • 3. La propagation du rayonnement dans la matière et le bleu du ciel
  • 4. La loi du déplacement de Wilhelm Wien

V. Sur la théorie du magnétisme et l'orientation moléculaire

  • 1. Le diamagnétisme
  • 2. Les moments de circulation et le spin
  • 3. Les effets gyromagnétiques
  • 4. Le paramagnétisme et la loi de Pierre Curie
  • 5. L'obtention des basses températures
  • 6. Paramagnétisme et théorie des quanta
  • 7. Les constantes diélectriques
  • 8. Les moments moléculaires
  • 9. Le ferromagnétisme
  • 10. Les biréfringences électrique et magnétique

VI. Sur le principe de relativité et l'inertie de l'énergie

  • 1. La contraction de Hendrik Antoon Lorentz
  • 2. Le paradoxe du temps propre
  • 3. Le facteur de Llewelyn Thomas
  • 4. L'inertie de l'énergie et ses conséquences
  • 5. L'expérience de Georges Sagnac et la relativité générale
  • 6. Les mouvements hyperboliques

VII. Sur la chimie physique et la radioactivité

  • 1. L'interprétation cinétique de la pression osmotique
  • 2. Sur les intervalles d'émission des particules alpha
  • 3. Sur un problème d'activation par diffusion

VIII. Grandeurs et unités

  • 1. La classification des grandeurs
  • 2. Sur les grandeurs champ et induction

IX. Sur la mécanique classique et les nouvelles mécaniques

  • 1. La mécanique et la physique
  • 2. Déduction de la dynamique
  • 3. La dynamique des photons et l'effet Compton
  • 4. L'équilibre entre la matière et le rayonnement
  • 5. Les chocs entre particules rapides
  • 6. La crise du déterminisme

X. Sur l'acoustique et les ultrasons

  • 1. Les ultrasons
  • 2. La solution piézoélectrique
  • 3. Utilisation de la résonance
  • 4. La tri-lame quartz-acier
  • 5. La pression de radiation
  • 6. Les appareils de sondage
  • 7. La stabilisation des fréquences
  • 8. Mesure des intensités sonores
  • 9. Divers problèmes d'acoustique
  • 10. Le mirage ultrasonore et la directivité en acoustique sous-marine

XI. Divers problèmes techniques

  • 1. L'enregistrement des pressions et les coups de bélier
  • 2. L'équilibrage des rotors
  • 3. Les courants d'air de grande vitesse
  • 4. Les effets propulsifs de la détente des gaz
  • 5. La haute fréquence par étincelles


  • Source: Société générale d'imprimerie et d'édition