Le siècle des Quanta La mise en œuvre de la mécanique quantique

, par  Administrateur, Amessi , popularité : 1%

Muni de cette interprétation, le formalisme de la mécanique quantique pouvait alors être mis en œuvre pour explorer les mondes nouveaux annoncés par Jean Perrin.

Il convient de noter que plus de soixante dix ans après sa formulation, la complémentarité garantit la fiabilité du formalisme dans toutes les situations où on a eu à l’utiliser : jusqu’à présent, jamais la mécanique quantique n’a été mise en défaut.

 La mise en œuvre de la mécanique quantique

  III-1 L’élucidation des problèmes laissés en suspens par la physique classique

Le rayonnement du corps noir et l’effet photoélectrique ne sont que les premiers de toute une série de problèmes, laissés en suspens par la physique classique et élucidés par la mécanique quantique.

Une fois qu’on eut découvert que l’atome n’est pas ponctuel mais qu’il comporte un noyau autour duquel orbitent des électrons, seule la mécanique quantique permit de pallier les insuffisances de la physique classique :

Le concept strictement quantique d’état stationnaire permet de rendre compte de la stabilité des atomes, une stabilité incompréhensible en mécanique classique :

Selon la théorie, classique, de Maxwell, les électrons orbitant autour du noyau, devraient perdre de l’énergie par rayonnement électromagnétique continu, et ils devraient finir par s’effondrer sur le noyau ; aucun atome ne pourrait être stable>Seule la quantification de l’énergie est susceptible de rendre compte de l’existence de spectres discrets caractéristiques des différentes espèces d’atomes de et de molécules.

Classiquement, il n’y a aucune raison pour que deux atomes d’une même espèce soit strictement identiques (les trajectoires de leurs électrons n’ont a priori aucune raison d’être identiques). Or l’expérience montre que, partout dans l’univers, tous les atomes d’une même espèce sont strictement identiques. Une telle identité est trivialement obtenue en mécanique quantique.

Cette identité des atomes est aussi à la base de l’identité des instruments de mesure au repos, qui est nécessaire à l’établissement de la théorie de la relativité. C’est ce qui fait dire à Yves Pierseaux que la théorie de la relativité restreinte d’Einstein comporte, parmi ses prémisses une hypothèse presque déjà quantique.

  Notons deux autres problèmes de la physique classique élucidés grâce à la mécanique quantique :

 Seul le principe d’exclusion de Pauli permet de comprendre pourquoi la matière ne s’effondre sur elle-même pas sous l’effet de la gravitation universelle ;

La thermodynamique statistique ne peut être fondée sur des bases solides que grâce à la mécanique quantique. Sans le troisième principe (dit de Nernst) selon lequel l’entropie est nulle à température absolue nulle, l’entropie ne serait définie qu’à une constante additive près ; or ce principe est strictement de nature quantique. De même la notion de nombre de complexions qui avait été vivement critiquée par Einstein, pour son manque de justification en physique classique a pu être remplacée par la notion de nombre de microétats quantiques, donnant lieu à une définition rigoureuse de l’entropie. C’est un raisonnement de nature quantique qui a permis à Léon Brillouin « d’exorciser le démon de Maxwell » et de donner à l’entropie une interprétation informationnelle.

  III-2 La statistique quantique et la physique des états de la matière

La statistique quantique est la branche de la physique qui prend en compte simultanément les constantes universelles h (la constante de Planck) et k (la constante de Boltzmann). Cette discipline a donné accès à un très grand nombre de découvertes et d’applications technologiques. Dans certaines conditions, en particulier à très basse température, mais pas seulement, il peut arriver que les effets quantiques sortent du domaine ultra microscopique, et que de nouveaux états de la matière, caractérisés par des propriétés surprenantes (comme la superfluidité ou la supraconductivité) deviennent accessibles à l’expérimentation et à l’utilisation dans diverses applications.

Au plan théorique, la résolution de certaines difficultés a permis de faire de nouveaux progrès en physique quantique. Ainsi il apparaît qu’en statistique quantique, la symétrie ou l’antisymétrie par permutation de particules identiques introduit des corrélations même en l’absence d’interaction. Or de telles corrélations sont extrêmement gênantes lorsque l’on veut appliquer les méthodes statistiques. La méthode dite de la « seconde quantification » permet de résoudre ce problème. Les états quantiques du système sont décrits dans un nouvel espace de représentation, l’espace de Fock, qui est un empilement infini d’espaces de Hilbert, l’espace de Hilbert à zéro particule (le vide), l’espace à une particule, l’espace à deux particules, etc.

De nouveaux opérateurs, les opérateurs de création et d’annihilation d’une particule, font passer d’un espace de Hilbert à un autre. Dans chacun de ces espaces de Hilbert on peut définir un opérateur nombre de particules, et pour chaque état on peut définir un nombre d’occupation. Ce nouveau formalisme permet un très important changement de point de vue : au lieu de s’intéresser aux états dans lesquels se trouvent les particules, on va s’intéresser aux nombres d’occupations qui caractérisent les états du système.

La question que l’on se posera concernera le nombre de particules de chaque espèce, qui occupent les divers états du système. Pour des bosons de même espèce le nombre d’occupation peut être arbitraire, alors que pour des fermions identiques il ne peut valoir que 0 ou 1. Ce qui est alors nouveau, c’est que les états peuvent être remplis sans que s’introduisent des corrélations en l’absence d’interaction, ce qui fait de l’espace de Fock l’espace de représentation adapté à la statistique quantique.

Les particules qui interviennent dans ce formalisme de l’espace de Fock ne sont pas forcément les particules constitutives du milieu considéré (atomes, électrons ou ions), mais plutôt ce que l’on appelle des quasi-particules. En statistique quantique, l’objet fondamental devient ce que l’on appelle un champ quantique, un champ d’opérateurs dont les quasi-particules sont des excitation élémentaires, quasi-localisées dans l’espace.

  III-3 La théorie quantique des champs et la physique des particules

Quand on a découvert que le formalisme de l’espace de Fock peut être appliqué à la quantification du champ électromagnétique, dont les photons peuvent être considérés comme les quasi-particules, il est apparu que le concept de champ quantique permettait de réaliser une véritable unification des points du vue ondulatoire et corpusculaire.

Il devenait possible d’avancer encore dans l’exploration du monde de l’infiniment petit. En effet, d’après les inégalités de Heisenberg, pour explorer ce monde, il faut disposer de sonde de très haute énergie, des énergies qui peuvent communiquer aux particules des vitesses proches de la vitesse de la lumière. Comme on doit tenir compte du temps mis par les interactions à se propager on rencontre obligatoirement des effets relativistes.

Or la mécanique quantique fait jouer au temps (traité comme un paramètre continu) un rôle très différent de celui attribué à l’espace (chaque coordonnées spatiale est traité comme une observable, c’est-à-dire comme un opérateur). Une telle différence de traitement est incompatible avec la théorie de la relativité. Pour rendre relativiste la mécanique quantique, il faut y symétriser les rôles de l’espace et du temps. C’est précisément ce que fait, en théorie de la relativité, la notion de champ qui correspond à la donnée, en chaque point de l’espace-temps, d’une fonction ou d’un ensemble de quelques fonctions : les quatre coordonnées d’espace-temps sont traitées comme des paramètres continus.

Appliquée à la physique des particules, la méthode de la seconde quantification, que nous avons évoquée plus haut en statistique quantique, consiste à traiter la fonction d’onde (première quantification) d’une particule (un électron par exemple) comme un champ classique, que l’on « quantifie une seconde fois » (comme on a quantifié le champ électromagnétique). Au bout du compte, l’électron devient une quasi-particule, excitation élémentaire d’un champ quantique, le champ électronique. Il en est de même pour toutes les particules. En mécanique quantique relativiste, la forme aboutie de la mécanique quantique, il n’y a pas d’une part les particules et d’autre part les champs, il y un objet fondamental, le champ quantique, dont les manifestations cohérentes peuvent prendre une forme ondulatoire et dont les excitations élémentaires quasi-localisées, ou quasi-particules, sont ce qu’on appelle des particules.

La compatibilité de la mécanique quantique, de la relativité et de la causalité, implique que le champ quantique électronique ait un autre type de quasi-particule, l’antiélectron ou positon, qui a la même masse que l’électron mais une charge électrique opposée. Comme cela à été vérifié expérimentalement, il en est de même pour tous les types de particules : chaque particule a son antiparticule, de même masse et de charge opposée ; certaines particules, neutres comme le photon, coïncident avec leurs antiparticules.

Avec ce mécanisme des antiparticules, la théorie quantique des champs fournit le cadre théorique adapté à la physique des particules, qui réconcilie la mécanique quantique, la relativité (pour le moment seule la relativité restreinte est prise en compte alors que des problèmes difficiles restent à résoudre pour réconcilier la mécanique quantique et la relativité générale), en tenant compte des contraintes de la causalité. Dans une réaction particulaire provoquée dans une collision à haute énergie, le nombre de particules n’est pas conservé : des particules et des antiparticules peuvent être produites ou annihilées.

La place nous manque pour décrire les prouesses qui on été nécessaires pour surmonter les difficultés du programme de la théorie quantique des champs appliquée à la physique des particules et pour évoquer les progrès spectaculaires accomplis par cette discipline. Disons simplement qu’avec ce que l’on appelle le modèle standard, l’ensemble des constituants élémentaires de la matière, ainsi que les trois interactions dites fondamentales dans lesquelles ils sont impliqués, sont maintenant décrits avec une précision surprenante : on a pu mesurer expérimentalement, et calculer théoriquement, avec des précisions comparables, une vingtaine de quantités physiques (masses de particules, durées de vie, largeurs partielles, etc.)

L’accord entre la théorie et l’expérience force l’admiration. Les expériences actuellement en préparation au CERN à Genève laissent espérer de nombreuses nouvelles découvertes.

  III-4 L’unification quantique de la physique

La mécanique quantique est un puissant principe unificateur. La découverte des quanta marque le début de l’unification de l’électromagnétisme et de la thermodynamique. En consolidant les bases de la thermodynamique statistique elle contribue à l’unification de la physique macroscopique et à celle de la physique et de la chimie. Le concept de champ quantique unifie, comme nous l’avons vu plus haut, les descriptions ondulatoires et corpusculaires de la matière et des interactions. La statistique quantique et la physique des particules peuvent être considérées comme deux applications d’une même théorie, la théorie quantique des champs. Le fil conducteur du modèle standard de la physique des particules est l’unification des interactions fondamentales : deux interactions aux propriétés aussi différentes que l’interaction électromagnétique et l’interaction faible sont en réalité unifiées au sein de la théorie électrofaible ; des perspectives apparaissent d’une unification de cette interaction électrofaible avec l’interaction forte à une énergie de l’ordre de 1016 GeV, et de l’ensemble des interactions fondamentales, y compris la gravitation, à l’énergie de Planck soit 1019 GeV. D’après le modèle du big bang, qui est le modèle standard de la cosmologie, l’univers est en expansion et en refroidissement depuis une grande explosion primordiale, le « big bang » intervenue il y a une quinzaine de milliards d’années, instant ou la densité et la température étaient infinies. La dynamique de l’univers primordial, immédiatement après le big bang, était nécessairement quantique et relativiste. Physique des particules et cosmologie conjuguent donc leurs efforts pour constituer une authentique cosmogonie scientifique qui s’attache à décrire les origines de la matière universelle.

 IV/ Le retour d’expérience et l’interprétation moderne de la mécanique quantique

Des perspectives aussi grandioses, qui ont une incontestable dimension philosophique, ne pouvaient pas manquer d’amener à s’interroger sur les fondements même de la mécanique quantique dont l’interprétation date déjà de plus soixante-dix ans. D’autant plus que l’interprétation de l’école de Copenhague laissait persister quelques insatisfactions :

Bien que l’expérience lui ait finalement donné raison, l’argumentation de Bohr en réponse au paradoxe soulevé par Einstein, Podolski et Rosen (EPR) qui reprochait à la mécanique quantique son « incomplétude », avait été jugée par trop abstraite et n’avait pas vraiment convaincu.

Cette interprétation comporte quelques points obscurs comme « l’effondrement du paquet d’ondes » et l’invocation d’une théorie de la mesure à développer et toujours un peu remise à plus tard.

Elle n’est pas très claire au sujet du rapport de la physique classique à la physique quantique : la physique classique semble y jouer un rôle nécessaire au fondement même de la physique quantique, sans être englobée par elle (comme la mécanique classique l’est par la mécanique relativiste).

Au plan strictement scientifique, je ne pense pas que ces critiques soient vraiment décisives, car elles n’affectent pas l’efficacité opératoire de l’ensemble formalisme/interprétation qui forme le corpus de la mécanique quantique. C’est au plan épistémologique que l’interprétation de l’école de Copenhague pourrait comporter quelques failles que de nombreux physiciens et philosophes ont pu lui reprocher : une lecture inattentive pourrait laisser penser en effet qu’elle favorise l’illusion positiviste qui tendrait à limiter la réalité aux seuls phénomènes accessibles à l’observation. A ce plan aussi, je ne pense pas que cette critique soit très pertinente ; les auteurs de l’interprétation de l’école de Copenhague l’ont d’ailleurs toujours vivement réfutée.

En réalité, cette interprétation se caractérise par la prudence qui était de rigueur face à une théorie en train de se mettre en place, et qui était confrontée à des problèmes jamais rencontrés auparavant. Seule cette prudence pouvait garantir la fiabilité des résultats qui seraient obtenus à l’aide de cette théorie. Au fur et à mesure des succès rencontrés, la confiance dans la théorie quantique s’est tellement accrue qu’il devient maintenant possible d’en tirer des enseignements philosophiques de très grande portée. C’est ce à quoi s’est attachée ce que l’on appelle l’interprétation moderne de la mécanique quantique.

C’est l’application systématique de la méthodologie de l’intégrale de chemins de Feynman, brièvement évoquée plus haut, qui a mis sur la piste de ce renouvellement de l’interprétation. L’idée de l’intégrale de chemins est, pour chaque processus, de déterminer l’ensemble des voies indiscernables qu’il peut emprunter, d’associer à chacune de ces voies une certaine amplitude et d’intégrer de façon cohérente (c’est-à-dire avec la possibilité d’interférences) toutes ces amplitudes pour obtenir l’amplitude totale, dont le carré du module donne la probabilité du processus. L’avantage essentiel de cette formulation de la mécanique quantique est qu’elle fait apparaître la mécanique classique comme une approximation, à la limite où le quantum d’action est négligeable, de la mécanique quantique.

En effet, à cette limite, toutes les voies indiscernables qui s’écartent de la voie prévue par les lois de la mécanique classique sont associées à des amplitudes dont la phase est très grande, et elles tendent à s’éliminer de l’intégrale. Or ces voies sont précisément celles auxquelles on ne peut pas attribuer une probabilité additive à cause des phénomènes d’interférences. Cette élimination par intégration des voies indiscernables non probabilisables est ce que l’on appelle la décohérence. Tel est le phénomène qui fait émerger la physique classique de la physique quantique.

D’après la nouvelle interprétation,l’univers, qui a été adapté à la prise en compte de la constante universelle de Planck. Mais cette réadaptation affecte profondément et globalement la mécanique. Je me contente ici de donner une liste sommaire de toutes les innovations conceptuelles liées à la mécanique quantique.

  II-1-1 L’espace de Hilbert

Les états d’un système sont représentés par des vecteurs d’un espace de Hilbert, un espace vectoriel de fonctions complexes, sur lequel est défini une norme et un produit scalaire. Plus précisément un état quantique est associé à un rayon de l’espace de Hilbert, c’est-à-dire un ensemble de vecteurs définis à une constante multiplicative près. On utilise aussi le terme de fonction d’onde pour désigner un vecteur de l’espace de Hilbert représentant un état quantique.

La linéarité de l’espace de Hilbert correspond au principe de superposition selon lequel les états quantiques peuvent se combiner, se superposer, comme le font des ondes ou des champs, c’est-à-dire en s’ajoutant comme des nombres complexes. Cette propriété de cohérence est peut-être la plus importante de tout l’univers quantique ; en tous les cas c’est presque toujours elle qui permet de reconnaître le caractère quantique d’une situation.

Une autre caractéristique essentielle de la mécanique quantique est que sa prédictibilité est essentiellement probabiliste. On est contraint au recours aux probabilités, d’une part parce qu’il existe des processus, mettant en jeu une action de l’ordre du quantum d’action, comme une désintégration radioactive ou une réaction nucléaire ou particulaire, qu’il est impossible de décrire de manière déterministe à l’aide d’équations différentielles, et d’autre part parce qu’il est nécessaire d’inclure dans le formalisme les conditions de l’observation et que ces conditions ne peuvent en général pas être mieux déterminées que de manière statistique. La norme d’un état est associée à la probabilité que le système soit dans l’état considéré.

Comme, en mécanique quantique, toute mesure ou observation est une interaction mettant en jeu au moins un quantum d’action, on ne peut pas se désintéresser de l’effet de l’observation sur l’état quantique. C’est pourquoi à chaque observable on associe un certain opérateur agissant sur les vecteurs de l’espace de Hilbert, c’est-à-dire sur les états quantiques. Ces opérateurs partagent avec les vecteurs la propriété de linéarité. Le produit de deux opérateurs n’est pas nécessairement commutatif, et précisément, les aspects quantiques sont associés à la non commutation des opérateurs ou des observables.

Parmi les observables, la plus importante est l’énergie totale, associée à l’opérateur hamiltonien, qui est proportionnel à la dérivation par rapport au temps ; telle est la signification de l’équation de Schrödinger. Par exponentiation, le hamiltonien donne donc accès à l’opérateur d’évolution dans le temps, qui est la réponse au problème fondamental de la mécanique.

Lorsque l’action d’un opérateur sur un vecteur se réduit à la multiplication du vecteur par un nombre, on dit que le vecteur est un vecteur propre de l’opérateur et que le facteur multiplicatif est sa valeur propre. L’état associé à un vecteur propre de l’opérateur associé à une certaine observable est donc laissé invariant par l’action de l’observable. Cela signifie que l’observable en question peut être mesurée lorsque le système quantique est dans l’état associé au vecteur propre, et la valeur mesurée de l’observable n’est rien d’autre que la valeur propre.

Comme des observables qui commutent partagent leurs vecteurs propres (ou plus précisément leur sous espaces propres), un ensemble complet d’observables qui commutent (ECOC) forme ce que l’on appelle une représentation, associée à un ensemble de vecteurs propres communs, formant une base de l’espace de Hilbert (analogue à un référentiel dans un espace vectoriel ordinaire).

Déjà en mécanique classique, les propriétés de symétries jouent un rôle essentiel pour caractériser les invariances et les lois de conservation. En mécanique quantique, ce rôle est encore accru car c’est sur ces propriétés que l’on compte pour pouvoir accéder à l’objectivité : est objectif ce qui est invariant par changement des conditions d’observations. Dans l’espace de Hilbert on associe des opérateurs aux transformations de symétries qui agissent sur les états et sur les observables en laissant invariante la norme (associée à la probabilité) des états.

  II-1-2 L’intégrale de chemins de Feynman

Toutes les difficultés, mais aussi toutes la richesse de la mécanique quantique résident dans la subtile dialectique de la cohérence et de la probabilité : la cohérence donne lieu à des interférences, typiques d’une dynamique ondulatoire, mais les interférences ruinent la propriété d’additivité sans laquelle la notion de probabilité n’a aucun sens, alors qu’une dynamique corpusculaire s’accommode bien d’une approche probabiliste.

Pour comprendre comment fonctionne cette dialectique, il convient de revisiter la fameuse expérience des interférences d’Young, dans laquelle on fait passer de la lumière produite par une source ponctuelle au travers d’un cache percé de deux trous et on recueille la lumière sur un écran situé à quelque distance du cache. En physique classique, c’est le formalisme des amplitudes de champ qui permet de rendre compte mathématiquement des figures d’interférence que l’on observe dans cette expérience. L’intensité de l’éclairement en un point de l’écran est proportionnelle au flux de l’énergie électromagnétique qui parvient en ce point, elle-même proportionnelle à la somme des carrés du champ électrique et du champ magnétique. Cette intensité est nécessairement représentée par un nombre réel, non négatif. Si, pour obtenir l’intensité totale en un point de l’écran on devait additionner les deux intensités correspondant, chacune au passage par un des deux trous, on n’obtiendrait jamais de figure d’interférence, puisque ces deux intensités sont des nombres réels positifs ou nuls. On appelle amplitude de champ un nombre complexe dont le module au carré est proportionnel à l’intensité.

Dans l’expérience d’Young, on obtient des interférences si, pour calculer l’intensité de l’éclairement en un point de l’écran on additionne comme des nombres complexes les deux amplitudes de champ correspondant, chacune au passage par l’un des deux trous, pour obtenir l’amplitude totale dont le carré du module est proportionnel à l’intensité d’éclairement au point considéré. Cette propriété d’additivité complexe des amplitudes de champ ne fait que traduire la propriété, fondamentale en théorie électromagnétique de la lumière, de l’additivité vectorielle du champ électrique et du champ magnétique.

Des aspects corpusculaires peuvent commencer à se manifester dans l’expérience d’Young si l’on essaie de la réaliser à la limite des très faibles intensités. A cette limite, le champ électromagnétique devient fluctuant ; ses fluctuations sont des processus élémentaires dans lesquels un photon émis par la source, parvient au détecteur en passant par l’un des deux trous. En remplaçant l’écran par un détecteur très sensible, on peut enregistrer les impacts de photons un à un. Au bout d’un certain temps, ces impacts reproduisent la figure d’interférence : accumulation d’un grand nombre d’impacts dans les zones éclairées et petit nombre d’impacts dans les zones sombres. Comme fluctuations quantiques du champ électromagnétique, les processus élémentaires ne sont pas descriptibles à l’aide de la mécanique corpusculaire classique. La mécanique classique repose en effet sur la continuité de l’action (produit de l’énergie par le temps), alors que la mécanique quantique résulte précisément de la découverte d’une limite à la divisibilité de l’action.

Le passage à la théorie quantique suppose le renoncement à une description déterministe des processus élémentaires mettant en jeu une action égale au quantum d’action. Ces processus ne sont descriptibles que de manière statistique. Dans le cas qui nous intéresse, il est clair que l’intensité recueillie en un point du détecteur est proportionnelle au nombre d’impacts de photons et donc à la probabilité d’impact au point considéré. Pour rendre compte de l’apparition d’une figure d’interférence, il sera nécessaire, en complète analogie avec la description ondulatoire, d’introduire le concept d’amplitude de probabilité : pour calculer la probabilité de l’impact d’un photon en un point du détecteur on devra additionner comme des nombres complexes les deux amplitudes de probabilité correspondant au passage par chacun des deux trous et prendre le module au carré de l’amplitude résultante.

Le phénomène des interférences dans le cadre de l’interprétation corpusculaire est extrêmement paradoxal : alors que l’on comprend facilement comment une onde peut se scinder en deux parties qui passent chacune par un trou et se recombinent en parvenant sur l’écran, on ne voit pas comment une particule pourrait se scinder en deux parties ou bien passer par les deux trous à la fois ! La nouveauté radicale qu’introduit la mécanique quantique c’est que pour des conditions expérimentales données, il peut y avoir des questions sans réponses. Par exemple, la question de savoir par quel trou est passé le photon qui a donné un impact est sans réponse.

On dira que, dans ces conditions expérimentales, les voies de passage par chacun des deux trous sont indiscernables ; on ne peut même pas leur attribuer une probabilité bien définie.

Cet exemple illustre très bien la méthode de l’intégrale de chemins de Feynman : pour évaluer la probabilité d’un processus, il convient de déterminer toutes les voies indiscernables par lesquelles il peut se produire dans les conditions expérimentales considérées, d’associer à chacune de ces voies une certaine amplitude de probabilité, de sommer comme des nombres complexes (somme cohérente) toutes ces amplitudes pour obtenir l’amplitude totale dont le carré du module donne la probabilité recherchée. L’application généralisée de cette méthodologie a permis de faire des progrès considérables dans la mise en œuvre et dans l’interprétation de la mécanique quantique. Nous y reviendrons plus bas.

  II-1-3 La « dualité » onde-corpuscule

La « dualité » onde-corpuscule, clairement établie en ce qui concerne l’interaction électromagnétique, s’étend, en mécanique quantique, à l’ensemble des interactions, et, comme l’a proposé Louis de Broglie, à la matière elle-même : à tous les champs d’interaction on peut associer des particules et à toutes les particules de matière on peut associer des ondes. J’ai mis des guillemets au mot « dualité » pour exprimer que la mécanique quantique s’efforce de surmonter le dualisme de la physique classique qui oppose le concept de champ et celui de point matériel qui représente l’idée qu’elle se fait des constituants élémentaires de la matière. Comme nous l’avons vu plus haut, la mécanique quantique mêle très subtilement les descriptions corpusculaires (en termes de probabilités) et ondulatoires (pour l’évaluation des probabilités).

Comme le disent Feynman et Hibbs en conclusion d’une discussion de l’interprétation par la mécanique quantique de l’expérience d’Young : « pour résumer, nous calculons l’intensité (c’est-à-dire le module au carré de l’amplitude) d’ondes qui arriveraient au point x de l’appareil, et ensuite nous interprétons cette intensité comme la probabilité qu’une particule arrive au point x. »

  • Il faut se rendre à l’évidence, les particules de la mécanique quantique ne sont pas des points matériels. Leurs propriétés sont incompréhensibles en mécanique classique :
  • elles peuvent avoir un moment cinétique intrinsèque (appelé spin) multiple entier ou demi entier du quantum d’action, ce qui est impossible classiquement pour un point matériel
  • des particules identiques (de même espèce) sont indiscernables, ce qui signifie que l’on ne peut pas les « étiqueter », pour suivre leurs trajectoires
  • un état à deux particules identiques est soit symétrique par permutation des particules (auquel cas on dit qu’on affaire à des bosons, obéissant à la statistique de Bose-Einstein), soit antisymétrique par cette permutation (auquel cas on dit qu’on a affaire à des fermions, obéissant à la statistique de Fermi-Dirac)
  • les bosons sont les particules associées aux champs d’interactions ; des bosons identiques peuvent se trouver tous dans le même état quantique ; ils sont en quelque sorte « superposables » comme les champs auxquels ils sont associés (comment des points matériels pourraient-ils être superposables ! ?)
  • les fermions sont les particules de matière ; deux fermions identiques ne peuvent se trouver dans le même état quantique (c’est le principe d’exclusion de Pauli)
  • il a été possible de montrer que les bosons ont un spin nul ou multiple entier du quantum d’action et que les fermions ont un spin multiple demi entier du quantum d’action (théorème de la connexion spin statistique).

  II-2 L’interprétation de l’école de Copenhague

Il est évident qu’une telle accumulation de concepts étrangers à la physique classique ne pouvait que susciter incompréhensions, interrogations et controverses. Il était indispensable de compléter le formalisme par une interprétation qui fixe les conditions de la mise en œuvre du formalisme lors de sa confrontation à la réalité expérimentale. C’est la tâche à laquelle se sont attelés les physiciens de l’institut de physique théorique de Copenhague, sous l’impulsion décisive de Niels Bohr.

Ce travail d’interprétation est, en réalité, à l’interface de la physique et de la philosophie ; il relève de l’épistémologie de la physique ; il conduit à la remise en cause de certains concepts. La remise en cause la plus importante impliquée par la mécanique quantique concerne, selon Bohr, le concept de phénomène. Dans la science et dans la philosophie classique, le terme de phénomène tend à désigner un objet ou un processus, relativement stable et indépendant des conditions selon lesquelles il est observé.

Or l’existence du quantum d’action implique que, dans le domaine atomique, toute observation est une interaction entre un appareil de mesure et un certain objet, une interaction, qui, comme toute interaction, est soumise à la contrainte d’impliquer une action au moins égale à un quantum d’action. De telle sorte qu’en mécanique quantique il semble impossible de séparer nettement l’objet de l’appareil de mesure. L’idée essentielle de Bohr est de redéfinir le concept même de phénomène : comme le dit Catherine Chevalley, dans sa longue introduction à Physique atomique et connaissance humaine de Niels Bohr :

« ce qui se présente en réalité comme ‘phénomène’, comme manifestation, c’est un ensemble indissociable - une ‘totalité’ - d’effets observés sous des conditions expérimentales données. Le mot phénomène doit ‘désigner exclusivement des observations obtenues dans des conditions spécifiées, incluant un compte-rendu de la totalité du dispositif expérimental.’ » Avec cette nouvelle définition du concept de phénomène présente à l’esprit, on avance dans l’interprétation de la mécanique quantique en notant que ses concepts ne sont pas relatifs à « l’objet » mais seulement à des « phénomènes ». Cela ne veut absolument pas dire, comme de nombreux auteurs l’ont cru ou voulu le croire, que la mécanique quantique renoncerait à l’idéal d’objectivité fondateur de toute démarche scientifique. En effet, comme le note Catherine Chevalley, " le phénomène ainsi redéfini ne donne pas immédiatement un concept d’objet. Puisque la physique quantique ne fournit jamais qu’une collection de phénomènes uniques, constitués en fonction des conditions de l’expérience et irréversibles, aucun phénomène ne peut devenir objet. (...)

Pourtant la physique quantique est en même temps la démonstration que l’on peut faire des prévisions statistiques sur cette collection de phénomènes irréversibles ; Il y a donc des objets de la physique, pour Bohr. Simplement , ces objets sont construits par des ‘ensembles de preuves’ : ‘des phénomènes définis par divers concepts correspondants à des arrangements expérimentaux s’excluant mutuellement peuvent être considérés sans équivoque comme des aspects complémentaires de l’ensemble des preuves que l’on peut obtenir concernant les objets étudié.’ " Dans cette citation apparaît la notion fondamentale de complémentarité, qui est la clé de voûte de l’interprétation de l’école de Copenhague :

  • Un ensemble complet d’observables qui commutent définit une représentation de la réalité physique, dépendant des conditions d’observations ;
  • Deux représentations différentes (impliquant des observables qui ne commutent pas) pouvant être nécessaires à la représentation complète de la réalité microphysique sont dites complémentaires
  • Les inégalités de Heisenberg empêchent d’utiliser des représentations complémentaires là où elles seraient contradictoires.

 III/Le siècle des quanta

  • I/ Les quanta et le triomphe de la théorie atomique
  • II/ La mécanique quantique
  • II-1 Le formalisme de la mécanique complètement renouvelé
  • II-1-1 L’espace de Hilbert
  • II-1-2 L’intégrale de chemins de Feynman
  • II-1-3 La « dualité » onde-corpuscule
  • II-2 L’interprétation de l’école de Copenhague
  • III/ La mise en œuvre de la mécanique quantique
  • III-1 L’élucidation des problèmes laissés en suspens par la physique classique
  • III-2 La statistique quantique et la physique des états de la matière
  • III-3 La théorie quantique des champs et la physique des particules
  • III-4 L’unification quantique de la physique
  • IV/ Le retour d’expérience et l’interprétation moderne de la mécanique quantique
  • V/ Conclusion : les nouveaux horizons des quanta

L’article dans lequel Max Planck introduisit la constante universelle qui porte son nom, date de 1900 ; il inaugure une période d’intense bouillonnement intellectuel, d’où va émerger dès la fin des années vingt, un profond remaniement conceptuel de la physique, la mécanique quantique.

Toutes les sciences du vingtième siècle, de l’infiniment petit des particules à l’infiniment grand de l’astrophysique et de la cosmologie, de la physique atomique et moléculaire à la physique de la matière condensée, de la chimie à la biologie ainsi que toutes les technologies qui font muter nos sociétés, qu’elles soient relatives à l’imagerie, à l’information ou à la communication, ou encore aux matériaux nouveaux, sont profondément marquées par ce remaniement conceptuel ; elles lui doivent l’essentiel de leur vitalité actuelle. Tout semble indiquer que l’on est encore loin d’avoir épuisé tout le potentiel d’implications conceptuelles et d’applications pratiques de la physique quantique. Raconter l’histoire des quanta revient à mettre en perspective historique et prospective l’ensemble de la science du vingtième siècle.

Pour mettre un peu d’ordre au sein d’un impressionnant foisonnement de découvertes et d’avancées spectaculaires, il m’a paru utile, dans un court article, de distinguer quatre phases, relativement bien marquées et correspondant à des étapes significatives du point de vue méthodologique, dans le développement de la théorie des quanta :

Une phase d’émergence du problème, qui va en gros de 1895 à 1912, au cours de laquelle triomphe la théorie atomique et apparaissent les quanta, à la fois éléments du triomphe de la théorie atomique et source de questionnements déroutants et troublants.

Une phase, s’achevant à la fin des années vingt, d’établissement de la nouvelle théorie, la mécanique quantique, comportant d’une part un formalisme rigoureux et d’autre part une interprétation, celle dite de l’école de Copenhague fondée sur l’idée de complémentarité.

Une phase qui va jusqu’à nos jours et qui ne semble pas devoir s’arrêter de sitôt, de déploiement tous azimuts de cette nouvelle théorie avec un foisonnement de naissances de nouvelles disciplines, de découvertes de nouveaux objets, de nouveaux concepts, de nouveaux états de la matière, de nouvelles applications.

Une phase relativement récente (depuis les années soixante-dix), de « retour d’expérience » au cours de laquelle on reconsidère la question des rapports classique/quantique, on affine et modernise, à l’aide du concept de décohérence, l’interprétation de la mécanique quantique dont s’affirme en fin de compte le rôle fondamental et universel.

 I/ Les quanta et le triomphe de la théorie atomique

Les « trois coups » qui, en quelque sorte ont précédé le grand opéra des quanta sont en 1895 la découverte des rayons X par Röntgen, celle de la radioactivité en 1896 par Becquerel et en 1898 par Pierre et Marie Curie et celle de l’électron en 1897 par Thomson. Ainsi le monde des atomes que les philosophes de la Grèce antique avaient imaginé se manifestait-il par quelques effets aussi surprenants que prometteurs de nouvelles découvertes et applications.

Comme le décrit remarquablement bien Jean Perrin dans son livre intitulé « Les atomes », la conception atomique des philosophes de l’antiquité, qui avait cheminé pour devenir une hypothèse scientifique aux fondements de la thermodynamique statistique et de la chimie en voie d’émancipation par rapport à l’alchimie, est entrée de plain pied dans le domaine de la science.

Le livre de Jean Perrin passe en revue pas moins de treize déterminations indépendantes et concourantes du nombre d’Avogadro, le nombre de molécules d’un gaz occupant un volume donné (22400 cm3) dans des conditions normales de température et de pression (température de la glace fondante et pression atmosphérique).

Et l’auteur de conclure « la théorie atomique a triomphé. Encore nombreux naguère, ses adversaires enfin conquis renoncent l’un après l’autre aux défiances qui, longtemps, furent légitimes et sans doute utiles. C’est au sujet d’autres idées que se poursuivra désormais le conflit des instincts de prudence et d’audace dont l’équilibre est nécessaire au lent progrès de la science humaine. » Parmi les divers phénomènes physiques et chimiques à l’origine de ces déterminations du nombre d’Avogadro, figure le rayonnement du corps noir, élucidé par Planck et Einstein au moyens des quanta d’énergie. Mais ce phénomène, ainsi que d’autres, tels la radioactivité, qui contribuent à établir la théorie atomique, font entrevoir que le monde des atomes n’est pas exactement conforme aux idées que l’on peut s’en faire :

« Mais dans ce triomphe même nous voyons s’évanouir ce que la théorie primitive avait de définitif et d’absolu. Les atomes ne sont pas ces éléments éternels et insécables dont l’irréductible simplicité donnait au possible une borne, et, dans leur inimaginable petitesse, nous commençons à pressentir un fourmillement prodigieux de mondes nouveaux. »

C’est bien dans un monde totalement nouveau que nous a fait pénétrer la découverte des quanta. Dans son article de 1900, Planck s’efforçait de rendre compte du rayonnement universel du corps noir. Ce phénomène intriguait les physiciens de l’époque. Un corps noir est un corps en équilibre thermodynamique avec le rayonnement qu’il émet et qu’il absorbe ; l’enceinte d’un four isotherme en est un exemple typique. La propriété qui excitait la curiosité des théoriciens était l’universalité de ce rayonnement : son spectre de fréquence ne dépend que de la température du corps noir et d’aucune de ses autres propriétés.

A basse fréquence, la loi de Rayleigh-Jeans reproduisait correctement les données expérimentales, mais lorsque l’on tentait de l’extrapoler vers les hautes fréquences, ce modèle donnait beaucoup plus de rayonnement de haute fréquence qu’il n’en était observé (c’était la « catastrophe ultraviolette »). A haute fréquence, le spectre expérimental était bien reproduit par un modèle à décroissance exponentielle dû à Wien.

Le cadre théorique de l’époque ne permettait pas de résoudre le problème : la théorie électromagnétique de Maxwell adaptée à la description du rayonnement et la thermodynamique statistique de Boltzmann adaptée à la description des équilibres thermiques, semblaient totalement étrangères l’une à l’autre. Planck qui, avec Einstein était l’un des rares physiciens à avoir compris les difficiles travaux de Boltzmann, s’efforçait d’appliquer les concepts de la thermodynamique statistique au problème du rayonnement du corps noir. Il essayait d’évaluer l’entropie, qui, d’après Boltzmann est proportionnelle au logarithme du nombre de complexions (les complexions sont des configurations microscopiques énergétiquement équivalentes). Pour avoir des complexions dénombrables, Planck eut l’idée de modéliser le corps noir comme un ensemble discret de résonateurs, absorbant ou émettant le rayonnement par quanta d’énergie E, proportionnelle à la fréquence n, où h est la fameuse constante de Planck, aussi appelée le quantum d’action qui vaut 6,62 10-34 Joule seconde.

Avec ce modèle, la loi de conservation de l’énergie permet de rendre compte de la suppression des hautes fréquences dans le spectre du corps noir, et un raisonnement très astucieux et d’une très grande modernité a permis à Planck d’établir une formule qui interpole les modèles de Rayleigh-Jeans à basse fréquence et de Wien à haute fréquence et qui donne un excellent accord avec les données expérimentales pour le spectre à toutes les fréquences.

C’est cinq ans plus tard, en 1905, qu’Einstein franchit un pas supplémentaire. Il émet une hypothèse révolutionnaire : la quantification de l’énergie n’est pas une propriété particulière, spécifique du modèle des résonateurs de Planck, mais une propriété universelle du champ électromagnétique lui-même. Partant de la dépendance en volume de l’entropie dans la formule de Planck, Einstein inverse la formule de Boltzmann et il obtient pour W12 qu’il interprète non pas comme le nombre de complexions mais comme la variation de probabilité dans le changement de volume, qui n’est rien d’autre que la variation de la probabilité de présence de « quanta d’énergie » lors du changement de volume . Le rayonnement électromagnétique contenu dans l’enceinte du corps noir peut être assimilé à un gaz parfait de quanta de lumière (ce que quelques années plus tard on a appelé des photons).

Mais alors dit Einstein « dès lors qu’un rayonnement monochromatique (de densité suffisamment faible) se comporte relativement à la dépendance en volume de son entropie, comme un milieu discontinu constitué de quanta d’énergie de grandeur , on est conduit à se demander si les lois de la production et de la transformation de la lumière n’ont pas également la même structure que si la lumière était constituée de quanta d’énergie de ce type. Telle est la question dont nous allons maintenant nous occuper. » Et, d’un revers de main, Einstein d’élucider l’effet photoélectrique : le seuil de fréquence, caractéristique jusqu’alors incompréhensible de cet effet, devient, grâce à la théorie des quanta de lumière, le seuil d’énergie dont le franchissement est nécessaire à l’ionisation d’un atome par un photon.

 II/ La mécanique quantique

L’irruption du discontinu dans un domaine où on ne l’attendait pas, celui des interactions a certes provoqué une surprise, mais au fur et à mesure que s’étendaient les recherches initiées par la découverte des quanta d’énergie, il apparaissait que la physique, et au travers elle toute la science se trouvait confrontée à une véritable situation de crise. En quoi consiste le problème ?

La constante de Planck est aussi appelée le quantum d’action car elle s’exprime en termes d’action, une quantité physique qui est le produit d’une énergie par un temps. L’action mise en jeu dans une certaine interaction est égale au produit de sa durée par le transfert d’énergie qu’elle implique. Exprimée en unités adaptées à la physique macroscopique, la constante de Planck est un nombre extrêmement petit qui peut être interprété comme la plus petite quantité d’action qu’il faille mettre en œuvre pour qu’existe une interaction. La portée vraiment universelle de la découverte de Planck et Einstein, lui vient de ce que le caractère discontinu n’affecte pas seulement le rayonnement électromagnétique mais encore l’ensemble des interactions : dans tout l’univers, il n’y a pas d’interaction qui ne mette en jeu une action au moins égale à la constante de Planck h.

Au plan de la connaissance, en ce qu’elle a de plus général, les conséquences de l’existence du quantum d’action sont considérables : dans l’horizon microphysique, toute mesure ou observation est une certaine interaction qui est soumise à la contrainte incontournable d’impliquer au moins un quantum d’action. Si l’on veut observer une structure microscopique avec une grande précision spatiale et temporelle (c’est-à-dire avec une petite marge d’erreur spatiale et temporelle), il faut lui transférer, pendant une certaine durée une certaine quantité d’énergie. Le produit de cette durée par cette énergie est au moins égal à la constante de Planck.

Mais comme la durée de la mesure ne doit pas excéder la marge d’erreur temporelle tolérée, l’énergie nécessaire à l’obtention d’un résultat de mesure sera au moins inversement proportionnelle à cette marge d’erreur temporelle. Cette contrainte signifie qu’en microphysique, le temps et l’énergie ne peuvent pas être déterminés simultanément avec une précision arbitraire, la précision sur la mesure de l’une de ces deux variables se paie par de l’imprécision sur la mesure de l’autre. D’autres couples de variables comme la position et l’impulsion ou quantité de mouvement sont soumis à la même contrainte.

Cette circonstance n’a aucune conséquence tant que l’on reste dans le domaine de la physique classique, c’est-à-dire lorsque les actions mises en jeu sont très grandes devant le quantum d’action, mais dès que l’on veut explorer avec une précision suffisante le monde de l’infiniment petit, elle nous oblige à renoncer au présupposé implicite selon lequel il est toujours possible, au moins en principe de faire abstraction des conditions de l’observation : dans sa préparation, comme dans ses résultats, toute expérience dans le domaine microscopique dépend de manière essentielle de ces conditions.

La mécanique quantique représente un imposant arsenal conceptuel structuré dans un formalisme rigoureux associé à une interprétation qui en justifie la mise en œuvre dans la confrontation avec la réalité expérimentale. Dès la découverte de Planck et Einstein, la mécanique quantique s’est édifiée dans un bouillonnement de découvertes, d’inventions conceptuelles, de débats et de controverses. A la fin des années vingt, un consensus était atteint sur un formalisme et une interprétation qui permettaient d’élucider de très sérieux problèmes laissés en suspens par la physique classique et de se lancer à l’exploration systématique de l’univers quantique.
II-1 Le formalisme de la mécanique complètement renouvelé

Pour caractériser cette nouvelle physique, on utilise le terme de mécanique quantique pour signifier que c’est le programme général de la mécanique dans son ensemble, depuis toujours et pour toujours, est fondamentalement quantique ; au sein de cet univers quantique, on peut discerner des séquences d’événements (que l’on peut provoquer dans un laboratoire mais qui peuvent aussi se produire naturellement) descriptibles de manière quasi classique au moyen de probabilités additives (ce que l’on appelle des histoires décohérentes) ; le formalisme de la mécanique quantique fournit alors une méthode efficace pour évaluer ces probabilités. Ce qui ressort donc de l’interprétation moderne, c’est l’universalité, l’omniprésence de la physique quantique.

 V/ Conclusion : les nouveaux horizons des quanta

Le siècle des quanta est donc celui d’un extraordinaire élargissement des frontières de la science. De nombreux nouveaux progrès se profilent à l’horizon.

Aux frontières mêmes du quantique, notons la possibilité (déjà effective et en voie de perfectionnement) de réaliser certaines des « expériences de pensée » qui, au début du siècle, étaient autant de défis lancés à la mécanique quantique (paradoxe EPR, " chat de Schrödinger) ; le refroidissement des atomes et des molécules à des températures de l’ordre du nanokelvin ; la mise en évidence de nouveaux états de la matière comme le condensat de Bose-Einstein ou le plasma de quarks et de gluons ; le développement de l’optique atomique (avec peut-être un jour le laser d’atomes) ; l’observation du phénomène fascinant des oscillations de neutrinos ; la découverte du (ou des) boson(s) de Higgs, la (ou les) particule(s) responsable(s) de la masse des particules élémentaires ; peut-être la découverte de la supersymétrie, selon laquelle chaque particule élémentaire d’une statistique (boson ou fermion) actuellement connue aurait un partenaire de l’autre statistique (fermion ou boson) ; l’établissement d’une théorie de la gravitation quantique qui réconcilierait mécanique quantique et relativité générale, avec la théorie des supercordes, dont la théorie quantique des champs serait l’approximation de basse énergie.

Au plan de l’impact sur les technologies, si, comme nous l’avons noté en introduction il est vrai qu’il n’y a aucune technologie importante qui ne doive son existence à la mécanique quantique, notons les perspectives encore plus enthousiasmantes, mais où rien n’est garanti d’avance, concernant les nanotechnologies et les ordinateurs quantiques.

Les interactions de la mécanique quantique avec les mathématiques ont toujours été particulièrement fécondes. S’il est vrai que la mécanique quantique doit son existence à des outils mathématiques qui l’ont précédée, ses développement les plus récents font souvent appel à des mathématiques qui sont encore à créer. D’autre part les méthodes mathématiques adaptées à l’exploration de l’infiniment petit débouchent de plus en plus sur des moyens efficaces de modélisation et de simulation pour explorer l’infiniment complexe de la vie ou de la conscience.

La mécanique quantique, une centenaire qui a de bien beaux jours devant elle !

Notes :

  • Jean Perrin, Les atomes, publié en 1913, réédité, avec une préface de Pierre-Gilles de Gennes, dans la collection Champs de Flammarion en 1991
  • Les molécules sont les constituants des corps composés, et les atomes ceux des corps simples : d’après Dalton, « chacune des substances élémentaires dont se composent les divers corps est formée par une sorte déterminée de particules toutes rigoureusement identiques, particules qui traversent sans se laisser jamais subdiviser, les diverses transformations chimiques ou physiques que nous savons provoquer, et qui, insécables par ces moyens d’actions, peuvent donc être appelées des atomes au sens étymologique. » (Jean Perrin, op. cit., p. 44)
  • Jean Perrin op. cit. p. 284
  • Jean Perrin op. cit. p. 285
  • En réalité, ce qui est appelé quantum d’action est plutôt la constante notée h égale à h/2p, soit 1,054 10-34 Js
  • Dans les notations de l’article d’Einstein, R est la constante des gaz parfaits, n la fréquence, N le nombre d’Avogadro et b le rapport des constantes de Planck et de Boltzmann, si bien que cette bizarre expression n’est autre que hn !
  • A. Einstein Annalen der Physik, XVII, 132-148 (1905)
  • Telle est la signification des inégalités de Heisenberg.
  • R. P. Feynman and A. R. Hibbs, Quantum mechanics and Path Intergals, Mac Graw-Hill, p. 6, New York 1965
  • Niels Bohr, Physique atomique et connaissance humaine, Gallimard (collection folio essais), traduit de l’anglais par edmond Bauer et Roland Omnès ; édition établie par Catherine Chevalley ; Paris 1991
  • Catherine Chevalley, op. cit. p. 85
  • Catherine Chevalley, op. cit. p. 86
  • Yves Pierseaux, La « structure fine de la relativité restreinte », L’Harmattan Paris 1999
  • Léon Brillouin, Principe de Néguentropie pour l’Information, contribution à l’ouvrage collectif Louis de Broglie, physicien et penseur, p. 359-368, Éditions Albin Michel, Paris 1953
  • Le GeV est une énergie d’un giga électron volt.
  • Murray Gell-Mann, Le quark et le jaguar, Albin Michel, Paris 1995 et Champs, Flammarion, Paris 1997
  • Roland Omnès, Philosophie de la science contemporaine, Folio Essais, Gallimard, Paris 1994

En savoir davantage  : http://webcast.in2p3.fr/old/pif6/programme.html

Navigation