Des doutes d’Einstein aux technologies : une nouvelle révolution quantique ?
Des doutes d’Einstein aux technologies : une nouvelle révolution quantique ?
C’est le titre de la conférence donnée à Gif le 15 décembre 2023, dans le cadre de l’université ouverte, par le professeur Alain Aspect, giffois, prix Nobel de physique 2022 pour ses travaux sur l’intrication quantique, prix partagé avec John Clauser et Anton Zeilinger...
En fin de soirée le professeur Alain Aspect a dédicacé son livre Einstein et les révolutions quantiques. Ce livre court (70 pages, CNRS éditions) est un bon complément de la conférence.
La physique quantique peut sembler étrange et fascinante, car parfois contre-intuitive. Elle utilise un formalisme mathématique qui permet d’expliquer de nombreux résultats expérimentaux, en particulier dans le domaine de l’infiniment petit, non explicables par la physique classique. Depuis plus d’un siècle elle n’a jamais été mise en défaut. Malgré ce succès, certaines conséquences de ce formalisme peuvent s’avérer difficiles à appréhender par une image simple.
La première révolution quantique
En 1900, Max Planck réalise que pour comprendre certaines propriétés du rayonnement lumineux, il faut supposer que les échanges d’énergie avec la matière ne peuvent prendre que certaines valeurs particulières (ou discrètes). En 1905, Albert Einstein comprend que la lumière est constituée de corpuscules, qu’il appelle ‘’quanta de lumière’’ et qu’on appellera plus tard les photons. Leur énergie E est proportionnelle à leur fréquence n, E = hn, où h est une nouvelle constante fondamentale de la physique, la constante de Planck.
C’est une révolution car les expériences de Thomas Young en Angleterre puis Augustin Fresnel au début du XIXème siècle ont montré que la lumière est une onde. Et cela sera parfaitement expliqué dans les années 1870 par les célèbres équations de Maxwell qui unifient la lumière et toutes les ondes électromagnétiques (radio, rayons X, etc).
Alors, la lumière : onde ou corpuscules ? Les deux à la fois ! En 1909, Einstein comprend que selon les phénomènes observés, la lumière peut effectivement se comporter soit comme une onde, soit comme des corpuscules, c’est la fameuse dualité onde - corpuscule. C’est d’ailleurs pour ses travaux dans ce domaine qu’Albert Einstein reçoit le prix Nobel de physique en 1921 (et non pas pour la théorie de la relativité comme on le croit souvent).
En 1924, Louis de Broglie comprend que cette dualité existe aussi pour la matière : les particules matérielles comme les atomes ou les électrons sont aussi des ondes ! La formalisation de cette idée va conduire un an plus tard à la célèbre équation de Schrödinger qui permet de décrire très précisément la matière comme des ondes et va devenir la pierre angulaire de la physique quantique.
La physique quantique est partout, en premier lieu pour comprendre la stabilité de la matière. L’atome est constitué d’un noyau de charge électrique positive autour duquel orbitent des électrons de charge négative. Ils s’attirent et selon la physique classique, les électrons devraient tomber sur le noyau, or il n’en n’est rien. Les électrons qui se comportent comme des ondes ne peuvent exister que sur des orbites permises, quantifiées, un peu comme une corde de guitare ne peut vibrer qu’à certaines fréquences. C’est la raison pour laquelle les atomes et la matière en général restent stables.
Cette première révolution quantique sera développée dans les années 1920-1930. Son formalisme ne sera jamais mis en défaut et conduira à plusieurs révolutions technologiques, celles des transistors, des circuits intégrés, des lasers. Nos téléphones portables du quotidien sont de magnifiques objets quantiques !
La deuxième révolution quantique
En 1935, Einstein avec ses collaborateurs Boris Podolsky et Nathan Rosen conçoivent une expérience de pensée, et montrent que le formalisme de la mécanique quantique permet d’imaginer une paire de particules --des photons par exemple-- dans un état étrange, un état dit intriqué (terme inventé par Schrödinger qui réfléchit au même problème). Ce qui est étrange, c’est que deux particules préparées dans un état partageant une même propriété (on dit qu’ils sont dans un état intriqué), conservent cette intrication même s’ils sont séparés à grande distance. Pour ces particules distantes, le calcul prédit des résultats séparément aléatoires mais paradoxalement très fortement corrélés (un peu comme dans un jeu de pile ou face bizarre où deux joueurs placés à grande distance, tireraient chacun de leur côté une face au hasard, mais cela tomberait toujours sur la même face pour les deux joueurs en même temps). C’est le fameux paradoxe EPR (Einstein Podolsky Rosen). Selon Einstein, dès le départ les deux photons de la même paire portent une même propriété commune, propriété qui peut différer d’une paire à l’autre. Einstein fait l’hypothèse qu’il existe une variable cachée qui n’a pas été prise en compte donc le formalisme quantique serait incomplet.
Niels Bohr, très investi dans la théorie quantique, est en désaccord avec Einstein : pour lui le formalisme est suffisant pour expliquer le paradoxe EPR. Le débat est intense et durera jusqu’à la mort des deux protagonistes mais sans attirer l’attention car il ne s’agit que d’une expérience de pensée et ne remet en rien le remarquable succès de la mécanique quantique.
Il faut attendre 1964 pour qu’un physicien théoricien du CERN John Stewart Bell imagine un processus expérimental qui devrait permettre de trancher entre les deux points de vue. Il montre par un raisonnement mathématique simple qu’il est possible de mesurer une quantité bien particulière associée à cette intrication. Si Einstein a raison, cette quantité ne peut pas dépasser une certaine valeur maximale, elle satisfait une inégalité, maintenant connue sous le nom d’inégalité de Bell. Par contre si Bohr a raison, c’est-à-dire, si le formalisme quantique est suffisant, cette valeur maximale est dépassée, et l’inégalité de Bell est violée. Grace à Bell, on peut alors concevoir un dispositif expérimental qui permette de trancher entre les deux positions.
Les expériences
Après quelques expériences préliminaires réalisées à Harvard et Berkeley (John Clauser) dans les années 1970, Alain Aspect réalise plusieurs expériences à l’Institut d’Optique d’Orsay de 1975 à 1982, après un travail de quatre à cinq ans pour mettre au point une source de photons intriqués : un atome choisi de façon appropriée est excité par un laser (apport d’énergie) puis réémet cette énergie sous la forme de deux photons intriqués.
Il montre sans ambiguïté par la mesure de corrélations entre deux mesures distantes que l’inégalité de Bell est violée, c’est-à-dire que la mécanique quantique décrit parfaitement le phénomène comme le pensait Bohr et qu’il n’est pas utile d’introduire des variables cachées comme le pensait Einstein. De ce fait, Alain Aspect met en évidence la non-localité quantique : quelle que soit la distance entre deux particules intriquées, elles se comportent comme un tout avec un lien très fort qui est à l’origine des corrélations observées. Les expériences pionnières sont réalisées sur une distance de douze mètres. Une quinzaine d’années plus tard, Anton Zeilinger à Innsbruck et Nicolas Gisin à Genève valident le même résultat sur des distances respectives de huit cents mètres (avec des fibres de verre) et de vingt à trente kilomètres (sur le réseau télécom suisse). En 2017 une équipe chinoise a validé l’observation de l’intrication sur plus de mille kilomètres (les photons étaient émis depuis un satellite).
Les applications
Ce phénomène maintenant bien compris d’intrication quantique a des applications potentielles et étonnantes dans les domaines en développement de l'information quantique, tels que la cryptographie quantique ou l'ordinateur quantique.
La cryptographie quantique consiste, grâce à l’émission des photons intriqués, à distribuer une clé de chiffrement secrète entre deux interlocuteurs distants (habituellement dénommés Alice et Bob). La sécurité de cette méthode réside dans le fait que si un espion interceptait un photon intriqué, il serait aussitôt repéré, car il est impossible en mécanique quantique de faire une mesure sans laisser de trace.
L’ordinateur quantique, sera sans doute plus difficile à réaliser. A la différence d’un ordinateur classique qui manipule des données binaires appelés ‘’bits’’ (des 0 ou des 1), l’ordinateur quantique travaille sur des ‘’qubits’’ dont l’état quantique peut être une superposition (une sorte d’intrication), représentant à la fois 0 et 1 simultanément (c’est la fameuse image du chat de Schrödinger mort et vivant en même temps). Cela permet à l’ordinateur quantique d'effectuer des calculs sur toutes les combinaisons possibles d'états de qubits en parallèle. Son intérêt repose sur le fait qu’il est possible d’effectuer certaines opérations mathématiques, comme la factorisation des grands nombres, en un temps beaucoup plus court que les ordinateurs classiques. Mais un état intriqué est très sensible à l’environnement extérieur. C’est ce phénomène de décohérence, quand on passe du monde microscopique au monde macroscopique, qui freine le développement des ordinateurs quantiques et que les scientifiques cherchent à réduire. Les ordinateurs quantiques dont ‘’on rêve’’ seraient à la fois beaucoup plus puissants et consommeraient beaucoup moins d’énergie. De quoi concilier passions scientifiques et convictions écologiques ?
Odile Garreau