mercredi 23 avril 2014

La NASA a mis en Ligne ses Plus Belles Images du Cosmos Jamais Photographiées

Pour célébrer le lancement de la nouvelle série Cosmos, la célèbre émission américaine de vulgarisation scientifique des années 80, la NASA a publié d'incroyables images de l'espace.
Le premier épisode de la série a été diffusé en avant-première à Londres en février et sortira sur vos petits écrans le 16 mars prochain sur la chaîne National Géographic. Un voyage de plusieurs millions de kilomètres à travers l'espace qui promet de nous tenir en haleine. 
L'astrophysicien Neil deGrasse Tyson, considéré comme l'un des scientifiques américains les plus populaires, prendra le relais de Carl Sagan pour cette nouvelle série. En attendant, voici des images exceptionnelles des différentes planètes, nébuleuses et de poussières d'étoiles diffusées par la Nasa. Evasion garantie !


Étoile Naine Rouge
En 2008, l’étoile naine rouge EV Lacerta a produit pendant quelques heures une puissante émission de rayons X.


Vénus
Contrairement à la Terre, Vénus n'a pas de champ magnétique pour dévier les puissantes explosions solaires - comme on peut le voir sur cette image créée par la NASA.


Tempête sur Saturne
Cette image vertigineuse de la mission Cassini, composée de couleurs artificielles, met en lumière les tempêtes de pôle nord de Saturne. Les anneaux de Saturne apparaissent en bleu vif en haut à droite.


Nébuleuse de la Carène
Cette photo prise par Hubble montre une petite partie de la naissance d'une étoile dans la région de la Nébuleuse de la Carène.


Du gaz tombant dans un trou noir
Cette simulation informatique montre le gaz provenant d'une étoile déchiquetée, en train de tomber dans un trou noir. Une partie du gaz est également éjecté à grande vitesse dans l'espace.


"Marbre noir"
Cette image de l'Asie et de l'Australie dans la nuit a été composée à partir de données obtenues par le satellite Suomi NPP en avril et en octobre.


Nébuleuse de la Lyre
Vue spectaculaire de la fameuse nébuleuse de la Lyre, aussi surnommée nébuleuse de l'Anneau.


Supernova
Cette image, prise par le télescope spatial Hubble, est une mince section d'un reste de "supernova", un phénomène provoqué par une explosion stellaire ayant eu lieu il y a plus de 1000 ans.


Jupiter et Ganymède
Dans cette image capturée par Hubble, on peut distinguer la lune de Jupiter, Ganymède


Nébuleuse du Crabe
La Nébuleuse du Crabe observée en optique par le télescope spatial Hubble.


Nébuleuse de la Lagune
La Nébuleuse de la Lagune est une nébuleuse diffuse située dans le Sagittaire visible à l'œil nu sous de bonnes conditions.


Mercure


Nébuleuse de l'Œil de Chat
La Nébuleuse de l'Oeil de Chat est une nébuleuse planétaire située dans la constellation du Dragon, dont l'âge est estimé à 1000 ans.


Galaxie spirale
Une galaxie spirale est généralement un ensemble comprenant jusqu'à plusieurs centaines de milliards d'étoiles.


Aurore boréale


Eta Carinae
Eta Carinae est une étoile hypergéante variable bleue, se trouvant entre 7 000 et 10 000 années-lumière de la Terre.


Les lunes de Saturne


Europe
Europe est un satellite naturel de Jupiter.


Les aurores de Saturne

Le laboratoire de formation des étoiles


Éjection de masse coronale du Soleil
Une éjection de masse coronale est une bulle de plasma produite dans la couronne solaire. Elle est souvent liée à une éruption solaire.


Centaurus A
Centaurus A est une galaxie lenticulaire située dans la constellation du Centaure. C'est une des radiogalaxies les plus proches de la Terre.


La Galaxie d'Andromède
La galaxie d'Andromède est une galaxie spirale située à environ 2,55 millions d'années-lumière du Soleil, dans la constellation d'Andromède. Elle est la galaxie spirale la plus proche de la Voie lactée.


Le visage de Mickey sur Mercure
L'image a été capturée au nord-ouest du cratère Magritte (au sud de Mercure).


Une aurore boréale vue de l'espace


Lever de soleil sur Mars


Saturne


Jupiter


Cygnus X


Galaxie spirale


Nébuleuse de la Tête de Cheval
La nébuleuse de la Tête de Cheval est une nébuleuse obscure dans la constellation d'Orion. La nébuleuse est située juste en dessous de Alnitak, l'étoile la plus à l'ouest de la ceinture d'Orion.


Nébuleuse planétaire
En astronomie, une nébuleuse planétaire est un objet astronomique qui ressemble à un disque d'aspect nébuleux lorsqu'il est observé à basse résolution et n'ont en fait aucun rapport avec les planètes.


Nébuleuse protoplanétaire
Une nébuleuse protoplanétaire ou nébuleuse préplanétaire est un objet astronomique constituant l'étape intermédiaire dans l'évolution d'une étoile entre une étoile de la branche asymptotique des géantes et une nébuleuse planétaire. Cette phase a longtemps été un chaînon manquant dans la compréhension de l'évolution des étoiles.


Etoile mourante


Super Lune


Feux d'artifice célestes


Voix lactée


samedi 19 avril 2014

Théorie des cordes

Critique du Modèle Standard


Le Modèle Standard des particules est couramment utilisé aujourd'hui, et donne des résultats extrêmement bons comparés à l'expérience. Il décrit les particules élémentaires et leurs interactions, à l'exception de la gravitation. Ce n'est donc pas une théorie physique complète.
Chaque particule y est décrite par quelques paramètres : la masse, la charge électrique, la charge leptonique, le spin… Au total, il comporte ainsi 19 paramètres. Ces paramètres font partie de la théorie, mais celle-ci n'en fixe pas les valeurs. Ce sont des paramètres libres, dont les valeurs sont déterminées expérimentalement.
Cette liberté laissée aux valeurs des masses, en particulier, indique que la théorie n'est pas unique ! On pourrait en fait créer une kyrielle de théories ayant toutes les mêmes principes, mais des valeurs différentes pour les masses. Il semble que par cet aspect le Modèle Standard ne soit pas une théorie bien achevée.
La gravitation n'en faisant pas partie, la théorie est en plus incomplète. Elle ne peut décrire tout l'univers, mais seulement certains de ses apsects, ceux dans lesquels la gravitation est négligeable devant les autres forces. Ce qui en fait malgré tout une théorie fort utile, car la gravitation est 1040 fois plus faible que l'interaction électromagnétique, dans les conditions qui règnent aujourd'hui à peu près partout dans l'Univers (sauf peut-être dans les trous noirs). Mais ce manque est crucial si l'on veut expliquer une phase chaude de l'Univers à ses débuts : le Big Bang. La densité est alors telle que la gravité, par addition, devient aussi forte que es autres interactions.
Le Modèle Standard donne donc des résultats utiles pour l'immense majorité des applications qu'on peut en attendre, mais il pêche dans des cas très particuliers. Ce qui peut laisser penser que certains phénomènes qui se produiraient dans ces circonstances-là ne seraient pas prédictibles.
Le Modèle Standard décrit les particules élémentaires comme étant ponctuelles. Les diagrammes de Feyman représentent les différentes interactions possibles. L'ennui est qu'il y en a plusieurs, beaucoup, pratiquement une infinité… Si on fait la somme de toutes ces possibilités, on tombe sur des valeurs infinies. Or parmi elles, il y en a de simples, dont la probabilité de réalisation est élevée, et d'autres bien plus complexes, mettant en jeu de nombreuses particules intermédiaires, et dont la probabilité est faible. Pour ne pas prendre en compte, négliger, ces possibilités qui ne se réalisent presque jamais, les physiciens ont défini la méthode de renormalisation. Cette méthode s'applique très bien pour l'électromagnétisme, les interactions forte et faible, mais pas pour la gravité. On dit que celle-ci est non renormalisable. Et de là vient l'impossibilité actuelle de l'inclure dans le Modèle Standard.
L'aspect ponctuel des particules dans le Modèle Standard semble donc à l'origine de bien des problèmes. La Théorie des cordes remplace les particules ponctuelles par des cordes ayant une longueur, et c'est là l'idée de base.

Historique

La première idée est venue à Gabriele Veneziano. Il travaillait sur l'interaction forte, et se heurtait, comme ses collègues, à des problèmes insurmontables. Un jour, il a constaté une similitude mathématique entre ces problèmes et une fonction bien connue, la fonction β imaginée par Euler deux siècles plus tôt. Les solutions de cette fonction représentaient bien les résultats qu'il cherchait à interpréter. Mais sa signification physique n'apparaissait pas.
Il a fallu attendre 10 ans avant qu'émerge une interprétation, et c'est l'origine des cordes : les particules élémnt ires ne seraient plus ponctuelles, mais seraient d'inifintésimale cordes. Cette interprétation est due à Yoichiro Nambu, Holger Nielsen, Leonard Susskind. Si ces cordes étaient très petites, elles pourraient, dans l'état de nos instruments actuels, nous apparaître ponctuelles. Ce qui justifierait qu'on ne les ait pas découvertes expérimentalement. Les interactions entre ces cordes seraient représentées par la fonction β d'Euler.
Une fois l'idée de base lancée, il a fallu la mettre en pratique, et développer une véritable théorie. Et là, les difficutés se sont accumulées. Il a fallu peu de temps pour que des résultats expérimentaux viennent mettre en échec ces développements. Pendant ce temps-là, la chromodynamique quantique remportait tous les succès ! Rappellons qu'elle traite justement de l'interaction forte, que voulait résoudre également la théorie des cordes. Cette dernière a été abandonnée… presque.
Sans trop anticiper sur la description de la théorie, on peut dire que les cordes sont les constituants élémentaires, et que les particules que nous connaissons sont des états de vibration de ces cordes. Une même corde, vibrant à des énergies différentes, peut apparaître sous la forme de particules différentes. Les gluons, qui caractérisent l'interaction forte, sont ainsi représentés. Mais les cordes ont d'autre modes, qui pouvaient s'interpréter comme des bosons, mais ne correspondaient pas à l'interaction forte. Ceci était un défaut rédhibitoire de la théorie, mais il a tourné à son avantage lorsqu'on s'apperçut qu'ils correspondaient en fait au graviton… Tout au moins au graviton théorique, puisqu'il n'a pas encore été observé. On sait que les ondes gravitationnelles, portées par le graviton, ont été observées indirectement par l'augmentation de la période du pulsar binaire. Mais le graviton n'est pas connu expérimentalement.
Ainsi, une théorie faite pour expliquer l'interaction forte dans un cadre quantique, se trouve contenir, presque par accident, les éléments de la gravitation. C'était vraiment un atout très fort. Restait à le conforter par un développement harmonieux.
Echaudé par les multiples tentatives antérieures qui avaient lamentablement échoué, les physiciens n'ont pas cru à cette nouvelle approche. Et dans les années 80, on a même trouvé des incompatibilités entre la Théorie des Cordes et la Mécanique Quantique. En 1984, les problèmes ont soudain été résolus, par Green et Schwarz. Et mieux encore, ils ont montré que la théorie pourrait expliquer non seulement la gravité et l'interaction forte, mais aussi, tant qu'à faire, l'interaction faible et l'électromagnétisme.
Cet aspect universel de la théorie a emporté l'adhésion de nombreux physiciens, qui ont travaillé activement. Mais les calculs sont difficiles. Pire même, car les physiciens ont l'habitude des calculs pénibles, tirés d'équations bien connues. En Théorie des Cordes, les équations ne sont connues qu'approximativement ! En 95, Edward Witten a annoncé une nouvelle approche pour améliorer les équations et les calculs correspondants. Mais près de 20 ans plus tard, la situation n'est pas vraiment débloquée.

Définition

Les cordes seront supposées élémentaires, en ce sens qu'elles n'ont pas de structure, elles ne peuvent pas être décoomposées en entités plus petites. Plus petites que la longueur de Planck serait d'ailleurs difficile à envisager…
Les cordes ont une longueur fixe, et vibrent selon des modes définis par la longueur, tout comme une corde de violon. Les différents modes de vibration, donc d'énergie, de ces cordes définissent les masses et les charges des particules.
Ainsi, toutes les particules que nous connaissons seraient en fait identiques dans leur structure, toutes formées d'un même type de corde, mais vibrant différemment. Comme pour une corde vibrante de violon, l'intensité du son correspond à l'intensité de l'excitation. C'est une énergie d'autant plus grande. Et puisque l'énergie correspond à la masse (E = mc2), à chaque mode de vibration correspond donc une masse. Par conséquent, les masses auraient une explication !

Masses

Les masses posent cependant un problème. Si la longueur des cordes est la longueur de Planck, leur énergie quantique (due au principe d'incertitude), doit être de l'ordre de l'énergie de Planck. Convertie en masse, c'est la masse de Planck. Or celle-ci est absolument énorme : 1019 fois la masse du proton… C'est la masse d'un grain de poussière. Mais encore une fois, un phénomène sauve la situation. Les fluctuations quantiques des cordes leur confèrent une énergie négative ! Et la compensation pourrait se faire. Et elle se fait effectivement, comme l'ont démontré Scherk et Schwartz. Elles se compensent même exactement pour le graviton, qui de ce fait a une masse nulle. Ouf !

Tension des cordes

Pour vibrer, les cordes doivent être en tension, comme une corde de piano. Mais cette tension est énorme. et les modes de vibration possibles en nombre infini. Les particules que nous connaissons, dont la masse est minuscule par rapport à la masse de Planck, sont donc les modes les plus calmes. Et il devrait exister d'innombrables particules de grande masse, correspondant aux modes de grande énergie. Il est évident que nos accélérateurs de particules sont infiniment loin de pouvoir créer de telles particules. Existent-elles réellement ? L'énergie nécessaire pour les créer était disponible un instant après le Big Bang. Il devait donc y en avoir. Mais leur grande masse les rend instables, et elles ont dû se désintégrer en une myriade de particules plus légères, celles que nous observons.

Compatibilité de la Relativité et de la Mécanique Quantique

Le problème d'incompatibilité entre ces deux théories provient de leur description de l'espace. Pour la Relativité, l'espace-temps est continu, lisse. Pour la Mécanique Quantique, à très petite échelle, vers la longueur de Planck, l'espace-temps lui-même perd cette continuité et devient fluctuant. C'est la source des problèmes entre les deux descriptions du monde. La Théorie des Cordes ne présente pas ce problème, pour une raison d'échelle.
Pour sonder la matière et en découvrir la structure, nous utilisons des accélérateurs, qui projettent des électrons ou des protons à très grande énergie. Plus l'énergie est grande, plus la longueur d'onde de de Broglie associée à la particule est petite. C'est ce qui fait qu'elle nous permettent de voir des détails aussi petits que leur longueur d'onde elle-même, d'autant plus petite que leur énergie est plus grande. Les particules dans le Modèle Standard étant ponctuelle, il n'y a pas de limite inférieure réelle pour sonder la matière.
Avec les cordes, le problème est radicalement différent. Les cordes ont une longueur finie, et même en augmentant leur énergie on sera limité par leur longueur, qui ne permettra jamais de sonder à plus petite échelle. Mais si la Théorie des Cordes représente vraiment le Monde, alors rien ne permet de voir à plus petite échelle. Par conséquent, les fluctuations quantiques de l'espace-temps, qui sont à plus petite échelle, sont invisibles à toutes les particules, et le problème ne se pose tout simplement pas.

Les symétries

De nombreux phénomènes physiques admettent une symétrie. La plus évidente est la rotation : une sphère peut être tournée dans tous les sens, elle reste identique à elle-même. Plus subtile, la symétrie temporelle des lois de la Mécanique. La relation fondamentale de la Mécaniqe, F = m d2x / dt2, ne change pas si on change t en -t. Autrement dit, si on fait passer le film à l'envers, on voit les objets suivre la même trajectoire, mais dans l'autre sens. La physique regorge de symétries, et l'on peut même dire qu'aujourd'hui elles sont à la base des théories.
Le Modèle Standard des particules n'échappe pas à la règle. Il présente de nombreuses symétries, qui correspondent à des lois de conservation. Mais tout n'y est pas symétrique. Les particules se divisent bien en deux camps : les fermions et les bosons. Entre les deux, un mur.
Certains physiciens sont allé au-delà de ce qu'affirme ce modèle, et ont ajouté une nouvelle symétrie : celle qui permet d'échanger les bosons et les fermions. Si elle est vrai, cette symétrie permet à un boson de devenir fermion par une désintgration, et réciproquement. Un petit problème : aucun fermion connu ne correspond à un boson connu… idem dans l'autre sens d'ailleurs. Alors, pour admettre cette nouvelle symétrie, il faut accepter de doubler la ménagerie des particules !

Le spin

Les deux physiciens hollandais Uhlenbeck et Goudsmit ont, en 1925, réfléchi sur le magnétisme associé à l'électron. Dans la théorie de Maxwell, le magnétisme nait du mouvement de charges électriques. L'électron possède bien une charge, il lui manquait le mouvement. C'est le spin qui y pourvoit. Le spin est une sorte de rotation sur lui-même de l'électron, propriété quantique puisque l'électron est une particule ponctuelle. Défini pour l'électron, le spin a vite été étendu à toutes les particules matérielles, qui ont un spin de +1/2. Ensuite, ce sont les particules d'interaction qui ont été dotées d'un spin, mais il est entier, de valeur +1. Sauf le graviton, dont le spin vaut +2.
Dans la théorie des cordes, il est apparu un état de vibration qui correspond à une particule de masse nulle et de spin +2, ce qui permet de dire qu'elle contient la gravitation. Une désintégration permet de transformer une particule lourde en une particule plus légère. Ce qui est vrai de la masse le serait-il du spin ? Dans le Modèle Standard, ce n'est pas pris en compte. Mais certaines théories introduisent une nouvelle symétrie, qui permet de passer d'un spin à un autre, d'un demi-entier caractérisant les fermions à un entier caractérisant les bosons. Ceci est la supersymétrie. La Théorie des Cordes l'a incorporée, dans sa version Supercordes.

Théorie des supercordes

Elle inclus la supersymétrie, ce qui a pour effet d'associer à chaque particule une particule dont le spin diffère de ±1/2. Une particule qui diffère ainsi est nommée superpartenaire. En ajoutant 1/2 au spin d'une particule matérielle (électron, proton…), on obtient une particule de spin +1, c'est-à-dire un boson. Ainsi, la supersymétrie permet de transformer un fermion en boson, et un boson en fermion. Juste un petit problème : les particules connues ne peuvent ainsi s'apparier. Ce n'est pas pour rien qu'on n'a pas découvert la sypersymétrie à ce jour…
Les théories supersymétriques ont donc prévu de nouvelles particules. Et pour les nommer, on utilise une méthode systématique. Le nom des superpartenaires des fermions (électron, quarks, neutrinos de spin +1/2) se forme en ajoutant un 's' initial au nom du fermion. Le superpartenaire de l'électron est donc le sélectron, celui du quark est le squark, celui du neutrino le sneutrino. Ils sont de spin 0. Pour les bosons, on utilise le suffixe 'ino' ajouté au nom du boson. Le superpartenaire du photon est le photino, celui du gluon est le gluino. Les bosons intermédiaires Z et W donnent le zino et le wino. Aucune des superparticules n'a encore été découverte.
Quelle est la pertinence de cette supersymétrie ? On peut dire qu'elle est mathématiquement nécessaire, mais la Nature n'est peut-être pas forcée de suivre la mathématiques… Mais physiquement, le Modèle Standard est difficile à maîtriser à cause de fluctuations quantiques, qui produisent des effets parfois énormes, non observés. Or la supersymétrie, par des échanges entre bosons et fermions, calme le jeu. Le Modèle Standard Supersymétrique est donc plus stable que son ancêtre.
Enfin, l'unification des forces est prévue par la Mécanique Quantique, en considérant les fluctuations qui se produisent à proximité d'une particule (création-anihilation de paires). Mais elle ne se produit que deux par deux. Par contre, la supersymétrie, là encore, lisse le processus et produit une véritable unification.

Masses

Les calculs faits sur les superpartenaires indiquent que leurs masses doivent être très élevées, mille fois plus que le proton. Et nos accélérateurs n'atteignent pas cette zone, ce qui explique que les superparticules n'aient pas été observées jusqu'à maintenant.

Supercordes

Au départ, la théorie des cordes ne décrivait que des bosons, c'est-à-dire des particules de spin entier. Lorsqu'on a essayé d'inclure des modes fermioniques, ils sont apparus par couples avec des modes bosoniques. C'est-à-dire qu'on a créé à la fois des fermions et des bosons ; ils arrivent naturellement appariés, confortant l'approche supersymétrique. De plus, la supersymétrie évite la présence de tachyon (particules superluminiques), bien embarrasants dans la théorie première.

La surprise

En 1919, Theodor Kaluza, mathématicien polonais, a imaginé un univers dans lequel il n'y aurait pas 3, mais 4 dimensions d'espace… Mathématiquement, c'est parfaitement possible. Voyons pourquoi :
Considérons un espace à une seule dimension. C'est une ligne droite toute simple, sur laquelle on peut aller dans un sens ou dans l'autre. Il est assez naturel d'orienter la droite, pour savoirdans quel sens on se déplace. Alors, un déplacement dans le sens de la droite est positif, dans le sens inverse il est négatif. Sur cette droite, on peut définir des longueurs, d'un parcours par exemple. Si on se déplace dans le bon sens, le sens positif, la longueur du parcours est la différence entre les positions de l'extrémité et de l'origine. Mais dans le sens inverse, cette différence est négative. Prenons le carré pour avoir toujours un nombre positif.
Passons à deux dimensions. On a maintenant une surface, comme une feuille de papier. Il faut deux axes pour indiquer la position d'un point quelconque. Et pour définir la longueur d'un segment, on utilise le théorème de Pythagore : l2 = x2 + y2. Il donne comm eprécédemmment le carré de la longueur.
En compliquant un peu plus, on passe à trois dimensions. On projette le segment à mesurer sur le plan (X, Y). Dans ce plan, la longueur de la projection est lXY2 = x2 + y2. Et la longueur du segment donné, par une seconde application du théorèe de Pythaogre, est l2 = x2 + y2 + z2.
Pour ces trois dimensions d'espace, le carré de la longueur d'un segment est donc toujours la somme des carrés des projections du segment sur les axes.
Pourrait-on imaginer un espace à 4 dimensions ? Pourrait-on y mesurer la longueur d'un segment ? Oui, en procédant tout simplement par analogie. On pose que la longueur d'un segment est l2 = x2 + y2 + z2 + t2. Si on veut que les axes soient orthogonaux, il faut analyser ce que signifie cette propriété. Deux axes sont perpendiculaires si le produit scalaire de leurs vecteurs unités est nul. Il suffit de définir un produit scalaire en dimension 4 pour satisfaire cela.
Avec ces outils mathématiques, on est donc capables de construire, mathématiquement, des espaces de dimension quelconque (même infinie, mais oui…).
Kaluza a défini un espace un peu particulier, car il est évident pour tout le monde que notre espace physique n'a que trois dimensions d'espace, pas une de plus. Pourtant, imaginez qu'il existe une quatrième dimension, mais toute petite, enroulée sur elle-même. Tellement petite, que nos moyens physiques ne nous permettent pas de la distinguer. C'est un peu difficile à imaginer bien sûr, mais c'est envisageable. Un tel espace physique n'apporterait pas de contradiction.
L'image classique est celle de la fourmi qui marche sur un long tuyau d'arrosage. Vu de loin, le tuyau paraît un fil, unidimensionnel. Il faut le voir de près pour s'aperçevoir qu'il présente une seconde dimension enroulée, sur laquelle la fourmi, à la même échelle, est capable de tourner. C'est quelque chose comme ça que les particules élémentaires pourraient ressentir.

Théorie de Kaluza-Klein

Kaluza a suggéré que l'ajout d'une dimension permettrait d'unifier la Relativité Générale avec l'électromagnétisme. Une telle performance justifiait que l'on s'intéresse de près à la question. On nomme Théorie de Kaluza-Kleintoute théorie qui explique la physique dans un espace à plus de 3 dimensions.
En ajoutant une diension à un espace, on ajoute des libertés. Comme la fourmi qui peut faire le tour du tuyau, les particules peuvent maintenant s'offrir de petites incursions dans un nouvel espace. Kaluza a réécrit les équations de la Relativité Générale, mais la quatrième dimension a produit, obligatoirement, de nouvelles équations. Il faut bien décrire ce qu'il se passe dans cette extension de l'espace. Et la surprise a été que es équations ajoutées étaient identiques aux équations de Maxwell de l'électromagnétisme.
Relativité Générale + quatrième dimension = Relativité Générale + électromagnétisme.
Ainsi, cette modification de l'espace permet de décrire simultanément deux théories majeures de la physique. La gravitation provient des dimensions habituelles, et l'électromagnétisme découle de la quatrième.
Les problèmes sont pourtant arrivés peu après. Les prédictions de cette théorie pour la masse et la charge de l'éelctron ne correspondaient pas avec les observations. Celles-ci devaient avoir raison ! Le physiciens se sont tournés vers d'autres problèmes. Jusqu'aux années 80.
Le interactions faible et forte étaient inconnues lors du travail de Kaluza. Alors, on a pensé que c'était la cause des problèmes de la théorie. Il était temps de la ressortir de la naphtaline. Et puisqu'une dimension de plus permettait de décrire une interaction, il suffisait d'en rajouter encore pour décrire les autres !
Mais attention ! Les nouvelles dimensions, comme celle de Kaluza, doivent être enroulées et microscopiques. Et présentes en chaque point de l'espace. En chaque point, il faut imaginer qu'il y ait plusieurs dimensions enroulées…

Topologie

Comment s'enroulent-elles ? Supposons qu'il y en ait deux. Elles peuvent former une sphère, ou un tore. Bref, il n'y a pas une solution unique.
L'ajout de dimensions a donné quelque chose de très encourageant, mais les calculs ont rapidement fait déchanter. On a ajouté 7 dimensions d'espace, pour satisfaire des problèmes de probabilité.
Comment ces dimensions supplémentaires peuvent-elles influencer la physique ? Puisque celle-ci est basée sur les modes de vibration des cordes, qui représentent les particules, il est évident que plus les modes sont riche, plus la physique l'est également. Et les dimensions supplémentaires donnent de l'espace aux cordes pour vibrer dans un espace plus vaste. On conçoit que ces dimensions ajoutent beaucoup de liberté aux cordes, et permettent par conséquent de représenter des particules plus variées.
A quoi ressemblent les dimensions enroulées ? Si nous en avions une seule, ce serait simple, elle s'enroulerait selon un cercle. Mais il y en a 7. Et le nombre de possibilités est quasiment infini. Or parmi tout cela, Eugenio Calabi et Shing-Tung Yau ont étudié peut-être les plus simples, qui forment déjà une vaste famille contenant plusieurs dizaines de milliers de membres. Mais on ne connait pas du tout les autres. Ces espaces de Calibi-Yau sont donc exemplaires, mais pourquoi la Nature aurait-elle choisi juste ceux qu'on sait étudier .?
Cependant, l'étude de ces espaces est intéressante à titre d'exemple. Si la théorie des supercordes est la bonne théorie pour décrire l'Univers, il faudra choisir la topologie (la combinaison des enroulements) qui produit les bonnes lois de la physique. Parmi une infinité de possibilités, ce n'est pas chose facile. Les espaces de Calabi-Yau constituent donc un exemple, qui doit permettre de bâtir une physique, au risque que ce ne soit pas la bonne.

Vérification expérimentale

Les cordes sont, pas définition, de la longueur de Planck. Pour sonder la patière à ces distances, il faut une énergie que nous sommes vraiment très loin d'atteindre. On imagine qu'il faudrait un accélérateur de particules de la taille de la Galaxie ! Il faudrait communiquer à une particule une énergie de 1.000 kW/h… Dans ces conditions, nous ne sommes pas près de vérifier directement la théorie.
L'espoir qu'il reste est de trouver des implications qui se manifesteraient dans des effets observables, c'est-à-dire à une échelle accessible.
Une première approche concerne le nombre de familles de particules. On sait qu'il y en a trois : l'électron, le muon et le τ sont les représentants de ces trois familles. Il est pratiquement établi qu'il n'y en a pas plus. Or le nombre de familles serait relié à la topologie de l'espace de Calabi-Yau sous-jacent. Plus précisément, l'enroulement des dimensions supplémentaires peut laisser des trous dans la topologie. Et le nombre de trous, en limitant les mouvements des cordes, fixerait le nombre de familles. Ainsi, pour expliquer trois familles de particules, il faudrait juste trois trous dans l'espace de Calabi-Yau. Mais actuellement, on ne sait pas faire le lien entre la forme de l'espace et les équations de la théorie. On peut espérer que les progrès mathématiques le permettront un jour.
La forme des enroulements modifie aussi les masses des particules, leurs charges, toutes leurs propriétés. En raisonnant à l'envers, on peut donc espérer déterminer cette forme à partir des propriétés observées. C'est donc un critère macroscopique qui permettrait d'atteindre le niveau microscopique des cordes.
Mais tout cela ne sera possible que le jour où on sera capable de calculer ces paramètres (masse, charges…) à partir de la topologie de l'espace de Calabi-Yau. On en est encore loin, car les méthodes mathémtiques disponibles sont très approximatives.
Mais la théorie des cordes reste en lice, parce qu'on a montré qu'il existe des espaces de Calabi-Yau qui représenteraient correctment les particules. La porte reste donc ouverte.
Nous avons vu que les modes de vibrations produisent, par paires, des bosons et des fermions. La supersymétrie est donc dans la théorie. Or elle prévoit toute une ménagerie de particules que l'on n'a pas encore observé. Peut-être parce qu'elle sont trop lourdes pour les moyens actuels ? Peur-être le LHC les découvrira-t-il ? Peut-être sont-elles encore trop lourdes pour lui ? Peut-être n'existent-elles tout simplement pas parce que notre univers n'est pas supersymétrique…
La théorie des cordes pourrait aussi prévoir des particules à la charge fractionnaire différente de 1/3. Aucune telle particule n'a été observée. Finalement, la théorie des cordes est tellement riche, qu'elle peut prévoir un peu tout !
En particulier, on l'a invoquée pour représenter la matière noire. Mais on ne peut aller plus loin, faute de preuves.

Pléthore

L'incorporation de la supersymétrie s'est bien faite dans la théorie des cordes, mais trop bien ! En fait, elle s'est faite de cinq façons différentes, donnant finalement 5 théories des supercordes. 4 de trop…
"Si l'une des cinq théories décrit notre univers, qui donc habite les quatre autres ?"
Edward Witten
En fait, les calculs sont très difficiles, et ne peuvent se faire que de façon approchée. Et on a finalement montré que les 5 théories étaient 5 approximations différentes d'une même théorie baptisée Théorie M.

Les branes

Jusqu'ici, nous avons considéré les cordes comme des objets unidimensionnels, dans un espace à 10 dimensions. Mais ceci est bien restrictif. L'espace dont nous avons l'habitude, à trois dimensions, contient des sous-espaces. Un sous-espace est une partie de l'espace qui peut être décrite avec un plus petit nombre de paramètres. Pour donner la position d'un point dans l'espace, il faut trois variables (x, y, z). Mais si on se limite à la surface du sol par exemple, deux dimensions suffisent (x, y), puisqu'il n'y pas de hauteur, ou plus précisément la hauteur est la même partout, et peut donc être omise. Au lieu d'un plan, on peut considérer la surface d'un tissu, d'une membrane, avec des ondulations. Mais si la description est plus complexe, elle peut toujours se faire avec deux variables seulement. On peut aussi considérer une ligne droite, et un point quelconque est repéré par une seule variable (x).
Dans un espace à 10 dimensions, comme celui de la théorie des cordes, on peut aussi considérer des sous-espaces. Ils auront 0, 1, 2, 3, 4, 5, 6, 7, 8, ou 9 dimensions. Par analogie avec notre espace habituel, où une membrane est une surface à deux dimensions, on appelle brane un sous-espace quelconque. Et pour préciser sa dimension, on parle de D-brane, D étant la-dite dimension.
L'existence de ces branes enrichi considérablement la théorie, et la complique aussi beaucoup. Elle a des implications cosmologiques, mais ceci est une autre histoire…
---=OO=---

mercredi 16 avril 2014

Les 7 merveilles de la mécanique quantique



feynman mécanique quantique_300
La mécanique quantique, c’est cette branche de la physique qui décrit la manière dont se comportent les objets microscopiques : les molécules, les atomes ou les particules.
Développée pendant la première moitié du XXème siècle, la mécanique quantique est un des piliers de la science contemporaine. Et pourtant, il s’agit aussi probablement de la plus étrange théorie jamais imaginée.
En effet, la mécanique quantique regorge de mystères, de surprises et de paradoxes qui nous obligent à revoir la manière dont nous concevons la matière, et même la physique en général.
Cette théorie est d’ailleurs tellement bizarre que l’un de ses plus fameux contributeurs, le physicien Richard Feynman (ci-dessus), disait à son propos:
« Si vous croyez comprendre la mécanique quantique, c’est que vous ne la comprenez pas ».
Nous voici prévenus ! Mais essayons quand même d’y voir plus clair. Aujourd’hui, je vous propose donc un tour d’horizon des 7 merveilles et mystères de la mécanique quantique. Âmes sensibles, vous pouvez rester, je vous promets de ne pas employer de connaissances au delà du lycée !

1. Le principe de superposition

ballon_électron
Quand on étudie le mouvement des objets du quotidien, par exemple un ballon de foot, on considère des quantités bien définies : sa vitesse, sa position, sa vitesse de rotation ou son énergie.
On ne sait pas forcément mesurer très exactement ces quantités, mais on sait qu’elles existent et qu’elles ont des valeurs précises. A un instant donné, le ballon de foot est dans un état bien défini. Ça, c’est la mécanique dite "classique", c’est-à-dire celle des objets normaux.
Mais pour les objets microscopiques, tout change ! Contrairement au ballon de foot, une particule microscopique peut être dans un mélange de plusieurs états. Aussi incroyable que cela paraisse, cela veut dire qu’un électron peut par exemple posséder à la fois deux vitesses, ou être à deux endroits différents à la fois. Voire même plus de deux endroits !
Pour désigner le fait qu’en mécanique quantique, les objets peuvent être dans plusieurs états à la fois, on parle du principe de superposition.
chat_schrödinger_mort_vivant
Les physiciens ont une notation bizarre pour désigner ça, il décrivent les états avec des sortes de crochets comme celui-ci |\ \ \ >, et pour superposer des états ils  les additionnent.
Vous avez certainement déjà entendu parler de cette étrange superposition à travers l’exemple du fameux chat de Schrödinger, ce chat « fictif » qui serait à la fois mort et vivant. En utilisant cette notation entre crochets, on pourrait écrire :
|Chat> = | Mort > + | Vivant >
Bien sûr, l’exemple du chat n’est pas très réaliste, car je vous l’ai dit cette situation ne peut se produire que pour les objets microscopiques. Et heureusement ! Vous imaginez si le ballon de foot pouvait se trouver à la fois derrière et devant la ligne de but !
Vous allez voir que de cette simple idée de superposition des états découlent toutes les étrangetés de la mécanique quantique.

2. L’indéterminisme de la mesure

Coup franc Roberto Carlos

Continuons notre comparaison entre la mécanique classique et la mécanique quantique. En mécanique classique on peut mesurer les propriétés des objets, par exemple la vitesse du ballon de foot. On peut bien sûr faire des erreurs de mesure (par exemple mesurer 133 km/h alors que la vraie valeur est 132 km/h pour la frappe de Roberto Carlos). Mais si on améliore la précision de notre instrument, on va se rapprocher de plus en plus de cette vraie valeur.
Mais comment ça se passe en mécanique quantique ? Imaginez un électron qui aille à la fois à 1000km/h et 2000 km/h. Je vous rappelle qu’on va noter cela comme ça :
|électron> = |1000 km/h > + |2000 km/h >
Si on mesure la vitesse de cet électron, que va-t-on trouver ? 1000 km/h ? 2000 km/h ? Entre les deux ?
Ce que nous dit la mécanique quantique, c’est qu’on va trouver soit l’un, soit l’autre, mais qu’il n’existe aucun moyen de savoir à l’avance lequel des deux. Le résultat de la mesure est probabiliste. Le pire étant que même si on imagine refaire plusieurs fois l’expérience exactement de la même manière, on ne trouvera pas forcément le même résultat que la fois d’avant. En fait dans la situation que je décris, vous allez trouver 1000 km/h dans 50% des cas, et 2000 km/h dans 50% des autres.
On peut même avoir des variantes de cette situation où l’on mélange des états avec des proportions différentes, comme dans un cocktail. Par exemple on peut écrire le mélange suivant :
(1/4) | 1000 km/h > + (3/4) | 2000 km/h >
Ici l’électron est 3 fois plus dans l’état 2000km/h que dans l’état 1000 km/h. Et devinez quoi ? Cela modifie les probabilités lors des mesures. Avec un électron dans cet état, vous mesurerez bien plus souvent 2000 km/h que 1000 km/h (les proportions ne seront pas tout à fait 1/4 et 3/4, mais ça n’est pas important à ce stade).
Ce que je vous décris là est une révolution conceptuelle incroyable en physique. Les physiciens ont longtemps supposé que la nature était déterministe : si on refait deux fois exactement la même expérience (en principe), on retrouve deux fois le même résultat. Et si on connaît l’état d’un système à un instant donné, on peut (toujours en principe) prédire ce que sera le résultat d’une mesure. En mécanique quantique, tout cela est parti en fumée : il existe un indéterminisme fondamental qui fait que les résultats des mesures dépendent du hasard, d’une manière qu’il est impossible de prévoir.
Cette idée a tellement choqué Albert Einstein que c’est à son sujet qu’il a déclaré son fameux « Dieu ne joue pas aux dés ». Il refusait de penser que le hasard pouvait jouer un rôle fondamental en physique. Et pourtant il avait tort.

3. La dualité onde-corpuscule

Je vous l’ai dit, en mécanique quantique on peut superposer les états. En particulier un objet microscopique peut se trouver dans plusieurs endroits à la fois : il suffit de superposer des états différents. On peut même pousser le bouchon plus loin et imaginer une particule qui soit dans une infinité d’endroits à la fois. Pour écrire ça, il faut superposer un nombre infini d’états différents. C’est un cocktail avec un nombre infini d’ingrédients !
Mais histoire que notre particule soit quand même un peu plus dans certains endroits que dans d’autres, on va mettre un coefficient à chacun des états qu’on superpose. Je vous ai dit que le coefficient que l’on met devant chaque état est relié à la probabilité de trouver notre particule dans cet état. Donc mathématiquement, on va définir une fonction P(x,y,z) qui va nous dire quelle est la probabilité de trouver notre particule dans chacun des points (x,y,z) de l’espace.
probabilité de présence
Vous voyez qu’en faisant cela, notre particule n’est plus un corpuscule localisé, mais elle est décrite par cette fonction P(x,y,z) que l’on va appeler un champ de probabilités. Ce champ partage plusieurs similitudes avec le champ électrostatique. Par exemple quand le temps s’écoule, ce champ peut évoluer et se comporter d’une manière qui ressemble beaucoup aux ondes électromagnétiques.Finalement on ne va plus décrire notre particule comme un objet ponctuel, mais comme une onde !
Cette description de la matière par des ondes avait été introduite au début du XXème siècle par plusieurs chercheurs, dont le physicien français Louis De Broglie. Ce dernier a notamment proposé l’idée de la dualité onde-corpuscule : les particules peuvent suivant les circonstances se comporter soit comme des particules, soit comme des ondes. Cette idée totalement contre-intuitive a permis de mettre un terme au débat multi-centenaire sur la nature de la lumière. Alors la lumière est-elle faite d’ondes électromagnétiques ou de photons ? Eh bien les deux mon général !

4. L’effet tunnel

Si vous m’avez suivi jusque là, vous avez compris qu’une des conséquences du principe de superposition, c’est qu’il faut admettre de décrire les particules par des ondes. Il y a plusieurs implications étranges de ce changement de perspective.
effet tunnel
Revenons à notre ballon de foot : si vous le lancez contre un mur, il va rebondir. Il n’y a aucune chance qu’il traverse le mur comme par magie. Et pourtant avec les ondes c’est différent. Songez aux ondes sonores par exemple : si votre voisin d’à côté met la musique à fond, une partie du son va traverser et arriver chez vous. Certes le son sera atténué, voire très atténué, mais une petite partie passera quand même.
Maintenant imaginez un électron qui arrive sur un obstacle (une sorte de mur microscopique). Si cet électron est décrit par une onde, comme pour la musique de votre voisin, il y a une petite partie cette onde qui va passer de l’autre côté de l’obstacle (voir ci-contre).
Je vous rappelle que cette onde décrit une probabilité de trouver l’électron à un endroit donné. Donc ça veut dire qu’il y a une petite probabilité que l’électron traverse l’obstacle. On parle de l’effet tunnel, car tout se passe comme si une fois de temps en temps, un petit tunnel se créait dans le mur pour laisser passer notre électron.
L’effet tunnel est un autre exemple de ces choses qui se produisent dans le monde quantique, mais pas dans le monde macroscopique. Et il s’agit d’un phénomène avéré : on s’en sert pour faire des microscopes dits "à effet tunnel", qui permettent de voir et manipuler les atomes. L’effet tunnel permet également d’expliquer le principe de la radioactivité.

5. L’intégrale de chemin

quantification corde atome hydrogène
Poursuivons notre exploration des conséquences innattendues de la description ondulatoire de la matière. Quand en physique classique les objets ont une position bien définie, ils suivent une trajectoire bien définie. Le coup-franc de Roberto Carlos passe à droite du mur, et pas à gauche.
Mais en mécanique quantique, puisque les particules peuvent être à plusieurs endroits à la fois, elles peuvent aussi suivre plusieurs trajectoires à la fois ! L’illustration la plus spectaculaire de ce phénomène est celle de l’expérience de la double fente.
Dans cette expérience, on envoie des électrons sur un écran comportant seulement deux fentes par lesquelles ceux-ci peuvent passer. On peut montrer que même quand l’électron semble passer par la fente A, sa trajectoire dépend du fait que la fente B soit ouverte ou fermée.
On interprète cela en disant que même si l’électron passe principalement par A, un tout petit peu de lui essaye aussi de passer par B, et est donc sensible au fait que B soit ouverte ou fermée. (C’est comme si la trajectoire du coup-franc de Roberto Carlos était affectée par le fait de mettre un défenseur supplémentaire à gauche du mur !)
Le physicien Feynman (que je citais au début du billet) a poussé cette idée à son paroxysme, en écrivant que lorsqu’une particule quantique va d’un point à un autre, elle passe par tous les chemins possibles qui relient ces deux points. Une approche connue sous le terme d’intégrale de chemin.

6. La quantification

Nous y voici : je vais enfin vous parler de ce phénomène qui donne son nom à la mécanique quantique. Ca n’est pas forcément le plus spectaculaire, mais il a revêtu une importance historique fondamentale.
Comme d’habitude, voyons comment sont les choses en mécanique normale. Pour les objets macroscopiques, on utilise des quantités comme la position, la vitesse, l’énergie ou la vitesse de rotation. Ces quantités peuvent en principe prendre n’importe quelle valeur parmi les nombres réels. Ce sont des quantités continues.
Mais en mécanique quantique, ça n’est plus nécessairement le cas ! Certaines quantités se trouvent contraintes à prendre des valeurs bien définies, on dit qu’elle sont quantifiées. Par exemple un atome d’hydrogène dans son état d’énergie minimale aura une énergie de -13.6 eV (eV, c’est l’électron-volt, l’unité d’énergie qu’on utilise pour les particules). Si on veut augmenter son énergie, alors on doit l’augmenter jusqu’à -3.4 eV.Impossible de lui donner une énergie intermédiaire entre ces deux valeurs ! Quant à diminuer son énergie, n’y pensez même pas, impossible de descendre sous la valeur de -13.6 eV ! Et c’est d’ailleurs heureux, car s’il n’y avait pas ça, les électrons iraient se crasher sur les protons, et les atomes seraient instables. La mécanique quantique a permis de résoudre ce paradoxe que la mécanique classique n’expliquait pas.
Mais au fait, pourquoi certaines propriétés seraient-elles quantifiées ? Encore une fois il est possible de la comprendre en considérant simplement la description ondulatoire des particules. Pensez à une autre onde : celle qui agite une corde de guitare. Puisque la corde est attachée aux deux extrémités, elle ne peut vibrer qu’à certaines fréquences. Les sons émis par une corde le sont donc à des fréquentes discontinues, et ne prennent pas des valeurs intermédiaires ! Il se passe le même phénomène pour les ondes qui décrivent les particules, et plusieurs quantités physiques qui décrivent les objets microscopiques sont quantifiées.
quantification corde atome hydrogène

7. Le principe d’incertitude de Heisenberg

Pour ceux qui ont tenu jusque là, passons à la 7ème et dernière étape de ce voyage dans les mystères de la mécanique quantique. Le principe d’incertitude de Heisenberg est une des propriétés les plus caractéristiques mais aussi les plus étranges du monde quantique.
Quand je vous ai décrit l’idée de superposition des états, j’ai sous-entendu que l’on pouvait superposer tout et n’importe quoi. En fait ça n’est pas vrai ! Il y a des contraintes. La plus connue est qu’on ne peut pas spécifier à la fois exactement la position et la vitesse d’une particule. Plus sa position est précisément définie, plus sa vitesse est incertaine, et réciproquement. C’est le principe d’incertitude de Heisenberg.
son_direct_spectre
Si vous êtes un peu familiers avec certains aspects des ondes acoustiques ou lumineuses, on peut illustrer ce principe. Quand on analyse un son, on peut regarder sa courbe en intensité, comme ce qu’on voit sur les logiciels d’enregistrement (ci-contre en bleu). Mais on peut aussi décomposer le son sur les différentes fréquences qui le composent (mathématiquement on utilise cette opération qui s’appelle la transformée de Fourier). On obtient alors un spectre de fréquences, c’est la courbe violette ci-contre.
Or il s’avère que plus le son est court (comme un coup sec sur une batterie), plus il contient un nombre important de fréquences. Et réciproquement plus le son est pur en fréquence, plus il doit être long dans le temps.
Dans le son il y a donc une sorte de phénomène d’incertitude : il ne peut pas être à la fois localisé dans le temps (très court) et en fréquence (très pur). La situation est analogue pour la lumière : si vous voulez faire une onde à une longueur d’onde parfaitement définie, cette onde doit s’étendre partout dans l’espace ! Si vous voulez la localiser, il faut ajouter des fréquences supplémentaires.
En mécanique quantique, il se passe exactement la même chose. A partir du moment où on admet de décrire les particules par des ondes, alors il faut renoncer à pouvoir spécifier à la fois leur position et leur vitesse.
Pour résumer, comme le disait Heisenberg
« Chérie, j’ai garé la voiture, mais je sais plus où ».
Je m’arrête ici, j’ai clairement explosé mon record de longueur. Chacun de ces paragraphes mériterait un billet à lui seul. Ca viendra !
Billets reliés :
Sur les fréquences de vibration : Quand la musique est bonne

Pour aller plus loin…

Cette fois-ci, pas de "pour aller plus loin" en tant que tel. J’ai fait évidemment plein d’approximations, d’imprécisions et de simplifications dans ce texte. Si vraiment vous voulez aller plus loin, il faut s’attaquer à un cours de mécanique quantique ! Pour ma part, je recommande le livre "Modern Quantum Mechanics" de J.J. Sakurai, que j’avais trouvé très bien fait à l’époque (mieux que les classiques de Messiah ou Cohen-Tannoudji).
Quelques points au passage pour stimuler la réflexion de ceux qui connaissent déjà le sujet :
  • Quand je parle de la superposition des états, je fais deux simplifications. J’ai écris qu’une particule peut être dans deux états à la fois. En fait elle est toujours dans un seul état (au sens "élément de l’espace de Hilbert"), mais cet état peut se décomposer sur deux états propres d’une observable d’intérêt (position, vitesse…). Autre simplification, quand j’écris des choses comme Chat = Mort + Vivant, je suppose que l’on peut complètement décrire l’état à l’aide des valeurs propres d’une observable, ce qui n’est évidemment pas le cas. Il faudrait spécifier tout ça.
  • Sur la mesure, un paradoxe qui me fascine : en principe la mécanique quantique doit être plus fondamentale que la mécanique classique. On doit donc pouvoir retrouver la mécanique classique comme une limite (du genre \hbar \to 0) de la méca quantique. Or telle qu’elle est présentée ici, la mécanique quantique a fondamentalement  besoin de la mécanique classique pour définir les notions de mesure, réduction du paquet d’onde, etc. Pour surmonter cette difficulté, il faut creuser le concept de décohérence, mais je ne crois pas que ce paradoxe soit résolu.
  • Sur le caractère fondamentalement probabiliste de la mécanique quantique, ma description laisse penser qu’il est possible que le hasard soit simplement le fruit de notre ignorance d’une connaissance suffisamment fine du système, un peu comme en physique statistique. Or il n’en est rien. La violation des inégalités de Bell par l’expérience d’Alain Aspect exclu de s’en sortir en supposant qu’il y a des variables cachées. Il faudra que je fasse un billet spécifique là dessus !
  • Dans la dualité onde-corpuscule, je fais une analogie entre les ondes électromagnétiques et les ondes de probabilité. Attention cependant, contrairement aux apparences, le champ électromagnétique n’est pas la fonction d’onde du photon !
  • Un point plus général : tous les effets que je décris ici sont censés exister pour les objets microscopiques mais pas pour les objets macroscopique. Où se situe la distinction ? Eh bien si vous avez un objet, vous pouvez calculer son action. Si cette action est grande devant la constante de Planck, les effets quantiques seront négligeables !

 
Design by Free WordPress Themes | Bloggerized by Lasantha - Premium Blogger Themes | Best Buy Coupons