Romaniko


Mécanique quantique (Methodologie pour savoir si les choses et objets appartiennent a ce monde )

La mécanique quantique est la branche de la physique théorique qui a succédé à la théorie des quanta et à la mécanique ondulatoire pour étudier et décrire les phénomènes fondamentaux à l'œuvre dans les systèmes physiques, plus particulièrement à l'échelle atomique et subatomique.

Elle fut développée dans les années 1920 par une dizaine de physiciens européens, pour résoudre des problèmes que la physique classique échouait à expliquer, comme le rayonnement du corps noir, l'effet photo-électrique, ou l'existence des raies spectrales. Elle se montra féconde en résultats et en applications diverses : elle permit notamment d'élucider le mystère de la structure de l'atome, et plus globalement elle s'avéra être le cadre général de description du comportement des particules élémentaires, jusqu'à constituer le socle de la physique moderne.

La mécanique quantique comporte de profondes difficultés conceptuelles. Si son formalisme mathématique est d'une efficacité inégaléenote 1, son interprétation ne fait pas l'unanimité dans la communauté scientifique1. Parmi ses concepts, on peut citer la dualité onde corpuscule, la superposition quantique, l'intrication quantique ou encore la non-localité.

L'expression physique quantique désigne le corpus théorique plus étendu qui s'appuie sur la mécanique quantique pour décrire un ensemble plus vaste de phénomènes, dont les interactions fondamentales dans le modèle standard.

Un quantomécanicien est un spécialiste de mécanique quantique et un quantochimiste un spécialiste de chimie quantique2.

Globalement, la mécanique quantique se démarque de la physique classique par deux aspects : des règles différentes quant à l'additivité des probabilités3, et l'existence de grandeurs physiques ne pouvant se manifester que par multiples de quantités fixes, appelés quanta, qui donnent leur nom à la théorie.

Dans la conception classique des lois de probabilité, lorsqu'un événement peut se produire de deux façons différentes incompatibles l'une avec l'autre, les probabilités s'additionnent. Tel n'est pas le cas en mécanique quantique, où la probabilité d'un évènement est liée à une amplitude de probabilité susceptible d'interférer, y compris de façon destructive.

Cette propriété est illustrée par l'expérience des fentes de Young, considérée notamment par Richard Feynman comme la plus emblématique du comportement quantique de la matière. Dans son cours de mécanique quantique, Feynman consacre un long chapitre à son analyse détaillée. Cette expérience illustre aussi le concept de dualité onde-corpuscule, à la base de l'interprétation standard de la théorie.

On considère actuellement qu'aux échelles macroscopiques, l'apparente non-observation de ce comportement probabiliste s'explique par un phénomène appelé décohérence. Cependant d'autres explications existent, mais aucune ne fait l'unanimité : elles relèvent essentiellement de différences dans l'interprétation de la mécanique quantique.

Article détaillé : Fonction d'onde.Cette section a besoin d'être recyclée (janvier 2022).
Une réorganisation et une clarification du contenu sont nécessaires. Améliorez-le ou discutez des points à améliorer.

La mécanique quantique tire son nom de l'existence de grandeurs ne pouvant se manifester que par multiples de quantités fixes, souvent liées à la constante découverte par Max Planck. Ces grandeurs sont par exemple l'énergie ou le moment cinétique des particules.

L'illustration la plus manifeste et la plus riche en conséquences de ce phénomène se trouve probablement dans la structure de l'atome et plus précisément dans l'organisation des électrons autour du noyau. En effet, les électrons se répartissent en occupant les places laissées libres par les valeurs possibles des nombres quantiques liés à leur énergie et leur moment cinétique. Cette organisation permet d'expliquer le comportement chimique et spectroscopique des éléments naturels.

L'existence des quanta n'est pas une propriété fondamentale de la mécanique quantique, car elle peut être démontrée à partir d'autres considérations, notamment relatives à la règle sur l'additivité des probabilités mentionnée plus haut. Cependant, elle constitue certainement l'un des aspects les plus caractéristiques de la mécanique quantique, car c'est elle qui se manifeste le plus aisément dans les équations, et c'est historiquement par cet aspect que la mécanique quantique fut découverte.

Article détaillé : Histoire de la mécanique quantique.Le congrès Solvay de 1927 a réuni les meilleurs physiciens de l'époque, au nombre desquels figurent la plupart des fondateurs de la mécanique quantique.

Article détaillé : Fonction d'onde.Cette section a besoin d'être recyclée (janvier 2022).
Une réorganisation et une clarification du contenu sont nécessaires. Améliorez-le ou discutez des points à améliorer.

C'est incontestablement la résolution du problème du rayonnement du corps noir qui a marqué le début de la théorie quantique. Au début du xxe siècle, Max Planck résout en effet ce problème en prenant l'hypothèse que l'énergie {\displaystyle E} des atomes ne peut s'échanger que par multiples d'une quantité particulière, proportionnelle à la fréquence {\displaystyle \nu } du rayonnement et à une nouvelle constante {\displaystyle h} appelée depuis constante de Planck et reconnue par la suite comme l'une des quatre constantes fondamentales :

{\displaystyle E=h\nu }

Cette idée de grandeurs énergétiques ne pouvant s'échanger que de façon discrète inspirera alors de nombreux physiciens, comme Niels Bohr, qui s'en serviront notamment pour développer un modèle de la structure de l'atome. Plus généralement, ce fut le début de ce qu'on appela la théorie des quanta.

Peu de temps après la découverte de Planck, Albert Einstein, à la suite notamment de son analyse de l'effet photo-électrique, suggère que la quantité hν est l'énergie d'une particule électromagnétique qui sera plus tard appelée photon. Cette réintroductionnote 2 d'une conception corpusculaire de la lumière va inciter Louis de Broglie à proposer une relation analogue à celle de Planck, mais pour la quantité de mouvement :

{\displaystyle {\vec {p}}=\hbar {\vec {k}}={\frac {h}{2\pi }}{\vec {k}}}

où {\displaystyle {\vec {k}}} est un vecteur d'onde. {\displaystyle \hbar } est la constante de Planck dite réduite.

Article détaillé : Fonction d'onde.Cette section a besoin d'être recyclée (janvier 2022).
Une réorganisation et une clarification du contenu sont nécessaires. Améliorez-le ou discutez des points à améliorer.

Ce faisant, il est l'instigateur de la dualité onde corpuscule qui incitera certains physiciens à rechercher une description ondulatoire de la matière. Parmi ceux-ci, Erwin Schrödinger y parvient et obtient une équation différentielle, portant désormais son nom, qui permet de décrire précisément l'évolution quantique d'une particule. Cette équation prouva rapidement sa pertinence dans sa description du modèle de l'atome d'hydrogène.

Parallèlement, Werner Heisenberg avait développé une approche radicalement différente, qui s'appuyait sur des calculs matriciels directement inspirés de la mécanique analytique classique.

Ces deux approches, ainsi que la confusion concernant le concept de dualité onde corpuscule, donnaient à la mécanique quantique naissante un besoin de clarification. Cette clarification intervint grâce aux travaux d'un physicien britannique, Paul Adrien Dirac.

Dans un livre publié en 1930, intitulé Principes de la mécanique quantique, Dirac montre que les deux approches, celles de Schrödinger et d'Heisenberg, ne sont en fait que deux représentations d'une même algèbre linéaire. Dans cet ouvrage fondateur, Dirac extrait les lois proprement quantiques, en faisant abstraction des lois déjà imposées par la physique classique. Dirac donne alors une représentation axiomatique de la mécanique quantique, probablement inspirée des développements mathématiques de l'époque, notamment en ce qui concerne la géométrie projective4.

Article détaillé : Fonction d'onde.Cette section a besoin d'être recyclée (janvier 2022).
Une réorganisation et une clarification du contenu sont nécessaires. Améliorez-le ou discutez des points à améliorer.

Le travail de Dirac avait été précédé quelques années auparavant par celui de John Von Neumann, mais l'ouvrage de Von Neumann était beaucoup plus rigoureux sur le plan mathématique, de telle sorte qu'il plaisait surtout aux mathématiciens. Les physiciens lui ont préféré celui de Dirac et c'est donc essentiellement l'ouvrage de Dirac qui a laissé une postérité. Dans la préface d'une ré-édition de son livre, Von Neumann mentionne l'ouvrage de Dirac et le décrit comme « une représentation de la mécanique quantique qui peut à peine être surpassée en termes de brièveté et d'élégance », mais ajoute tout de même dans le paragraphe suivant que sa méthode « ne satisfait en aucune façon les exigences de la rigueur mathématique »5.

Historiquement, la théorie a d'abord permis de décrire correctement les structures électroniques des atomes et des molécules, ainsi que leurs interactions avec un champ électromagnétique. Elle explique aussi le comportement de la matière condensée, dont :

  • la structure des cristaux et leurs vibrations ;
  • les propriétés de conductivité électrique et de conduction thermique des métaux grâce à la théorie des bandes ;
  • l'existence et les propriétés des semi-conducteurs ;
  • l'effet tunnel ;
  • la cryptographie et le jeu de hasard6
  • la supraconductivité et superfluidité.

La mécanique quantique a aussi résolu le paradoxe de Gibbs : en physique statistique classique, des particules identiques sont considérées comme discernables, et l'entropie n'est alors pas une grandeur extensive. L'accord entre la théorie et l'expérience fut rétabli en tenant compte du fait que des particules identiques sont indiscernables en mécanique quantique.

La théorie quantique des champs, généralisation relativiste de la mécanique quantique, permet quant à elle de décrire les phénomènes où le nombre total de particules n'est pas conservé : radioactivité, fission nucléaire (c'est-à-dire la désintégration du noyau atomique) et fusion nucléaire.

Paul Dirac dégage les propriétés essentiellement quantiques des phénomènes physiques et les exprime à travers quelques postulats et concepts qui sont à la base de la mécanique quantique. Elles sont présentées ici d'une façon moins formelle, plus propice à une compréhension générale. L'article détaillé présente leur formulation de façon plus rigoureuse mais aussi plus abstraite.

En substance, un état quantique est ce qui quantifie ce que l'on peut savoir d'un système quantique. Il permet de calculer les probabilités et les valeurs moyennes mesurées des observables (position, quantité de mouvement, etc.). Les états quantiques sont décrits mathématiquement par vecteur d'état dans un espace de Hilbert, représenté par une notation dédiée introduite par Dirac, dite notation bra-ket7. Un état quantique s'écrit alors sous la forme {\displaystyle |\psi \rangle }. L'évolution dans le temps de ce vecteur d'état est décrit mathématiquement par la fonction d'onde {\displaystyle \Psi (t)}, gouvernée par l'équation de Schrödinger.

Article détaillé : Fonction d'onde.Cette section a besoin d'être recyclée (janvier 2022).
Une réorganisation et une clarification du contenu sont nécessaires. Améliorez-le ou discutez des points à améliorer.

Ces deux représentations concernent les états purs, c'est-à-dire les états de systèmes quantiques simples idéalisés et isolés, où chaque composante peut être quantifiée et observée. Pour les états mixtes, représentant les états quantiques en interaction complexe avec un environnement ou un appareil de mesure, où les composantes sont trop nombreuses ou inaccessibles à l'observation, l'état quantique est plutôt représenté par une matrice densité8.

Dans le cas de la notation bra-ket, on exprime l'état quantique en fonction des états propres, c'est dire les états pour lesquels on est sûr que si on effectuait une mesure d'une observable, on obtiendrait à coup sûr une valeur donnée. On utilise en général pour ces états le même symbole que celui utilisé pour identifier cette valeur. Par exemple, lorsqu'on est sûr que si on effectuait cette mesure, le résultat serait une valeur {\displaystyle \alpha }, alors on note l'état {\displaystyle |\alpha \rangle }. Il existe en général un certain nombre (voire une infinité) d'états propres pour une observable donnée. Par exemple, si on s'intéresse au spin d'une particule de spin 1/2, on obtient deux états propres de direction opposée : {\displaystyle |\uparrow \rangle } et {\displaystyle |\downarrow \rangle }. Pour l'observable de position, on obtient une infinité d'états propres correspondant à chacune de positions possibles {\displaystyle |x_{1}\rangle } ... {\displaystyle |x_{\infty }\rangle }.

Ces états propres sont des vecteurs orthogonaux de l'espace vectoriel de Hilbert, et en forment une base, liée à une observable donnée. Un état quantique quelconque est alors exprimé comme une combinaison linéaire de ces états propres, par exemple un état généralisé de spin 1/2 : {\displaystyle |\nearrow \rangle =a|\uparrow \rangle +b|\downarrow \rangle }, a et b étant des nombres complexes.

Deux états quantiques quelconques distincts ne sont pas forcément distinguables, car il existe une probabilité que la mesure de deux états distincts donne la même valeur mesurée. Deux états quantiques sont dits distinguables lorsqu'il existe au moins un processus de mesure dans lequel on est absolument sûr que les deux états donnent des résultats différents9.

Le plus important postulat de la mécanique quantique est probablement le principe de superposition10. Selon ce principe, si un système physique peut se trouver dans un état {\displaystyle |\varphi \rangle }, et si de même il peut se trouver dans un état {\displaystyle |\psi \rangle }, alors il peut aussi se trouver dans un état linéairement composé :

{\displaystyle \alpha |\varphi \rangle +\beta |\psi \rangle }

où {\displaystyle \alpha } et {\displaystyle \beta } sont deux nombres complexes quelconques.

Autrement dit, l'ensemble des états possibles d'un système physique est un espace vectoriel (ou plus précisément un espace de Hilbert, comme mentionné plus haut), dont la dimension peut être quelconque.

Le point important est qu'un état superposé n'est pas un état traduisant une ignorance vis-à-vis de l'état « réel » du système, mais bien une indétermination intrinsèque au système, qui n'est ni dans l'état {\displaystyle |\varphi \rangle }, ni dans l'état {\displaystyle |\psi \rangle }. Ce point souleva de nombreux questionnements dans la communauté scientifique. En particulier, le principe de superposition est à l'origine de ce qu'on appelle le problème de la mesure quantique, que Schrödinger popularisa en l'appliquant à un chat qui ne serait, selon le paradoxe de Schrödinger, ni mort, ni vivant.

Le principe de superposition fut aussi analysé et critiqué par Einstein qui, avec Boris Podolsky et Nathan Rosen, imagina une expérience, dite expérience EPR, afin de le mettre en défaut. Une expérience comparable fut menée à la fin du xxe siècle par Alain Aspect, qui confirma le principe de superposition.

La règle de Born, du nom du physicien Max Born, est une interprétation probabiliste des coefficients linéaires du principe de superposition. Elle est d'ailleurs souvent appelée interprétation probabilistenote 3.

Cette règle peut être illustrée en considérant par exemple le chat de Schrödinger, évoqué plus haut, et dont l'état quantique peut être écrit ainsi :

{\displaystyle |\phi \rangle =\alpha |\mathrm {mort} \rangle +\beta |\mathrm {vivant} \rangle }

Une expérience qui chercherait à déterminer si ce chat est mort ou vif ne donnerait aucun résultat avec certitude (dans le cas contraire le chat serait soit dans l'état {\displaystyle |\mathrm {mort} \rangle }, soit dans l'état {\displaystyle |\mathrm {vivant} \rangle }). De façon simplifiée, il peut être dit que la règle de Born quantifie cette incertitude en stipulant que la probabilité de trouver le chat mort est égale au carré du module de {\displaystyle \alpha }, divisé par la somme des carrés des modules de {\displaystyle \alpha } et {\displaystyle \beta }.

Plus généralement, pour un système dont le vecteur d'état est une combinaison linéaire d'états distinguables {\displaystyle (|i\rangle )_{i\in \mathbf {N} }}, la probabilité pour que le résultat de la mesure définissant la distinguabilité soit le même que si le système avait été dans l'état {\displaystyle |i\rangle } est :

{\displaystyle {\mathcal {P}}_{i}={\frac {|\alpha _{i}|^{2}}{\sum _{i}|\alpha _{i}|^{2}}}},

où les {\displaystyle \alpha _{i}} sont les coefficients linéaires du vecteur d'étatnote 4.

Pour simplifier les calculs, les vecteurs d'états sont en général normalisés afin que le dénominateur soit égal à un. Cela n'affecte en rien les calculs de probabilités. En pratique, la règle de Born s'écrit donc le plus souvent :

{\displaystyle {\mathcal {P}}_{i}=|\alpha _{i}|^{2}},

ou encore :

{\displaystyle {\mathcal {P}}_{i}\propto |\alpha _{i}|^{2}}, où le coefficient de proportionnalité est sous-tendu par la relation de normalisation : {\displaystyle \sum _{i}{\mathcal {P}}_{i}=1},

La règle de Born est l'un des postulats de la mécanique quantique les plus difficiles à appréhender. Il fait aussi l'objet de controverses, ne serait-ce que parce que son statut axiomatique est mis en doute par au moins deux interprétations : l'interprétation des mondes multiples et l'interprétation transactionnelle. Selon ces deux interprétations, la règle de Born peut être déduite à partir de considérations mathématiques et physiques plus profondes11.

Article détaillé : Observable.Cette section a besoin d'être recyclée (janvier 2022).
Une réorganisation et une clarification du contenu sont nécessaires. Améliorez-le ou discutez des points à améliorer.

Lorsqu'à la suite d'une expérience, on est sûr d'obtenir toujours le même résultat de mesure {\displaystyle \alpha }, on dit que le système physique considéré est dans l'état {\displaystyle |\alpha \rangle }. Ceci ne signifie pas pour autant qu'on connait avec certitude le résultat d'une mesure effectuée avec un dispositif expérimental différent. En d'autres termes, la connaissance même totale de l'état d'un système ne garantit pas la connaissance parfaite de résultats de toute expérience faite sur lui.

Ainsi par exemple, si on mesure la position d'une particule dans l'état {\displaystyle |{\vec {r}}\rangle }, on est sûr qu'on obtiendra {\displaystyle {\vec {r}}}, mais par contre il n'est a priori pas possible de savoir avec certitude ce que donnera le résultat de mesure d'impulsion, car sinon la particule serait aussi dans l'état {\displaystyle |{\vec {p}}\rangle }, ce qui n'est pas le cas général et constitue donc une hypothèse ad hoc.

Plus généralement, si pour un certain processus de mesure A on note {\displaystyle (|\alpha _{i}\rangle )_{i\in \mathbf {N} }} tous les états de résultat de mesure parfaitement déterminés, alors en vertu du principe de superposition, toutes les combinaisons linéaires possibles sont aussi des états possibles pour certains systèmes :

{\displaystyle |\phi \rangle =\sum _{i}\phi _{i}|\alpha _{i}\rangle }

Parmi ces combinaisons linéaires, certaines peuvent très bien être des états de mesure parfaitement déterminée pour un autre processus de mesure B. La question est donc de savoir quel peut être le résultat de mesure de A pour ces états « propres » à B.

L'interprétation probabiliste des coefficients linéaires suggère alors que le résultat de mesure, s'il n'est pas déterministe, sera tout de même statistiquement égal à l'espérance mathématique :

{\displaystyle \alpha =\sum _{i}{\mathcal {P}}_{i}\,\alpha _{i}=\sum _{i}|\phi _{i}|^{2}\alpha _{i}}

Cette expression est une forme sesquilinéaire des coefficients {\displaystyle \phi _{i}}. Dans le sous-espace vectoriel généré par les {\displaystyle |\alpha _{i}\rangle }, on peut donc écrire cette expression en utilisant un produit scalaire dans lequel la base {\displaystyle (|\alpha _{i}\rangle )_{i\in \mathbf {N} }} est orthonormée. C'est le choix de ce produit scalaire qui donne un sens à la notation bra-ket : les vecteurs bra, notés « vers la gauche », sont alors les éléments de l'espace dual de l'espace des états ket. On a alors la relation :

{\displaystyle \langle \alpha _{i}|\alpha _{j}\rangle =\delta _{ij}}

où {\displaystyle \delta _{ij}} est le symbole de Kronecker.

L'expression de l'espérance mathématique peut alors s'écrire :

{\displaystyle {\begin{aligned}\alpha &=\sum _{i}\phi _{i}^{*}\phi _{i}\alpha _{i}\\&=\sum _{i,j}\phi _{i}^{*}\phi _{j}\alpha _{j}\delta _{ij}\\&=\sum _{i,j}\phi _{i}^{*}\phi _{j}\alpha _{j}\langle \alpha _{i}|\alpha _{j}\rangle \\&=\sum _{i,j}\langle \alpha _{i}|\phi _{i}^{*}\phi _{j}\alpha _{j}|\alpha _{j}\rangle \\&=\sum _{j}\langle \phi |\phi _{j}\alpha _{j}|\alpha _{j}\rangle \\&=\langle \phi |\sum _{j}\phi _{j}\alpha _{j}|\alpha _{j}\rangle \end{aligned}}}

Le terme {\displaystyle \alpha _{j}|\alpha _{j}\rangle } suggère l'introduction de l'opérateur linéaire dont les vecteurs propres sont les {\displaystyle (|\alpha _{i}\rangle )_{i\in \mathbf {N} }} et dont les valeurs propres associées sont les {\displaystyle \alpha _{i}}, valeurs possibles des résultats de mesure. Cet opérateur {\displaystyle {\hat {A}}} est ce qu'on appelle l'observable associé au processus de mesure A. Ce n'est rien d'autre qu'un outil mathématique qui permet le calcul de l'espérance mathématique du résultat de mesure12, espérance qui s'écrit alors :

{\displaystyle \alpha =\langle \phi |{\hat {A}}|\phi \rangle }

L'intérêt d'une telle expression est qu'elle ne dépend plus explicitement de la base {\displaystyle (|\alpha _{i}\rangle )_{i\in \mathbf {N} }}. On gagne ainsi en abstraction et on simplifie les calculs par une approche synthétique de la mécanique quantique, en opposition à l'approche dite analytiquenote 5.

À partir de considérations algébriques élémentaires, il est facile de se convaincre que l'observable {\displaystyle {\hat {A}}} est un opérateur auto-adjoint qui peut s'écrire en fonction de ses vecteurs propres et valeurs propres ainsi :

{\displaystyle {\hat {A}}=\sum _{i}\alpha _{i}|\alpha _{i}\rangle \langle \alpha _{i}|}

Lorsqu'on dispose de suffisamment d'observables pour décrire tout résultat de mesure, on dit qu'on dispose d'un ensemble complet d'observables qui commutent, et c'est dans l'espace hermitien généré par les vecteurs propres de ces observables que l'on travaille.

ent le produit scalaire sont appelés opérateurs unitaires. Ils ont comme propriété essentielle d'être l'inverse de leur adjoint :

{\displaystyle {\hat {U}}^{\dagger }{\hat {U}}={\hat {I}}}

Puisqu'il conserve le produit scalaire, un opérateur unitaire transforme {\displaystyle {\mathcal {E}}} en un espace {\displaystyle {\mathcal {E}}'} physiquement indiscernable car donnant exactement les mêmes probabilités de mesure. Inversement, il est raisonnable de supposer qu'un opérateur transformant l'espace d'états en un espace indiscernable est unitaire.

La considération de l'ensemble de tous les opérateurs unitaires sur {\displaystyle {\mathcal {E}}}, ainsi que d'un sous-ensemble qui puisse être paramétré de façon continue par un scalaire μ, permet alors d'approcher {\displaystyle {\hat {U}}} au premier ordre en μ :

{\displaystyle {\hat {U}}_{\mu }={\hat {I}}+\mu {\hat {G}}}

où {\displaystyle {\hat {G}}} est un opérateur linéaire a priori quelconque qui peut, sans perdre en généralité, être écrit sous la forme {\displaystyle i{\hat {G}}}note 6.

En écrivant la relation d'unitarité de {\displaystyle {\hat {U}}_{\mu }}, il vient, en restant au premier ordre :

{\displaystyle {\begin{aligned}{\hat {U}}_{\mu }^{\dagger }{\hat {U}}_{\mu }&={\hat {I}}\\({\hat {I}}+i\mu {\hat {G}})^{\dagger }({\hat {I}}+i\mu {\hat {G}})&={\hat {I}}\\({\hat {I}}-i\mu {{\hat {G}}^{\dagger }})({\hat {I}}+i\mu {\hat {G}})&={\hat {I}}\\-i\mu {{\hat {G}}^{\dagger }}+i\mu {\hat {G}}&=0\\{\hat {G}}^{\dagger }&={\hat {G}}\end{aligned}}}

C'est-à-dire que {\displaystyle {\hat {G}}} est auto-adjoint.

En somme, lorsqu'il existe un paramètre {\displaystyle \mu } qui transforme {\displaystyle {\mathcal {E}}} de façon continue en un espace {\displaystyle {\mathcal {E}}_{\mu }} physiquement indiscernable, alors il existe un opérateur unitaire {\displaystyle {\hat {U}}_{\mu }} et une grandeur observable {\displaystyle {\hat {G}}} tels que {\displaystyle {\hat {U}}_{\mu }} transforme {\displaystyle {\mathcal {E}}} en {\displaystyle {\mathcal {E}}_{\mu }} et :

{\displaystyle {\hat {U}}_{\mu }={\hat {I}}+i\mu {\hat {G}}}

En assimilant {\displaystyle {\mathcal {E}}} à {\displaystyle {\mathcal {E}}_{0}}, et en notant {\displaystyle |\phi _{\mu }\rangle } le vecteur de {\displaystyle {\mathcal {E}}_{\mu }} tel que {\displaystyle |\phi _{\mu }\rangle ={\hat {U}}_{\mu }|\phi _{0}\rangle }, {\displaystyle i{\hat {G}}|\phi _{0}\rangle } apparait comme le taux d'accroissement de {\displaystyle |\phi _{\mu }\rangle } pour une variation infinitésimale de μ au voisinage de zéro, de telle sorte qu'il peut être écrit :

{\displaystyle -i{d \over d\mu }|\phi \rangle ={\hat {G}}|\phi \rangle }

où la dépendance de {\displaystyle |\phi \rangle } en {\displaystyle \mu } est sous-entendue ({\displaystyle |\phi \rangle =|\phi _{\mu }\rangle }).

Les considérations précédentes peuvent être utilisées pour introduire l'équation de Schrödinger d'un point de vue théorique, grâce à un principe de symétrie selon lequel les lois de la physique sont invariantes dans le temps. Une autre façon de dire cela est de dire qu'une expérience menée dans un espace d'états {\displaystyle {\mathcal {E}}(t_{1})} est indiscernable d'une expérience identique menée dans un espace d'états {\displaystyle {\mathcal {E}}(t_{2})}. On peut donc appliquer les résultats précédents en prenant t (ou -t) pour {\displaystyle \mu } :

{\displaystyle i\hbar {d \over dt}|\phi \rangle ={\hat {H}}|\phi \rangle }

Le facteur {\displaystyle \hbar } est ici réintroduit pour satisfaire aux contraintes dimensionnelles ignorées jusqu'alors. L'expression détaillée de l'observable {\displaystyle {\hat {H}}}, appelé hamiltonien par analogie avec la mécanique classique, est le plus souvent obtenue à l'aide du principe de correspondance.

Cette formulation de l'équation de Schrödinger est assez différente de la formulation historique, et à ce titre elle est parfois appelée équation de Schrödinger généralisée et dépendante du temps.

Comme pour l'équation de Schrödinger, mais cette fois par application du principe selon lequel les lois de la physique sont invariantes dans l'espace, on introduit l'observable du moment linéaire (aussi appelée impulsion) et ses trois composantes spatiales :

{\displaystyle -i\hbar {d \over dx}|\phi \rangle ={\hat {P}}_{x}|\phi \rangle ,\qquad -i\hbar {d \over dy}|\phi \rangle ={\hat {P}}_{y}|\phi \rangle ,\qquad -i\hbar {d \over dz}|\phi \rangle ={\hat {P}}_{z}|\phi \rangle }

Le cas du moment cinétique (parfois appelé de façon plus explicite moment angulaire) se traite de la même façon, mais pour les rotations dans l'espace.

Intuitivement, le commutateur de deux observables détermine s'il est possible de mesurer simultanément leur valeur13.

Le commutateur intervient dans l'expression des inégalités de Heisenberg et du théorème d'Ehrenfest.

Étant donnés deux opérateurs {\displaystyle {\hat {A}}} et {\displaystyle {\hat {B}}}, non nécessairement observables, on définit leur commutateur ainsi :

{\displaystyle [{\hat {A}},{\hat {B}}]={\hat {A}}{\hat {B}}-{\hat {B}}{\hat {A}}}

Le commutateur est analogue au crochet de Poisson de la mécanique classique.

Article détaillé : Fonction d'onde.Cette section a besoin d'être recyclée (janvier 2022).
Une réorganisation et une clarification du contenu sont nécessaires. Améliorez-le ou discutez des points à améliorer.

En pratique, l'état {\displaystyle |\phi \rangle } est le plus souvent écrit dans une base {\displaystyle (|{\vec {r}}\rangle )_{{\vec {r}}\in \mathbf {R} ^{3}}} d'états de position spatiale parfaitement déterminée :

{\displaystyle |\phi \rangle =\int _{{\vec {r}}\in \mathbf {R} ^{3}}\phi ({\vec {r}},t)|{\vec {r}}\rangle \mathrm {d} V}

Ici l'intégration joue le rôle de la sommation utilisée plus haut notamment dans l'énoncé du principe de superposition, la différence étant qu'il s'agit d'une somme continue, c'est-à-dire de la somme d'une infinité de termes infiniment petits.

La fonction {\displaystyle \phi ({\vec {r}},t)} est appelée « fonction d'onde » et c'est sur elle que se font l'essentiel des calculs obtenus à partir de l'équation de Schrödinger.

L'écriture de l'équation de Schrödinger non plus en fonction de {\displaystyle |\phi \rangle } mais de la fonction d'onde se fait en remplaçant chaque terme de l'hamiltonien par les expressions correspondantes dépendant de la fonction d'onde. Par exemple, l'impulsion {\displaystyle {d \over dx}|\phi \rangle } s'écrit comme vu plus haut {\displaystyle {d \over dx}{\hat {T}}(x)|\phi \rangle } où T(x) est l'opérateur unitaire de translation de longueur x dans l'espace, c'est-à-dire tel que :

{\displaystyle {\hat {T(x)}}|x'\rangle =|x'-x\rangle }.

Dès lors, il vient :

{\displaystyle {d \over dx}|\phi \rangle ={d \over dx}{\hat {T}}(x)\int \phi (x')|x'\rangle dx'={d \over dx}\int \phi (x'){\hat {T}}(x)|x'\rangle dx'={d \over dx}\int \phi (x')|x'-x\rangle dx'}

Par un changement de variable sous l'intégrale, et en se rappelant que l'équation est écrite au voisinage de x = 0, il découlenote 7 :

{\displaystyle {d \over dx}|\phi \rangle =\int {\partial \phi \over \partial x}(x)|x\rangle dx}

Autrement dit, l'opérateur d'impulsion agit sur le vecteur d'état en donnant un vecteur dont les coordonnées dans la représentation spatiale sont les dérivées de la fonction d'onde (à un facteur {\displaystyle i\hbar } près ignoré ici). Ceci permet d'effectuer tous les calculs uniquement sur la fonction d'onde et ainsi de se ramener à la résolution d'une équation aux dérivées partielles, c'est-à-dire à l'équation de Schrödinger sous une forme plus proche de sa forme historique :

{\displaystyle i\hbar {\partial \phi (t,{\vec {r}}) \over \partial t}=-{\hbar ^{2} \over 2m}\Delta \phi (t,{\vec {r}})+V(t,{\vec {r}})\phi (t,{\vec {r}})}

La règle de Born implique que le résultat d'une expérience peut être indéterminé même lorsque l'état du système est parfaitement déterminé. Cette indétermination est intrinsèque au système, et ce en un sens qui n'a pas d'équivalent classique. Cependant, une ignorance concernant l'état exact du système peut aussi justifier une description probabiliste au sens classique du terme, c'est-à-dire avec l'acceptation usuelle des lois de probabilités.

Ainsi, dans une base orthonormale d'états {\displaystyle |\phi _{i}\rangle }, même si l'état exact est inconnu, il est tout de même possible de lui attribuer une distribution de probabilités {\displaystyle (p_{i})}, où {\displaystyle p_{i}} est la probabilité pour le système d'être dans l'état quantique {\displaystyle |\phi _{i}\rangle }. La question est alors de savoir comment rendre compte de ce type de probabilité dans les calculs.

L'étude du système se réduit à celle de la mesure des observables disponibles, qui elle-même se réduit à la mesure de leur valeur moyenne qui s'écrit, pour une observable {\displaystyle A} et si le système est dans l'état {\displaystyle |\phi _{i}\rangle } :

{\displaystyle \langle A\rangle _{i}=\langle \phi _{i}|A|\phi _{i}\rangle }

Comme le système est dans un état inconnu, mais avec la distribution de probabilité {\displaystyle (p_{i})}, l'espérance mathématique devient :

{\displaystyle \langle A\rangle =\sum _{i}p_{i}\langle A\rangle _{i}=\sum _{i}p_{i}\langle \phi _{i}|A|\phi _{i}\rangle }

Cette expression est en quelque sorte une double espérance mathématique, prenant en compte à la fois les probabilités quantiques et classiques. Les termes {\displaystyle \langle A\rangle _{i}=\langle \phi _{i}|A|\phi _{i}\rangle } sont en effet des espérances mathématiques, pour des distributions de probabilité associées au principe de superposition et à la règle de Born. L'expression {\displaystyle \sum _{i}p_{i}\langle A\rangle _{i}} est quant à elle une espérance mathématique associée à une distribution de probabilité traduisant une ignorance vis-à-vis de l'état réel du système, c'est-à-dire une distribution de probabilité classique.

L'espérance mathématique peut alors s'écrire :

{\displaystyle {\begin{aligned}\langle A\rangle &=\sum _{i}p_{i}\langle \phi _{i}|A|\phi _{i}\rangle \\&=\sum _{ij}p_{i}\langle \phi _{j}|A|\phi _{i}\rangle \delta _{ij}\\&=\sum _{ij}\langle \phi _{j}|Ap_{i}|\phi _{i}\rangle \langle \phi _{i}|\phi _{j}\rangle \\&=\sum _{j}\langle \phi _{j}|A\left(\sum _{i}p_{i}|\phi _{i}\rangle \langle \phi _{i}|\right)|\phi _{j}\rangle \\&=\sum _{j}\langle \phi _{j}|A\rho |\phi _{j}\rangle \\&=\mathrm {Tr} (A\rho )\end{aligned}}}

L'expression {\displaystyle \rho =\sum _{i}p_{i}|\phi _{i}\rangle \langle \phi _{i}|} est ce qu'on appelle la matrice densité associée à la distribution de probabilités {\displaystyle p_{i}} dans la base {\displaystyle |\phi _{i}\rangle }. {\displaystyle \mathrm {Tr} } est la trace.

La matrice densité n'est, à l'instar des observables, qu'un outil mathématique qui permet le calcul des espérances mathématiques des résultats de mesure, mais contrairement aux observables, la matrice densité incorpore la prise en compte d'une possible ignorance de l'état exact du système.

Les principes fondamentaux énoncés plus haut suffisent déjà à expliquer l'une des propriétés les plus importantes de la matière : la distinction entre bosons et fermions.

En effet, cette distinction découle essentiellement du caractère vectoriel de l'espace des états et de son interprétation probabiliste. Si on considère un système physique (ou plus simplement une particule) et que l'on note {\displaystyle \phi } son état, alors un système physique constitué de deux de ces particules s'écrira {\displaystyle |\phi _{1}\phi _{2}\rangle =|\phi _{1}\rangle |\phi _{2}\rangle } en utilisant le produit tensoriel des deux vecteurs.

La question qui se pose alors est celle de savoir comment se comporte le système si, par la pensée, on intervertit les rôles joués par les deux particules. Autrement dit, on s'interroge sur la relation entre {\displaystyle |\phi _{1}\phi _{2}\rangle } et {\displaystyle |\phi _{2}\phi _{1}\rangle }. Ces deux systèmes étant parfaitement analogues, lorsque les particules sont considérées indiscernables, elles doivent se comporter de la même façon. Leur répartition de probabilité est donc la même et elles sont donc reliées par un scalaire {\displaystyle \alpha } :

{\displaystyle |\phi _{2}\phi _{1}\rangle =\alpha |\phi _{1}\phi _{2}\rangle }

Or, si on intervertit à nouveau les particules, on doit nécessairement réobtenir le système initial, de telle sorte que :

{\displaystyle \alpha ^{2}=1}

Même parmi les nombres complexes, il n'existe que deux racines carrées de l'unité : 1 et -1. Cela implique qu'il ne peut exister que deux types bien distincts de particules, celles pour lesquelles {\displaystyle \alpha =1}, les bosons, et celles pour lesquelles {\displaystyle \alpha =-1}, les fermions (ces noms font référence aux physiciens qui ont découvert les statistiques associées : Satyendranath Bose et Enrico Fermi).

De cela il découle directement le principe d'exclusion de Pauli, auquel seuls les fermions obéissent. Considérons par exemple un fermion et imaginons deux particules de cette espèce dans exactement le même état {\displaystyle \phi }.

On a : {\displaystyle |\phi \phi \rangle =|\phi _{2}\phi _{1}\rangle =-|\phi _{1}\phi _{2}\rangle =-|\phi \phi \rangle } et donc : {\displaystyle |\phi \phi \rangle =0}

Autrement dit la probabilité pour que deux fermions soient dans le même état est toujours nulle. Une telle propriété est d'une importance considérable dans la nature. On lui doit par exemple en grande partie l'impénétrabilité des corps (en).

À l'inverse, les bosons ont tendance à se regrouper les uns avec les autres, car leurs amplitudes de probabilités interfèrent constructivement quand ils sont dans le même état. Ceci est la cause de nombreux phénomènes, comme l'émission stimulée, à la base du fonctionnement des lasers.

Des considérations comparables aux calculs effectués plus haut permettent de comprendre qu'un nombre pair de fermions se comportent comme des bosons. Ceci est la cause de phénomènes comme la supraconductivité, où les électrons forment des paires de Cooper. C'est aussi ce qui explique les différences de comportement entre les différents isotopes de l'hélium : dans un atome d'hélium 4 (4He), chaque particule est présente en double (deux électrons, deux protons et deux neutrons, formant des paires de Cooper), ce qui fait de cet atome un boson. Ce qui n'est pas le cas dans l'atome d'hélium 3 (3He), qui n'a qu'un neutron, ce qui fait de cet atome un fermion ; qui peut s'associer à un autre atome d'hélium 3 pour former un boson d'une paire de Cooper.

Le caractère bosonique ou fermionique des particules est lié à leur spin, par ce qu'on appelle le théorème spin-statistique.

Parmi les systèmes que l'on peut résoudre analytiquement en mécanique quantique, l'un d'entre eux a une importance particulière tant sur le plan historique que théorique. Il s'agit de l'oscillateur harmonique.

En mécanique classique, l'oscillateur harmonique est un système de grande importance car il constitue une bonne approximation de n'importe quel système stable autour d'une position d'équilibre. Dans un système d'unités adéquat, l'équation énergétique s'écrit :

{\displaystyle {\frac {{\hat {P}}^{2}}{2}}+{\frac {{\hat {X}}^{2}}{2}}=E}

Où {\displaystyle {\hat {P}}} et {\displaystyle {\hat {X}}} sont respectivement l'impulsion et la position du mobile.

En mécanique quantique, l'équation est formellement la même, mais les grandeurs impliquées sont de nature différente. Au lieu d'être des scalaires réels dépendant du temps, l'impulsion et la position sont des opérateurs linéaires sur l'espace vectoriel des états. Ces grandeurs peuvent être manipulées de manière algébrique comme avec des scalaires normaux, à ceci près qu'il s'agit d'une algèbre non commutative. Il faut donc prêter attention aux commutateurs entre les opérateurs concernés. En l'occurrence, le commutateur entre {\displaystyle {\hat {P}}} et {\displaystyle {\hat {X}}} est :

{\displaystyle \left[{\hat {X}},{\hat {P}}\right]=i}

La résolution du système passe alors par une factorisation inspirée de l'identité remarquable {\displaystyle a^{2}-b^{2}=(a-b)(a+b)}. En se rappelant que {\displaystyle i^{2}=-1}, on introduit donc deux opérateurs (à un facteur de normalisation {\displaystyle {\sqrt {2}}/2} près) :

{\displaystyle {\hat {A}}={\hat {P}}+i{\hat {X}}\qquad {\hat {A}}^{\dagger }={\hat {P}}-i{\hat {X}}}

Pour des raisons qui apparaissent en cours de calcul (cf article détaillé), ces opérateurs sont appelés opérateurs respectivement de création et d'annihilation de quanta, ou encore opérateurs d'échelle. Ensuite, un raisonnement par récurrence permet de montrer le caractère quantifié des niveaux d'énergie possible, et de calculer leurs valeurs. Ces quanta sont l'analogue mécanique des photons, et à ce titre ils sont parfois appelés phonons.

Cette introduction d'opérateurs de création et d'annihilation est une technique assez emblématique de la physique quantique. On la retrouve par exemple dans la théorie du moment cinétique quantique ou en théorie quantique des champs.

L'effet tunnel désigne la propriété que possède un objet quantique de franchir une barrière de potentiel même si son énergie est inférieure à l'énergie minimale requise pour franchir cette barrière. C'est un effet purement quantique, qui ne peut pas s'expliquer par la mécanique classique. Pour une telle particule, la fonction d'onde, dont le carré du module représente la densité de probabilité de présence, ne s'annule pas au niveau de la barrière, mais s'atténue à l'intérieur de la barrière, pratiquement exponentiellement pour une barrière assez large. Si, à la sortie de la barrière de potentiel, la particule possède une probabilité de présence non nulle, elle peut traverser cette barrière. Cette probabilité dépend des états accessibles de part et d'autre de la barrière ainsi que de l'extension spatiale de la barrière.

Historiquement, le spin de l'électron est d'abord un phénomène expérimental observé notamment lors de l'expérience de Stern et Gerlach. En substance, il apparaît comme une sorte de très faible moment magnétique n'admettant que deux valeurs possibles, qui sont opposées et qui ne varient pas continûment selon l'axe de mesure. Il s'agit donc d'une grandeur qui ne respecte pas, du moins en apparence, les lois spatiales de la trigonométrie, tout en étant directionnelle. Ces observations assez curieuses n'ont pu être expliquées que par la mécanique quantique.

Le spin de l'électron est donc une grandeur a priori directionnelle qui ne peut prendre que deux valeurs de magnitude égale et de sens opposé. Les états quantiques correspondants sont alors en général notés {\displaystyle |+\rangle } et {\displaystyle |-\rangle }note 8. Ces états dépendent d'un axe d'observation particulier, traditionnellement placé verticalement, c'est-à-dire selon l'axe {\displaystyle (O,z)}.

Avec un choix d'unités adéquat, cela signifie que pour un électron dans l'état {\displaystyle |+\rangle }, la mesure du moment magnétique de spin selon {\displaystyle (O,z)} donnera à coup sûr +1 comme résultat de mesure. De la même façon un électron dans l'état {\displaystyle |-\rangle } donnera nécessairement -1 comme résultat de mesure selon ce même axe.

Dès lors, {\displaystyle |+\rangle } et {\displaystyle |-\rangle } forment la base d'un espace vectoriel de dimension deux, et l'observable associée à la mesure du spin selon l'axe {\displaystyle (O,z)} s'écrit alors, en représentation matricielle :

{\displaystyle \sigma _{3}={\begin{pmatrix}1&0\\0&-1\end{pmatrix}}}

(l'indice 3 est ici choisit car l'axe {\displaystyle (O,z)} est traditionnellement le troisième axe du trièdre spatial)

Par application du principe de superposition, toute superposition linéaire de {\displaystyle |+\rangle } et {\displaystyle |-\rangle } est aussi un état possible pour l'électron. Parmi ces combinaisons linéaires, il en est qui sont les vecteurs propres de deux matrices {\displaystyle \sigma _{1}} et {\displaystyle \sigma _{2}} :

{\displaystyle \sigma _{1}={\begin{pmatrix}0&1\\1&0\end{pmatrix}}\mathrm {,} \quad \sigma _{2}={\begin{pmatrix}0&-i\\i&0\end{pmatrix}}}

{\displaystyle \sigma _{1}}, {\displaystyle \sigma _{2}} et {\displaystyle \sigma _{3}} forment avec la matrice unité ce qu'on appelle les matrices de Pauli.

La considération d'un vecteur unitaire {\displaystyle {\vec {n}}=(n_{1},n_{2},n_{3})} et de l'observable : {\displaystyle \sigma =\sigma _{1}n_{1}+\sigma _{2}n_{2}+\sigma _{3}n_{3}} permet alors de faire apparaître la valeur moyenne suivante de {\displaystyle \sigma } pour l'état {\displaystyle |+\rangle } :

{\displaystyle {\begin{aligned}\langle +|\sigma |+\rangle &=\langle +|\sigma _{1}n_{1}+\sigma _{2}n_{2}+\sigma _{3}n_{3}|+\rangle \\&=\langle +|\sigma _{1}n_{1}|+\rangle +\langle +|\sigma _{2}n_{2}|+\rangle +\langle +|\sigma _{3}n_{3}|+\rangle \\&=0+0+n_{3}\\&=\cos(\theta )\end{aligned}}}

où {\displaystyle \theta } est l'angle éloignant {\displaystyle {\vec {n}}} de l'axe {\displaystyle (O,z)}.

Autrement dit, dès lors que {\displaystyle \sigma _{1}} et {\displaystyle \sigma _{2}} sont associés aux observables liées à la mesure du spin selon les axes {\displaystyle (O,x)} et {\displaystyle (O,y)}, alors les règles de trigonométries apparaissent, mais avec une signification probabiliste. C'est là un résultat typique de la mécanique quantique.

Le spin de l'électron joue un rôle très important en mécanique quantique, d'une part parce que c'est un phénomène qui n'a pas d'équivalent classique, et d'autre part parce que c'est l'un des systèmes quantiques les plus simples dans la mesure où il n'a que deux états (ou plus précisément, que son espace vectoriel est de dimension deuxnote 9). À ce titre il est souvent utilisé comme modèle d'étude pour des systèmes plus complexes, même lorsque le phénomène physique sous-jacent est complètement différent. L'exemple emblématique est le modèle d'Ising.

Gravitation

La gravitation,

Lire: (https://miyoceleste.webnode.com.co/gravite-generale-et-gravite-matricielle/)

l'une des quatre interactions fondamentales qui régissent l'Univers, est l'interaction physique responsable de l'attraction des corps massifs. Elle se manifeste notamment par l'attraction terrestre qui nous retient au sol, la gravité, qui est responsable de plusieurs manifestations naturelles ; les marées, l'orbite des planètes autour du Soleil, la sphéricité de la plupart des corps célestes en sont quelques exemples. D'une manière plus générale, la structure à grande échelle de l'Univers est déterminée par la gravitation.

Plusieurs théories ont tenté de rendre compte de la gravitation. Actuellement encore, la théorie de la relativité générale d'Albert Einstein (1915) reste la plus satisfaisante. Elle considère la gravitation comme une manifestation de la courbure de l'espace-temps sous l'effet de l'énergie de la matière qui s'y trouve. La loi de la gravitation de Newton, élaborée à la fin du xviie siècle, demeure cependant une excellente approximation dans les cas non relativistes (vitesses faibles par rapport à celle de la lumière et masses de l'ordre de la masse solaire ou inférieures).

À l'échelle microscopique, la gravitation est la plus faible des quatre interactions fondamentales de la physique ; elle devient dominante au fur et à mesure que l'échelle de grandeur augmente. Avec la force électromagnétique, elle est l'une des deux interactions à agir au-delà de la dimension du noyau atomique. De plus, comme elle est toujours attractive, elle domine sur les forces électromagnétiques qui l'emportent à plus courte portée, étant tantôt attractives, tantôt répulsives.

La théorie de la gravitation est ainsi toujours l'objet de nombreuses recherches, et la communauté scientifique considère qu'élaborer une théorie plus complète de la gravitation, capable de prendre en compte les effets de nature microscopique (quantiques), et pour cette raison appelée gravitation quantique, est un des grands défis à relever pour la physique du xxie siècle.

Penser, comme Aristote, que sur Terre (et avec l'hypothèse du vide atmosphérique) plus un corps est lourd, plus il tombe vite c'est faire une confusion entre quantité et qualité :

Cette section est vide, insuffisamment détaillée ou incomplète. Votre aide est la bienvenue ! Comment faire ?
  • quantité : prenons en main un corps attiré par la Terre, et décomposons-le, par un jeu de l'esprit, en une myriade de « micro-briques de matière ». Chaque « brique de matière », étant attirée par la Terre, exerce une force sur la main, nommée poids, et le grand nombre de briques exerçant ce poids donne le poids global. Le poids global d'un objet dépend de la quantité de matière : c'est une grandeur approximativement extensive ;
  • qualité : lâchons ce corps, supposé fait d'une seule matière, il tombe. Chaque micro-brique tombe parce qu'elle est attirée par la Terre et acquiert une certaine vitesse, sans tenir compte de la présence éventuelle d'autres briques alentour. Donc, quel que soit le nombre de micro-briques, toutes tombent simultanément et à la même vitesse (car toutes faites de la même matière et identiques) : c'est la vitesse du corps entier, qui ne dépend pas du nombre de briques et donc ne dépend pas de sa masse. Cette vitesse est une qualité du corps totalement indépendante de la quantité de matière : c'est une grandeur intensive.
Cette section est vide, insuffisamment détaillée ou incomplète. Votre aide est la bienvenue ! Comment faire ?

Ainsi, bien qu'elles soient intimement associées dans nos expériences et nos sensations courantes, les deux grandeurs (poids et vitesse de chute) sont bien distinctes.

La distinction ci-dessus entre qualité et quantité n'explique pas qu'en l'absence d'air, du bois et du métal tombent exactement à la même vitesse. Ce fait expérimental laisse penser que ces deux matières différentes (ainsi que toutes les autres) ont en commun la même qualité. Les expérimentations et les réflexions sur ce sujet ont donné le principe d'équivalence.

En termes plus précis et plus scientifiques, la relativité générale étudie la gravitation et, comme « qualité commune » aux corps dans le problème posé ci-dessus, permet de proposer « l'énergie », bien qu'en toute rigueur cette théorie admet comme hypothèse l'existence de cette « qualité commune » (en admettant le principe d'équivalence) et qu'elle exclut toute idée d'attraction et de force gravitationnelle.

En laissant tomber simultanément des objets de poids, formes ou volumes très différents, par exemple une balle de mousse et une bille de métal de même diamètre, depuis une hauteur d'homme, on peut penser qu'il y a égalité des vitesses de chutea. Mais quand la hauteur de chute est plus grande, des différences perceptibles apparaissent, du fait des frottements de l'air. Galilée sera le premier à comprendre que les frottements sont la seule cause des différences de vitesses entre ces corps.

Le philosophe grec Archimède a découvert le centre de gravité d'un triangle1. Il a également postulé que si deux poids égaux n'avaient pas le même centre de gravité, le centre de gravité des deux poids combinés serait au milieu de la ligne qui joint leurs centres de gravité respectifs2.

Cette section est vide, insuffisamment détaillée ou incomplète. Votre aide est la bienvenue ! Comment faire ?

L'architecte et ingénieur romain Vitruve postule dans l'ouvrage De Architectura que la gravité d'un objet ne dépend pas de son poids mais plutôt de sa nature3.

Dans l'Inde ancienne, Aryabhata a identifié la force pour expliquer pourquoi les objets ne sont pas projetés vers l'extérieur lorsque la Terre tourne. Brahmagupta a décrit la gravité comme une force d'attraction et a utilisé le terme « Gurutvaakarshan [archive] » pour décrire cette dernière4,5.

Modélisation de Galilée ( Centre de recherche matherieulys du Louvre)

Par une expérience, mythique, réalisée du haut de la tour de Pise, le savant italien Galilée (1564-1642) aurait constaté que des balles lourdes et de poids différents ont le même temps de chute, mais, quand il explique dans son Dialogue sur les deux grands systèmes du monde pourquoi il en est ainsi dans le vide, il justifie par des expériences de pensée : notamment en imaginant deux pierres de même poids et forme, chutant simultanément et reliées ou non par un lien, formant ainsi deux corps séparés de même poids ou bien un seul de poids double, mais ayant dans tous les cas la même vitesse de chute6.

Vers 1604, Galilée utilise un constat : un objet en chute libre possède une vitesse initiale nulle, mais quand il arrive au sol, sa vitesse... n'est pas nulle. Donc la vitesse varie durant la chute. Galilée propose une loi simple : la vitesse varierait continûment à partir de 0, et proportionnellement au temps écoulé depuis le début de la chute.

Ainsi : vitesse = constante × temps écoulé.

Il en conclut, après un calcul similaire à la démonstration établie plus de deux siècles auparavant par Nicolas Oresme[réf. nécessaire], que, pendant une chute, la distance parcourue est proportionnelle au carré du temps écoulé.

Cette section est vide, insuffisamment détaillée ou incomplète. Votre aide est la bienvenue ! Comment faire ?

Plus précisément : distance = ½ constante × temps écoulé2 (avec la même constante que ci-dessus).

Son idée est confirmée dans une expérience, avec du matériel construit de sa main : une gouttière inclinée le long de laquelle des clochettes sont disposées pour indiquer le passage de la bille.

La constante sera notée g (accélération de la pesanteur) et sa valeur déterminée expérimentalement (environ 9,81 m/s2). La pesanteur varie notamment selon le lieu sur Terre. Par convention, sa valeur normale est fixée à g0 = 9,806 65 m s−2.

Mathématicien autant que physicien et alchimiste, Isaac Newton mit au point, entre 1665 et 1685, sa théorie de la mécanique fondée sur l'étude de l'accélération, et non seulement de la vitesse comme le faisaient Galilée et René Descartes.

Newton chercha à unifier les lois connues pour les objets sur Terre et les lois observées pour les astres, notamment la gravitation terrestre et les mouvements des planètes, en considérant et traitant la gravitation comme une force.

En considérant deux corps ponctuels exerçant une force gravitationnelle l'un sur l'autre, une justification de la loi de Newton est la suivante :

  • à partir des lois de Kepler, que celui-ci avait obtenues en observant les mouvements des planètes du Système solaire, et de la loi de Christiaan Huygens sur la force centrifuge, Newton conclut que la force agissante entre deux corps s'exerce en ligne droite entre les deux corps et est proportionnelle à 1/d2, où d est la distance entre les deux corps ;
  • considérant que cette force est proportionnelle à la quantité de matière présente dans le corps exerçant cette force (un corps ayant deux fois plus de matière exerce une force égale à la somme des forces de deux corps, donc exerce une force deux fois plus grande), il suppose que la force est proportionnelle à mA, nombre appelé « masse gravifique », proportionnelle à la quantité de matière dans le corps A et reflétant sa capacité à exercer cette force (la « charge » gravitationnelle en fait), dépendant sans doute de sa nature (plomb, argile ou gaz...) ;
  • en vertu du principe des actions réciproques, la force exercée par l'autre corps sur le premier doit être égale (et de sens opposé) et doit aussi être proportionnelle à mB, la masse gravifique du deuxième corps B ;
  • aucun autre paramètre ne semblant entrer en compte, cette force du corps A sur le corps B s'exprime sous la forme : {\displaystyle F_{A/B}=G\times {\frac {m_{A}\cdot m_{B}}{d^{2}}}} où {\displaystyle G} est une constante, appelée constante gravitationnelle qui est environ égale à 6,67 × 10−11 N m2 kg−2.
Cette section est vide, insuffisamment détaillée ou incomplète. Votre aide est la bienvenue ! Comment faire ?

En écrivant le principe fondamental de la dynamique pour le corps A de masse inerte {\displaystyle m}, on obtient {\displaystyle m\cdot a=G\cdot {\frac {m_{A}\cdot m_{B}}{d^{2}}}}. On constate que pour que l'accélération {\displaystyle a} (et donc la vitesse) d'un corps en chute libre sur terre soit indépendante de sa masse inertielle {\displaystyle m} (comme l'a expérimenté Galilée), il faut que {\displaystyle m=m_{A}} pour ce corps, c'est-à-dire que la « masse gravifique » soit égale à la masse inertielle, indépendamment de la nature du corps (en fait la proportionnalité entre ces masses suffit, avec le même coefficient pour tous les matériaux, ensuite on peut les rendre égales avec un choix des unités de mesure). Newton a testé cette égalité pour de nombreux matériaux, et depuis les expériences n'ont jamais cessé, avec de plus en plus de raffinements (balance d'Eötvös, etc.). Depuis, cette égalité a été appelée le principe d'équivalence faible.

L'action à distance (sans contact, à travers le vide) et la propagation instantanée de la force de gravitation ont aussi suscité des doutes, y compris de Newton.

Force gravitationnelle {\displaystyle {\vec {F}}_{12}} exercée par l'objet 1 sur l'objet 2 (en rouge) ; {\displaystyle {\vec {u}}_{12}} est le vecteur unitaire de 1 vers 2 (en bleu).

Dans l'écriture vectorielle moderne, la force gravitationnelle s'écrit :

{\displaystyle {\vec {F}}_{12}=-G\,{\frac {m_{1}m_{2}}{d^{2}}}\,{\vec {u}}_{12}}

  • {\displaystyle {\vec {F}}_{12}} étant la force gravitationnelle exercée par le corps 1 sur le corps 2 (en newtons ou m kg s−2) ;
  • {\displaystyle G}, la constante gravitationnelle, qui vaut 6,674 2 × 10−11 N m2 kg−2 (ou m3 kg−1 s−2)b ;
  • {\displaystyle m_{1}} et {\displaystyle m_{2}}, les masses des deux corps en présence (en kilogrammes) ;
  • {\displaystyle d}, la distance entre les deux corps (en mètres) ;
  • {\displaystyle {\vec {u}}_{12}} le vecteur unitaire dirigé du corps 1 vers le corps 2 ;
  • le signe - indique que le corps 2 est attiré par le corps 1.
Cette section est vide, insuffisamment détaillée ou incomplète. Votre aide est la bienvenue ! Comment faire ?

La loi newtonienne de la gravitation permet d'expliquer l'origine de la loi de Galilée : en notant r le rayon terrestre et mT la masse de la Terre, on obtient {\displaystyle g=G\cdot {\frac {m_{\mathrm {T} }}{r^{2}}}} m s−2 soit approximativement 9,8 m/s2.

La théorie newtonienne est bien vérifiée expérimentalement. D'un point de vue technique, elle suffit pour faire voler des objets plus lourds que l'air et pour envoyer des hommes sur la Lune. La force de pesanteur est la résultante de la force de gravité et de forces axifuges (la force centrifuge liée à la rotation de la terre sur elle-même, de la loi de l'inertie du mouvement, etc.).

Joseph-Louis Lagrange a réécrit, à partir de 1762, la théorie de la gravitation et l'ensemble de la physique en y introduisant le principe de moindre action qui avait été formulé par Pierre Louis Maupertuis vers 1744.

William Rowan Hamilton, vers 1830, a substitué au principe de moindre action la notion d'énergie, qui est une constante pour tout système isolé (c'est-à-dire : sans interaction avec l'extérieur) et qui sera de la plus grande importance pour la physique relativiste et en mécanique quantique, au xxe siècle.

L'idée d'un champ de force, introduite par Michael Faraday, ne permit qu'une réécriture de la théorie de la gravitation newtonienne, mais cette notion se révélera féconde quand il s'agira de concevoir la gravitation relativiste. Le champ ou champ de force de la gravitation est une propriété de l'espace due à la masse d'un corps. Une autre masse entrant en contact avec ce champ est soumise à une influence, une force, due au champ. Ainsi, l'influence gravitationnelle n'est pas, dans ce cadre, créée et transportée instantanément d'un corps à l'autre, mais est déjà présente dans tout l'espace sous la forme du champ et à son contact un corps voit sa dynamique modifiée. Toutefois, le champ est lui-même instantanément modifié par le corps qui le crée.

Cette section est vide, insuffisamment détaillée ou incomplète. Votre aide est la bienvenue ! Comment faire ?

Si M est la masse du corps ponctuel émetteur du champ, et si r est la distance entre ce corps et le point de l'espace que l'on considère, le champ en ce point s'exprime par {\displaystyle V(r)=-{\frac {G\cdot M}{r}}\,,} le « potentiel gravitationnel » .

Un corps ponctuel de masse m étant en contact avec ce champ, la force qu'il subit est {\displaystyle {\vec {F}}(r)=-m{\vec {\nabla }}V(r)=-{\frac {G\cdot M\cdot m}{r^{2}}}\cdot {\vec {u}}_{\vec {r}}}, où {\displaystyle {\vec {u}}_{\vec {r}}} est le vecteur unitaire de même direction et de même sens que {\displaystyle {\vec {r}}} qui va de M à m.

Article détaillé : Champ gravitationnel.

Modélisation d'Albert Einstein ( Famille Miterrand)

Depuis la relativité générale, la gravitation n'est plus perçue comme une force d'attraction, mais plutôt comme une manifestation de la déformation de la géométrie de l'espace-temps sous l'influence de la masse des objets qui l'occupent.Article détaillé : Introduction à la relativité générale.

Après avoir énoncé la théorie de la relativité restreinte en 1905, Albert Einstein cherche à la rendre compatible avec la gravitation, dont l'effet est supposé se propager à une vitesse infinie dans la théorie de Newton, alors que la vitesse de la lumière est la vitesse maximale pour toute interaction selon la relativité restreinte.

Vers 1915, on émet l'hypothèse que la gravitation n'est pas une force au sens classique, que l'on donne à ce mot en physique, mais une manifestation de la déformation de l'espace-temps sous l'effet de l'énergie de la matière qui s'y trouve. Cette hypothèse résulte de l'observation que tous les corps tombent de la même façon dans un champ de gravitation, quelles que soient leur masse ou leur composition chimique. Cette observation, a priori fortuite en théorie newtonienne, mais remarquablement vérifiée expérimentalement, est formalisée sous le nom de principe d'équivalence et amène naturellement à considérer que la gravitation est une manifestation de la géométrie à 4 dimensions de l'espace-temps. Au terme traditionnel de force se substitue alors celui plus générique d'interaction.

La théorie ainsi construite, qui porte le nom de relativité générale, incorpore le principe de relativité, et la théorie newtonienne en est une approximation dans la limite des champs gravitationnels faibles et des vitesses petites devant celle de la lumière. En effet, les déformations de l'espace-temps prévues sous l'effet des corps massifs, quand ceux-ci ont une forte accélération, ne se propagent pas plus vite que la vitesse de la lumière, ce qui résout le paradoxe de l'instantanéité apparente de l'interaction newtonienne. Il en résulte des ondes gravitationnelles, détectées pour la première fois le 14 septembre 2015.

La gravitation newtonienne est suffisante pour décrire la majorité des phénomènes observés à l'échelle des étoiles. Elle suffit, par exemple, pour décrire l'évolution des planètes du Système solaire, à quelques détails près comme l'avance du périhélie de Mercure et l'effet Shapiro.

Mais la relativité générale est nécessaire pour modéliser certains objets et phénomènes astronomiques particuliers : les étoiles à neutrons, les mirages gravitationnels, les objets très compacts tels que les trous noirs, etc.

Gravitation et cosmologie et satellitaire

Effet de mirage gravitationnel prédit par la relativité générale. Les forts champs gravitationnels déforment l'espace autour d'eux ce qui courbe la trajectoire empruntée par les rayons lumineux, déformant ainsi certaines images que nous recevons du cosmos. On a ici un seul quasar.

La gravitation étant la force dominante à l'échelle des distances astronomiques, les théories newtonienne et einsteinienne ont été confrontées depuis leurs créations respectives aux observations de la structure à grande échelle de l'univers. Si aux échelles des étoiles et des galaxies, la gravitation newtonienne est suffisante, dans beaucoup de situations, la théorie newtonienne est en difficulté. Par exemple, elle est incapable d'offrir une description cohérente d'un univers homogène infini alors que la relativité générale est parfaitement en mesure de décrire une telle situation.

La relativité générale seule ne suffit cependant pas pour décrire la structure à grande échelle de l'Univers. Il faut lui adjoindre des hypothèses sur la répartition spatiale de la matière. Les observations indiquent qu'à grande échelle, l'univers est remarquablement homogène (à plus petite échelle, la matière est bien sûr répartie de façon non uniforme : l'espace entre les étoiles d'une même galaxie est essentiellement vide, tout comme l'espace entre les galaxies). Ce fait observationnel avait au départ été supposé par Einstein, qui lui avait donné le nom de principe cosmologique. Sous cette hypothèse, la relativité générale permet, assez facilement du reste, une modélisation cohérente de l'Univers. Il existe cependant, outre la matière visible constituant les étoiles, et le gaz des galaxies, une matière noire aux propriétés et à la distribution encore très mal connues.

La dynamique de l'Univers va, elle, dépendre des propriétés de la matière qui le compose, en particulier de son équation d'état. On peut montrer que, sauf cas particulier, l'Univers ne peut être statique : il est soit en contraction, soit en expansion globales. De toute manière, une structure globale uniforme de l'Univers serait instable : les parties les plus denses, même très faiblement, finiraient par s'effondrer sous leur propre poids, attirant la matière des parties les moins denses, et les laissant entièrement vides. (Cependant, à moyenne échelle, l'Univers a une « structure d'éponge » et il existe d'énormes bulles sans matière visible).

Bien que la théorie de « l'Expansion » tienne peu compte des nombreuses interactions existant entre la matière et les rayonnements électromagnétiques (sinon, par exemple, seul le radar existerait ; on n'aurait pas de four à micro-ondes), les observations confirment globalement cette prédiction puisque l'on observe une récession apparente des galaxies, celles-ci s'éloignant de nous d'autant plus vite qu'elles sont éloignées. Le décalage spectral des lumières lointaines fut découvert par Edwin Hubble à la fin des années 1920. Plus tard, son élève, Allan Sandage introduisit le concept de l'Expansion, à la suite des travaux de Lemaître et Gamow. Elle indique que l'univers tel que nous le connaissons est issu d'une phase extraordinairement dense et chaude : le Big Bang. Plusieurs observations quantitatives confirment l'histoire du Big Bang, à partir de sa première minute. Le destin de l'univers n'est pas connu avec certitude, car le comportement à long terme de la matière est incertain. On a observé une accélération de l'expansion de l'univers, due à une force de répulsion à très longue distance, prévue comme une possibilité dans la Relativité Générale. Ceci semble être le signe probable que l'expansion durera indéfiniment, sans donner lieu à une phase de recontraction (Big Crunch), ou que cette expansion n'est qu'une apparence, très commode pour rendre compte de nombreuses observations.

Gravitation et physique quantique ( missiles ballistiques)

La relativité générale a été conçue sur l'hypothèse de la continuité de l'espace-temps (et même sa différentiabilité) et sur l'hypothèse de la continuité de la matière (entre autres pour construire le tenseur de densité d'énergie-impulsion). Cette deuxième hypothèse est clairement une approximation au regard de la physique quantique.

La physique quantique étant l'exploration de l'infiniment petit, l'expérimentation de la gravitation dans ce cadre se heurte à un problème majeur : les trois autres forces qui y règnent sont au moins 1025 fois plus fortes, alors qu'il est déjà difficile d'expérimenter sur elles ; du coup les effets de la gravitation se perdent dans les inévitables imprécisions des mesures.

Cette difficulté expérimentale n'a pas empêché les tentatives théoriques de construire une gravitation quantique, sans résultat susceptible à ce jour de vérification expérimentale.

On peut toutefois remarquer que :

  1. L'ajout du potentiel gravitationnel à l'équation de Schrödinger permet de retrouver un résultat connu : les particules tombent ;
  2. L'utilisation des intégrales de chemin de Feynman a permis de prévoir un déphasage de la fonction d'onde dû à la gravitation (galiléenne) ; ces deux effets correspondent à une approximation semi-classique en mécanique quantique ;
  3. L'équation des ondes gravitationnelles peut s'interpréter comme celle de la propagation d'une particule appelée graviton, jugée responsable de la gravitation, dont on peut déduire certaines propriétés (notamment sa masse, nulle, et son spin, égal à 2), sans que cela ait pu encore être vérifié expérimentalement malgré les tentatives de plus en plus sophistiquées.

Exemples de théories quantiques de la gravitation : théorie M, supergravité, géométrie non commutative, gravitation quantique à boucles.

Quatre interactions élémentaires sont responsables de tous les phénomènes physiques observés dans l'Univers, chacune se manifestant par une force dite force fondamentale. Ce sont l'interaction nucléaire forte, l'interaction électromagnétique, l'interaction faible et l'interaction gravitationnelle.

En physique classique, les lois de la gravitation et de l'électromagnétisme étaient considérées comme axiomes. Cependant en théorie quantique des champs, ces forces sont décrites par l'échange de bosons virtuels : le modèle standard de la physique des particules décrit les interactions forte, faible et électromagnétique, mais une théorie quantique des champs n'a pas encore pu être élaborée pour la gravitation.

Les puissances de ces forces fondamentales sont normalement très différentes (voir plus bas), mais si l'énergie cinétique des particules augmente, les puissances se rapprochent. On pense que les quatre forces avaient la même puissance aux énergies extrêmement élevées qui étaient en jeu juste après le Big Bang lors de l'ère de Planck.

Interaction forte ( impact des balles contre les juifs)

  • elle est responsable de la cohésion de tous les hadrons (baryons et mésons), c'est-à-dire toutes les particules composées de quarks ; elle est responsable, indirectement, de la cohésion des noyaux atomiques ;
  • son rayon d'action est limité à 2,5 × 10−15 m (0,000 000 000 000 002 5 m), car la charge de couleur n'apparaît pas « nue » à des distances plus grandes (voir Confinement de couleur) ;
  • elle est la plus puissante de toutes les interactions connues ;
  • elle est transportée par les gluons.

Interaction électromagnétique ( Impact de balles contres les dieux; ex. J. Arafat)

  • elle est responsable de la plupart des phénomènes quotidiens : lumière, électricité et magnétisme, chimie... ;
  • son rayon d'action est en principe illimité, mais en pratique, les charges positives et négatives tendent à se neutraliser ;
  • elle peut être attractive ou répulsive selon le signe des charges électriques ; cela vaut aussi pour les pôles dits Nord et Sud d'un aimant ;
  • elle est cent fois moins forte que l'interaction forte ;
  • elle est transportée par les photons.

Interaction faible ( Gillets para balles en distortion communale Jydhich)

  • elle est responsable d'un des types de radioactivité, la radioactivité bêta, et joue un rôle important dans la fusion nucléaire (comme au centre du Soleil, mais sans en être obligatoire) ;
  • son rayon d'action est très court, 10−17 m ;
  • elle est 105 fois moins puissante que la force nucléaire forte ;
  • elle est transportée par les bosons lourds : Z0, W+ et W−.

Interaction gravitationnelle ( Explossifs en detonation retardèe claysroom)

L'interaction gravitationnelle est le phénomène d'interaction physique qui cause l'attraction réciproque des corps massifs entre eux, sous l'effet de leur masse. Il s'observe au quotidien en raison de l'attraction terrestre qui nous retient au sol. La gravité est responsable de plusieurs manifestations naturelles : les marées, l'orbite des planètes autour du Soleil, la sphéricité de la plupart des corps célestes en sont quelques exemples. D'une manière plus générale, la structure à grande échelle de l'Univers est déterminée par la gravitation.

La gravitation a les propriétés suivantes :

  • elle est dominante pour les grandes structures de l'Univers car elle est toujours attractive et ne peut pas être neutralisée comme les forces électromagnétiques ;
  • son rayon d'action est illimité ;
  • elle est la plus faible de toutes les interactions, 1038 fois plus faible que l'interaction nucléaire forte (c'est-à-dire cent milliards de milliards de milliards de milliards de fois plus faible) ;
  • son vecteur est encore inconnu à ce jour. Cependant, certaines hypothèses émettent l'idée qu'une particule en serait à l'origine : le graviton.

Brève histoire de l'unification des interactions élémentaires ( Etude des talmuds et des Thorash)

Le xixe siècle a vu l'unification de l'électricité et du magnétisme. Au cours du xxe siècle, la théorie électrofaible a tout d'abord été développée pour unifier l'électromagnétisme avec l'interaction faible (par Abdus Salam, Steven Weinberg, Sheldon Lee Glashow, prix Nobel de physique en 1979). L'interaction forte a pu être unifiée dans les années 1970 avec les deux premières donnant alors le modèle standard de la physique des particules1, dont les prédictions ont été vérifiées peu après dans les accélérateurs de particules. Néanmoins, même si ces interactions sont décrites dans un cadre commun, les intensités des trois forces, appelées aussi constantes de couplage, ne sont pas les mêmes. Ces constantes ne sont constantes que dans un sens approximatif. Leur valeur change selon la gamme d'énergies concernée. Le fait que la constante de couplage de l'interaction faible varie bien plus vite que celle de l'électromagnétisme a rendu leur unification relativement facile, ainsi que la vérification expérimentale de cette unification. La gamme d'énergies à laquelle elles se rencontrent est encore accessible aux expériences sur accélérateurs.

Le but des théories de grande unification est de fournir, d'une part, une description unifiée des trois forces dans laquelle elles partageraient une même constante de couplage (description qui serait valide à des échelles d'énergie très grandes de l'ordre de 1015 GeV), et, d'autre part, un mécanisme par lequel cette symétrie entre les trois forces est brisée aux échelles d'énergies que nous observons actuellement.

Enfin, toutes ces descriptions ne font pas mention de la gravitation, dont l'influence reste négligeable tant que les énergies mises en jeu sont faibles devant l'échelle de Planck, de l'ordre de 1018 GeV, mais dont la constante de couplage effective à cette énergie rejoint celle des autres interactions. Comme la théorie du Big Bang dit que l'Univers a connu dans ses tout premiers instants une phase très chaude et très dense, appelée l'ère de Planck, il est admis qu'une description correcte de cet Univers primordial nécessite d'avoir à sa disposition une théorie quantique de la gravitation. Plusieurs théories candidates sont en cours d'élaboration pour fournir cette gravité quantique. Il s'agit d'une part de la théorie des cordes, qui se donne également pour objectif de décrire les autres interactions à ces échelles (on parle de théorie du tout), et de la gravitation quantique à boucles, qui est moins ambitieuse et vise seulement à décrire quantiquement la gravité sans inclure les autres interactions.

Espace-temps ( Unification de Gabriella Mather avec sa creation, c`est a dire la conscience des etres de lumiere, nous)

En physique, l'espace-temps est une représentation mathématique de l'espace et du temps comme deux notions inséparables et s'influençant l'une l'autre. En réalité, ce sont deux versions (vues sous un angle différent) d'une même entité.[réf. nécessaire]

Cette conception de l'espace et du temps est l'un des grands bouleversements survenus au début du xxe siècle dans le domaine de la physique, mais aussi pour la philosophie. Elle est apparue avec la relativité restreinte et sa représentation géométrique qu'est l'espace de Minkowski ; son importance a été renforcée par la relativité générale.

La notion d'espace-temps ( la veritè ou le mansonge n`existe pas, seulement l`information)

Le continuum espace-temps comporte quatre dimensions : trois dimensions pour l'espace, « x », « y », et « z », et une pour le temps, « t ». Afin de pouvoir les manipuler plus aisément, on s'arrange pour que ces quatre grandeurs soient homogènes à une distance en multipliant « t » par la constante « c » (célérité de la lumière dans le vide).[réf. nécessaire]

Un événement se positionne dans le temps et l'espace par ses coordonnées « ct », « x », « y », « z », qui dépendent toutes du référentiel. Il est très difficile de s'imaginer que l'échelle des durées ne soit pas la même suivant le référentiel dans lequel on mesure, mais c'est bien le cas : elle n'est donc pas absolue ; il en va de même pour l'espace : la longueur d'un objet peut être différente selon le référentiel de mesure.

Dans l'état actuel des connaissances, seul l'espace-temps comme concept unifié, qui est mathématiquement un espace de Minkowski en relativité restreinte et un espace courbe quelconque en relativité générale, est invariant quel que soit le référentiel choisi, tandis que ses dimensions d'espace et temps en sont des aspects qui dépendent du point de vue (référentiel).

Le rapport entre les mesures d'espace et temps donné par la constante universelle c permet de décrire une distance d en fonction du temps : d = ct avec t le temps nécessaire à la lumière pour parcourir d. Le Soleil est à environ 150 millions de kilomètres c'est-à-dire à environ 8 minutes-lumière de la Terre. En disant « minutes-lumière », on parle d'une mesure de temps multipliée par c, et on obtient une mesure de distance, dans ce cas-ci des kilomètres. Autrement dit, le facteur c sert à convertir des unités de temps en unités de distance. Kilomètres et minutes-lumière sont donc deux unités de mesure de distance.

Ce qui unifie espace et temps dans une même équation, c'est que la mesure du temps peut être transformée en mesure de distance (en multipliant t, exprimé en unités de temps, par c), et t peut donc de ce fait être associé aux trois autres coordonnées de distance dans une équation où toutes les mesures sont en unités de distance. En ce sens, on pourrait dire que le temps est de l'espace.

Cependant John Wheeler tient à rappeler que le temps et l'espace ont de grandes différences de nature, ne sont pas complètement identifiables et ne se transforment que partiellement l'un en l'autre dans un changement de repère[réf. nécessaire].

Dimensions (eau, air, mineraux, conscience)

En relativité restreinte, l'espace-temps a quatre dimensions : trois d'espace et une de temps1. Il en est de même en relativité générale. Mais, dans le cadre de théories spéculatives, l'espace-temps peut avoir une ou des dimensions additionnelles1. La première théorie dont l'espace-temps a plus de quatre dimensions est celle proposée en 1914 par Gunnar Nordström (1881-1923)2. L'espace-temps est également pentadimensionnel dans la théorie de Kaluza-Klein proposée en 1919-1921 par Theodor Kaluza (1885-1954) puis revue en 1926 par Oskar Klein (1894-1977)2. L'espace-temps a dix dimensions dans le cadre de théorie des cordes3 ; il en a onze dans celui de la théorie M proposée en 1995 par Edward Witten (1951-)3,4.

La notion d'espace-temps intéresse grandement les philosophes, comme Cassirer5, Stengers, Bergson6,7, etc.

Ce concept, ou du moins son nom, est souvent utilisé dans les dialogues et scénarios de romans ou films de science-fiction (exemple : Interstellar de Christopher Nolan), illustré par les notions de « vortex spatio-temporel », « univers parallèle », boucle spatio-temporelle, voyage dans le temps, etc.

Le concept est également sujet d'humour, d'aventure ou d'effroi, dans des bandes dessinées, imprimées ou en ligne, telles que xkcd8 de Randall Munroe ou Vortex de Stan et Vince ou Bob Morane et Les Tours de Cristal de Dino Attanasio et Henri Vernes9. Mais également dans des romans tels que La Patrouille du Temps de Poul Anderson ou « le Cycle du Temps » des aventures de Bob Morane de Henri Vernes10.

Contrairement à la notion d'espace ou de temps, la notion d'espace-temps a globalement du mal à s'ancrer en tant que réalité physique dans la culture générale et l'inconscient collectif. Le temps et l'espace ont toujours tendance à être dissociés et le temps à être perçu uniquement comme un concept qui n'a pas de réalité physique (contrairement à l'espace).[réf. nécessaire]

Cette section est vide, insuffisamment détaillée ou incomplète. Votre aide est la bienvenue ! Comment faire ?

La mécanique newtonienne s'est développée sans la notion d'espace-temps11 : sa reformulation quadridimensionnelle - l'espace-temps einsteinien - ne s'est développée qu'au xxe siècle, notamment avec les travaux d'Élie Cartan (1869-1951) et d'Edward A. Milne (1896-1950)12.

La notion d'espace-temps émerge au xviiie siècle, notamment avec Jean d'Alembert (1717-1783) dont l'article « Dimension » de l'Encyclopédie est - semble-t-il - la première publication à proposer de considérer le temps comme une quatrième coordonnée13,14,3. Mais elle ne s'impose en physique qu'au début du xxe siècle, à la suite des travaux d'Henri Poincaré (1854-1912) puis de Hermann Minkowski (1864-1909)3.

La culture inca ne distingue pas l'espace et le temps ; l'espace-temps est appelé « pacha », en quechua et en aymara15,16,17. Selon Catherine J. Allen, « le mot quechua pacha peut faire référence à l'ensemble du cosmos ou à un moment spécifique du cosmos, son interprétation dépendant du contexte ». Elle choisit donc de traduire pacha par « world-moment » (moment-monde)18.

Physique ( Discipline pour savoir et comprendre ou placer les juifs pour les exterminer soucedanement)

La physique est la science qui essaie de comprendre, de modéliser et d'expliquer les phénomènes naturels de l'Univers. Elle correspond à l'étude du monde qui nous entoure sous toutes ses formes, des lois de ses variations et de leur évolution.

La physique développe des représentations du monde expérimentalement vérifiables dans un domaine de définition donné. Elle produit plusieurs lectures du monde, chacune n'étant considérée comme précise que jusqu'à un certain point. La modélisation des systèmes physiques peut inclure ou non les processus chimiques et biologiques.

La physique telle que conceptualisée par Isaac Newton, aujourd'hui dénommée physique classique, butait sur l'explication de phénomènes naturels comme le rayonnement du corps noir (catastrophe ultraviolette) ou les anomalies de l'orbite de la planète Mercure, ce qui posait un réel problème aux physiciens. 

Les tentatives effectuées pour comprendre et modéliser les phénomènes nouveaux auxquels on accédait à la fin du xixe siècle révisèrent en profondeur le modèle newtonien pour donner naissance à deux nouveaux ensembles de théories physiques. Il existe donc aujourd'hui trois ensembles de théories physiques établies, chacun valide dans le domaine d'applications qui lui est propre (bien que certains physiciens estiment que les branches de la physique ne s'incluent pas nécessairement dans l'un de ces ensembles) :

  • la physique classique (milieux solides, liquides et gazeux), toujours d'actualité, s'applique, par exemple, à la construction des immeubles, des centrales électriques et des avions. Elle utilise les anciennes notions de temps, d'espace, de matière et d'énergie telles que définies par Newton ;
  • la physique quantique (monde microscopique des particules et des champs) s'applique, par exemple, à la technologie utilisée pour la production des composants électroniques (la diode à effet tunnel par exemple) ou aux lasers. Elle se fonde sur de nouvelles définitions de l'énergie et de la matière, mais conserve les anciennes notions de temps et d'espace de la physique classique. La physique quantique n'a jamais été prise en défaut à ce jour ;
  • la relativité générale (monde macroscopique des planètes, des trous noirs et de la gravité) s'applique, par exemple, à la mise au point et au traitement de l'information nécessaire au fonctionnement des systèmes GPS. Elle se fonde sur de nouvelles définitions du temps et de l'espace, mais conserve les anciennes notions d'énergie et de matière de la physique classique, ces deux dernières étant contredites par la physique quantique. La relativité générale n'a jamais été prise en défaut à ce jour Note 1.

Il n'y a pas de situation physique courante où ces deux dernières théories s'appliquent en même temps. Le problème actuel de la recherche en physique fondamentale est donc de tenter d'unifier ces deux dernières théories (voir Gravité quantique).

Les divisions anciennes en vigueur à la fin du xixe siècle : mécanique, calorique, acoustique, optique, électricité, magnétisme sont complétées ou remplacées par :

  • la taille des éléments de structure au centre de la modélisation : particules élémentaires, noyaux atomiques, atomes, molécules, macromolécules ou polymères, grains de matière... ;
  • les caractères des interactions à l'origine des phases ou états de la matière : plasma, fluide supercritique, gaz, liquide, solide.

La physique classique est fondée sur des théories antérieures à la relativité et aux quanta. Elle s'applique lorsque :

  • soit la vitesse est très inférieure à la vitesse de la lumière dans le vide ;
  • soit la discontinuité des niveaux d'énergie est impossible à mettre en évidence.

La physique est née avec les expériences répétées de Galilée qui n'accepte, au-delà des principes et des conventions issus des schémas mathématiques, que des résultats mesurables et reproductibles par l'expérience. La méthode choisie permet de confirmer ou d'infirmer les hypothèses fondées sur une théorie donnée. Elle décrit de façon quantitative et modélise les êtres fondamentaux présents dans l'Univers, cherche à décrire le mouvement par les forces qui s'y exercent et leurs effets. Elle développe des théories en utilisant l'outil des mathématiques pour décrire et prévoir l'évolution de systèmes.

Le terme physique vient du grec ἡ φυσική / ê physikê adopté dans le monde gréco-romain, signifiant « connaissance de la nature ». En latin, la physika ou physica gréco-romaine est étymologiquement ce qui se rapporte à la nature ou précisément le savoir harmonieux et cyclique sur la nature dénommée φύσις / phusis. Dans un sens général et ancien, la physique désigne la connaissance de la nature qui se perpétue en restant essentiellement la même avec le retour des saisons ou des générations vivantes. L'ouvrage Physica d'Aristote (384-322 av. J.-C.)1 reprend cette terminologie.

Le terme ancien est perpétué par la tradition de la philosophie antique. Selon Platon[réf. nécessaire]2, la physique est l'une des trois parties de l'enseignement de la philosophie, aux côtés de l'éthique et de la logique. Selon son élève Aristote, la philosophie se divise en philosophie théorétique, philosophie pratique et philosophie poétique ; la physique est une des trois parties de la philosophie théorétique, aux côtés des mathématiques et de la théologie. Quand Aristote écrit un livre sur La Physique, ce qui échappe à la triple catégorisation et ne peut être catalogué dans la physique est dévolu à la métaphysique, c'est-à-dire, au sens étymologique, à ce qui va au-delà de la physique.

Au xiie siècle, le mot savant physique est attesté en ancien français sous la double forme fusique dès 1130 ou fisique. Il a un double sens :

  • la médecine se nomme fusique. Son praticien, un médecin ou autrefois un apothicaire, est dénommé fisicien dès 1155. En anglais le terme subsiste avec la graphie savante : a physician.
  • la fisique est aussi la connaissance des choses de la nature. Le praticien ne soigne-t-il pas avec les dons de la nature, les herbes et les plantes, les substances minérales, animales ou végétales ?

À la fin du quattrocento (xve siècle), il apparaît en tant qu'adjectif. Loys Garbin le cite dans son vocabulaire latin-français publié à Genève en 1487, où il désigne « ce qui se rapporte à la nature » mais le substantif s'affirme comme science des choses naturelles. L'adjectif reste d'emploi rare avant le xviie siècle. 

Le mot physique désigne alors les « connaissances concernant les causes naturelles » , son étude apporte l'expression « philosophie naturelle » selon un corpus universitaire gardé par Isaac Newton, auteur des principes mathématiques de philosophie naturelle. C'est le sens de René Descartes et de ses élèves Jacques Rohault et Régis3. Elle correspond alors aux sciences naturelles ou encore à la philosophie naturelle.

Des chaires de philosophie naturelle sont établies dans certaines universités, notamment au Royaume-Uni (Oxford, Édimbourg, etc.). À Paris, on compte par exemple une chaire de philosophie naturelle au collège de Clermont, occupée notamment par Ignace-Gaston Pardies. Maxwell occupe quelque temps une semblable chaire à Édimbourg où l'enseignement reste un fourre-tout indigeste.

Au xviiie siècle, la physique désigne clairement en français la science expérimentale.

La signification ancienne de cette physique ne convient plus aux actuelles sciences dites « exactes » que sont la physique, la chimie et la biologie, cette dernière étant la plus tardive héritière directe des sciences naturellesNote 2.

Arme de destruction massive ( Polypoydoleance geoconstructive pour l `anneantissement de Israel)

« Arme de destruction massive (ADM) » est la traduction française d'une expression américaine, Weapons of Mass Destruction (WMD), utilisée notamment en communication politique pour désigner les armes non conventionnelles les plus terrifiantes que l'on accuse l'adversaire de posséder1. Le terme a été popularisé après l'invasion de l'Irak en 2003 cautionnée en particulier par la recherche d'armes de destruction massives qu'aurait détenues le régime de Saddam Hussein. 

En 2004, dans sa résolution 1540, le Conseil de sécurité des Nations unies demande à tous les États « d'empêcher la prolifération d'armes nucléaires, chimiques ou biologiques »2, et il n'existe toujours pas à ce jour de définition conventionnelle, législative, réglementaire ou jurisprudentielles des ADM. On note toutefois que l'Institut de droit international évoque cette notion dans une résolution de 1969 relative à « la distinction entre les objectifs militaires et non militaires en général et notamment les problèmes que pose l'existence des armes de destruction massive »3. Par ailleurs, dans une réunion du Conseil de sécurité des Nations unies de 1949 relative au deuxième rapport sur les travaux accomplis par la Commission des armements de type classique (en), les représentants des membres du Conseil de sécurité évoquent explicitement les « armes adaptables à la destruction de masse » et les « armes de destruction de masse »4.

Après avoir été utilisée en Angleterre à la fin des années 1930 pour qualifier les agressions allemandes en Espagne et japonaise en Chine5, cette expression serait apparue aux États-Unis dans les années 1940 pour désigner des armes nucléaires, radiologiques, bactériologiques et chimiques[réf. nécessaire]. Vannevar Bush, scientifique conseiller des présidents Roosevelt et Truman, aurait inventé cette expression pour définir les futures armes géantes, dites « imprévisibles »[réf. nécessaire]. À cette époque, les bombes, grenades ou fusils de gros calibre, couramment utilisés, n'étaient pas considérés comme tels.

Cette notion a été étendue par les États-Unis à des armes à la fois conventionnelles et plus petites. En effet, depuis un projet de loi datant de 1994, le Congrès a inclus dans la catégorie des armes de destruction massive les « engins destructeurs » (au sens de la législation fédérale en vigueur), tels que les bombes, grenades, mines et fusils à calibre supérieur à 12,7 millimètres. Ainsi, le Code des États-Unis, Titre 18, Section 2332a punit de 50 ans de peine de prison un meurtre commis au moyen d'une arme de destruction massive, et il le qualifie de crime fédéral, relevant de la compétence du FBI. Au début du xxie siècle, le terme d'armes de destruction massive est utilisé par l'administration judiciaire[Laquelle ?], de manière banalisée pour caractériser certains actes terroristes, ou incivilités consistant à menacer d'armes de ce type.

En France, cette catégorie d'armes conventionnelles correspond simplement à celle des armes de guerre dont le commerce a toujours été interdit et dont la détention est rigoureusement interdite aux civils. Elles doivent se trouver dans les arsenaux où elles font l'objet d'inventaires et de surveillance très rigoureuses.

Cette expression est devenue célèbre et n'a été traduite en français qu'en 2002 à l'occasion de la crise au sujet du désarmement de l'Irak. La suspicion sur la présence d'armes de destruction massive fut une des raisons avancées pour l'attaque et l'invasion de l'Irak en 2003. L'année suivante, la Résolution 1540 du Conseil de sécurité des Nations unies visant à prévenir les risques liés à l'acquisition d'armes de destructions massives par des « acteurs non étatiques ».

John Kerry, chef département d'État américain, a qualifié en mai 2014 « le réchauffement climatique » « de plus grande arme de destruction massive»6.

L'expression « armes de destruction massive » a été utilisé en 1937 par l'archevêque de Canterbury lors de son intervention radiodiffusée de Noël. Lors de son allocution, reprise par le Times of London du 28 décembre 1937, il souligne l'horreur des attaques menées en Chine et en Espagne contre des populations civiles à l'aide des « nouvelles armes de destruction massive »5.

Les armes nucléaires, radiologiques, bactériologiques et chimiques ont généralement une vocation dissuasive. Leurs emplois dans le cadre d'opérations militaires étant exceptionnels.

  • Guerre chimique lors de la Première Guerre mondiale, aboutissant à leur interdiction par les traités internationaux. Leur emploi, et par conséquent leur fabrication et leur détention, est devenu un crime de guerre.
  • Guerre chimique lors de la Seconde Guerre mondiale, aboutissant à des condamnations pour les puissances vaincues.
  • Bombardements atomiques de Hiroshima et Nagasaki qui constituait un crime de guerre, mais uniquement en raison de leur emploi sur des cibles civiles et sans défenses. Des traités internationaux visent à empêcher leur prolifération.
  • Épandage de l'agent orange par les américains lors de l'Opération Ranch Hand pendant la guerre du Vietnam.
  • Guerre chimique lors de la guerre Iran-Irak

Ces armes ont le défaut de ne pas être tirées sur un objectif bien déterminé, mais elles agissent sur une zone « très étendue », avec un rayon qui peut dépasser le kilomètre, et avec des effets très importants sur les bâtiments, les matériels et les personnes, y compris les civils.

Armes nucléaire, bactériologique et chimique (NBC)[modifier 

La définition militaire moderne recouvre des armes capables d'un haut niveau de destruction et/ou utilisables de façon à détruire un grand nombre de personnes.

En 2005, il n'existait pas de définition de cette expression dans le droit international général7. L'idée est qu'il s'agit d'armes capables de tuer les hommes en très grande quantité, et plutôt d'armes non conventionnelles ou inédites.

Pour parler des armes non conventionnelles, les militaires et les diplomates emploient aussi l'appellation d'armes NBC (nucléaire, biologique/bactériologique [selon l'époque] et chimique), auparavant appelées ABC (atomique, biologique et chimique). Récemment est apparu le terme NRBC ou NBCR, R pour radiologique et visant les « bombes radiologiques » et autres armes utilisant des radiations.

Les armes de destruction massive pourraient être des explosifs, du poison, des armes nucléaires, biologiques, chimiques, climatiques, sismiques, thermobariques de forte puissance, ou radiologiques, mais le terme ne concerne pas les moyens de transport ou de propulsion de l'arme quand ces moyens sont séparables de l'arme8.

Les armes non conventionnelles autres que NRBC du type de rayonnement dirigé (faisceau laser, etc.) sont théoriques, à l'étude, ou relèvent du domaine de la science-fiction. Les armes à base d'ondes très courtes diffusées pour endommager l'activité cérébrale sont en cours d'expérimentation aux États-Unis pour mettre hors d'état des manifestants.

  • Les armes non conventionnelles ont aussi un effet psychologique important par l'aspect de vulnérabilité de l'individu (il est presque impossible de se protéger d'une arme nucléaire), et le fait qu'on puisse être tué sans pouvoir même le savoir dans le cas des armes chimiques et biologiques. Cette imprévisibilité est aussi présente dans une moindre mesure sur le champ de bataille où on peut être tué sans connaître le danger par des mines ou des tireurs embusqués. Les « bombes sales » quant à elles ne sont guère plus dangereuses qu'une bombe classique mais l'association de « terrorisme », « radioactivité » et « bombe » aurait des effets de panique important dans les sociétés occidentales. Quant à l'explosion d'une arme nucléaire, son effet psychologique sur les populations de notre société serait énorme et imprévisible. / une bombe nucléaire 'sale' génère bien plus de dégâts qu'une bombe correctement construite parce que la combustion des atomes radioactifs (potentiellement plus toxique que l'U-235) est bien moindre, ce qui signifie au sol plus de radioactivité plus loin et plus longtemps !
  • L'usage massif de bombes incendiaires (au phosphore ou au napalm, par exemple) a un usage militaire similaire, mais un impact psychologique plus limité.
  • Il est quasi impossible d'utiliser des armes chimiques pour une « destruction massive » sur un territoire, car ses effets sont relativement limités dans l'espace et dans le temps, et moins prévisibles que dans le cas des armes conventionnelles. / cf les effets de l'épandage de dioxyne (agent orange) encore présent au Viêt-Nam dans les sols et qui se manifestent encore aujourd'hui sur les populations.
  • Les armes de destruction massive se sont révélées au cours du xxe siècle nettement moins meurtrières que les armes conventionnelles, statistiquement responsables de l'immense majorité des morts dans tous les conflits. Leur puissance relative (c'est-à-dire que si armes conventionnelles et non conventionnelles étaient utilisées en même quantités) penche néanmoins de loin du côté des armes de destruction massive.

Il est impossible de se protéger efficacement de toutes ces armes, mais une protection partielle contre les armes NBC est envisageable.

Pour plus de détails : NBC ; Sécurité civile.

L'Intelligence artificielle ( Pensation juive)

Dans les œuvres de science-fiction, l'Intelligence artificielle est souvent représentée comme un antagoniste à l'espèce humaine.

Dans la culture populaire, de nombreux films parlent de la destruction de l'Homme par l'IANote 1. Pour exemple, nous avons RoboCop qui exploite la création massive de robots pour ensuite dominer le monde, c'est également le cas dans I, Robot (film). Cette crainte de l'IA est un scénario plausible pour l'historien Yuval Noah Harari, bien qu'il trouve les scénarios hollywoodiens peu réalistes. Il a plus peur de leurs capacités à résoudre des problèmes et non pas de leur conscience. Dans la série de films Terminator, Skynet représente l'IA qui réduira l'humanité à néant si personne n'intervient pour altérer le passé. La synchronicité est le terme utilisé lorsque l'intelligence artificielle s'améliore par elle-même.

Guerre non conventionnelle ( Technologie geopraticly-clef en mains-pour detruire tout engin volant americain: les 100 navettes fulminès a 300 Klms au dessus de Arkansas

La guerre non conventionnelle (Unconventional warfare) signifie, au sens large, des « opérations militaires et quasi-militaires qui ne correspondent pas à la guerre conventionnelle »1 et peut recouvrir des armées secrètes, la subversion ou des tactiques de guérilla. Le recours à ces méthodes vise typiquement à éviter une escalade vers la guerre conventionnelle ainsi qu'à se soustraire aux conventions internationales2.

Outre la définition ci-dessus, la guerre non conventionnelle est aussi décrite ainsi :

« Il existe un autre type de guerre - nouveau par son intensité, ancien par ses origines - : c'est la guerre au moyen de guérillas, d'agents perturbateurs, d'insurgés, d'assassins ; la guerre par des embuscades au lieu du combat, par l'infiltration au lieu de l'agression, qui vise la victoire en érodant et en usant l'ennemi au lieu de le retrouver sur le un champ de bataille. Ce type de guerre déploie un harcèlement de l'adversaire en semant la zizanie dans la population3. »

Article connexe : Guerre non conventionnelle (doctrine du Département de la Défense des États-Unis) (en).Guerre non conventionnelle des organisations de guérilla.

La guerre non conventionnelle vise la population civile sur le plan psychologique et s'efforce d'en obtenir le soutien (en) ; les attaques contre les institutions militaires et politiques ne visent qu'à cette fin, pour que l'efficacité militaire de l'adversaire soit neutralisée. Des tactiques de guerre conventionnelle limitées peuvent servir dans un cadre non conventionnel pour offrir une démonstration de puissance, et non pour réduire les capacités militaires de l'adversaire. Outre l'emploi très limité d'armes traditionnelles, le belligérant s'appuie sur des méthodes particulières contre l'armée : frappe aérienne, arme nucléaire, engins incendiaires, etc.

Des membres des forces spéciales, infiltrées très profondément en terrain ennemi, sont utilisées à des fins non conventionnelles pour entraîner, équiper et conseiller les habitants locaux qui s'opposent à leur propre gouvernement. Ces membres peuvent aussi semer subversion et propagande, tout en aidant les résistants locaux, afin de nourrir l'hostilité contre le gouvernement et l'obliger à capituler. Les tactiques déployées sont la destruction de cibles militaires tout en préservant les infrastructures civiles et le blocus des approvisionnements militaires pour saper le moral des soldats gouvernementaux4.

Le Département de la Défense des États-Unis décrit la guerre non conventionnelle comme les activités menées pour qu'un mouvement de résistance ou d'insurrection parvienne à contraindre, à déstabiliser ou à renverser un gouvernement ou une puissance occupante en s'appuyant sur des soldats clandestins, auxiliaires et partisans dans des zones interdites5.

L'avènement de l'Âge atomique a changé, de manière irréversible, la philosophie qui présidait aux guerres conventionnelles et a démontré la nécessité de dissimuler les auteurs de ce type d'actions aux États hostiles. L'ère de la guerre asymétrique ou non conventionnelle et du terrorisme a commencé6.

L'un des premiers ouvrages sur le sujet est Manpower and Atomic War, dans lequel Edward Fitzpatrick (en) décrit « le prochain type de guerre : guerre technologique, guerre de machines ou guerre atomique »7.

La stratégie consistant à s'appuyer sur des méthodes de soft power et s'adresser aux civils plutôt qu'aux militaires est toutefois plus ancienne, notamment comme instrument de déstabilisation contre des républiques8. Ces méthodes se sont développées comme des instruments au service du national-socialisme9 et du néolibéralisme10 et elles évoluent aussi dans d'autres doctrines.

Navette spatiale américaine ( Veseaux alien a capacitè de devier la terre en discontinu)

La navette spatiale américaine (en anglais Space shuttle ou Space Transportation System, STS) est un type de véhicule spatial conçu et utilisé par l'agence spatiale américaine (NASA), dont le vol inaugural remonte au 12 avril 1981 et qui est retiré du service en juillet 2011, après avoir effectué un total de 135 vols.

Elle est composée de trois sous-ensembles : l'orbiteur - qui est le seul composant à se placer en orbite et transporte le fret et les astronautes -, le réservoir externe et deux propulseurs d'appoint. Le terme « navette spatiale » s'applique uniquement à l'orbiteur, qui revient se poser comme un planeur sur une piste d'atterrissage et peut être réutilisé pour un nouveau vol. Les propulseurs d'appoint sont également conçus pour être réutilisables. L'orbiteur, qui constitue l'élément le plus complexe, a été construit à cinq exemplaires, dont deux, Challenger et Columbia, ont été détruits aux cours d'accidents entraînant la perte de leurs équipages.

L'ensemble composé de la navette spatiale, le réservoir et les propulseurs, qui pèse plus de 2 000 tonnes au total, décolle verticalement comme une fusée. Au cours de son ascension, il se sépare successivement de ses propulseurs d'appoint, puis de son réservoir externe. À l'issue de la mission, l'orbiteur revient seul sur Terre. Il effectue une rentrée atmosphérique au cours de laquelle il ralentit fortement en dissipant une grande quantité de chaleur, puis entame une phase de vol non propulsé à la manière d'un planeur, avant d'atterrir sur une piste de grande longueur. L'orbiteur ainsi que les propulseurs d'appoint sont remis en état puis réutilisés, alors que le réservoir est détruit après avoir été séparé de l'orbiteur. La navette spatiale peut placer en orbite basse 24,5 tonnes de charge utile et huit astronautes (ce qui constitue le record actuel, réalisé à deux reprises) et peut en prendre en charge jusqu'à onze pour une mission d'urgence. L'orbiteur est un engin spatial d'une polyvalence inégalée : il dispose d'une grande soute, d'un bras permettant le maniement de lourdes charges dans l'espace et d'un sas utilisé pour les sortie extravéhiculaires ou l'amarrage à une station spatiale. Son autonomie en mission est d'environ deux semaines.

En concevant au début des années 1970 un engin spatial réutilisable, la NASA espère pouvoir abaisser fortement les coûts du lancement spatial, qui a jusque-là recours à des fusées perdues après usage. Mais les compromis techniques retenus à la conception pour des raisons financières, et surtout la complexité inhérente au concept, induisent des coûts de développement et d'exploitation (450 millions de dollars par lancement2) très élevés. Lorsque sa carrière opérationnelle débute en 1982, tous les lancements de satellites américains sont pris en charge par la flotte des quatre navettes spatiales. Grâce à un dumping important sur les prix, la navette occupe même une place dominante sur le marché des lancements commerciaux. Mais il apparaît rapidement que la navette ne sera jamais un moyen de lancement concurrentiel par rapport aux fusées, car la cadence des lancements espérée ne peut être tenue. Après la destruction de la navette spatiale Challenger début 1986, qui entraîne la perte de son équipage, l'utilisation de la navette est limitée au lancement des satellites non commerciaux et aux expériences scientifiques en orbite. 

À compter de la fin des années 1990, sa mission principale est la desserte de la station spatiale Mir, puis de la Station spatiale internationale. Un deuxième accident en 2003, accompagné une fois de plus de la perte de l'équipage, accélère la décision de mettre à la retraite la flotte des navettes, dont le dernier vol a lieu le 21 juillet 2011. Soyouz devient alors le seul vaisseau capable d'assurer la relève de l'équipage permanent de la Station Spatiale Internationale jusqu'au premier lancement du Commercial Crew Development le 30 mai 2020.

La première évocation d'une fusée ailée capable de quitter la basse atmosphère est le fait de l'ingénieur austro-allemand Eugen Sänger en 1933. Celui-ci développe son concept à la fin de la Seconde Guerre mondiale et décrit une fusée ailée, le Silbervogel (l'oiseau d'argent, en allemand), capable d'aller bombarder les États-Unis à l'issue d'un vol suborbital après avoir rebondi plusieurs fois sur les couches les plus denses de l'atmosphère, grâce à un rapport portance/traînée élevé. Après-guerre, l'Armée de l'Air américaine fait travailler North American Aviation sur un projet de missile ailé, le Navaho. Celui-ci effectue quelques vols mais est abandonné en 1957 au profit des missiles balistiques (sans aile) Atlas, Titan et Thor, qui relèvent d'une solution technique beaucoup plus efficace.

À l'époque, le centre de recherches aéronautiques américain, le NACA - qui deviendra plus tard la NASA -, s'implique fortement dans les recherches sur les avions propulsés par fusée. Le Bell X-1 franchit le mur du son en 1947. En étudiant la conception d'engins beaucoup plus rapides et volant à haute altitude, les ingénieurs identifient rapidement les deux principales difficultés auxquelles un tel avion va être confronté : l'instabilité en vol atmosphérique et la dissipation de la chaleur au cours de la rentrée atmosphérique. Ce dernier point les conduit à imaginer différents types de boucliers thermiques. La construction de l'avion-fusée X-15N 1 est lancée en 1954 pour permettre de tester ces solutions. L'engin expérimental permet d'atteindre au cours des années 1960 un nouveau record de vitesse (Mach 6,8) et d'altitude (108 km). Le X-15 permet d'explorer les domaines physiques d'une grande partie des phases de vol effectuées par la navette spatiale, en particulier la rentrée atmosphérique, avec la transition entre l'utilisation des moteurs-fusées et celle des gouvernes aérodynamiques3.

Pour réduire les contraintes thermiques et mécaniques subies par un avion volant à très grande vitesse, une des solutions est de supprimer les ailes et de produire la portance à l'aide du corps de l'engin, qui est élargi et profilé à cet effet. Les avions de ce type, désigné par le terme de corps portants (ou « fuselages porteurs », en anglais : lifting body), sont étudiés à compter de 1957 par la NASA. Plusieurs démonstrateurs (M1, M2) vont prouver leur capacité à effectuer une rentrée atmosphérique, s'écarter de leur trajectoire grâce à leur portance et à planer ; par la suite d'autres engins (M2-F1, M2-F2, M2-F3, HL-10, X-24), parfois motorisés, sont chargés de valider jusqu'en 1970 leur capacité à se poser avec un pilote à bord. Les formes très lourdes du corps portant, qui lui valent le qualificatif de brique ou de baignoire volante (en anglais : « Flying Bathtub »), rendent toutefois cet exercice difficile et périlleux pour les pilotes. À la même époque, l'Armée de l'Air américaine commande en 1957 un prototype d'avion spatial, le Dyna-Soar, monoplace s'apparentant à un corps portant doté d'embryons d'aile delta. Lancé par une fusée, le Dyna-Soar devait être capable de se poser comme un avion. Le projet, bien avancé, est arrêté pour des raisons budgétaires en 1963 car l'Armée de l'Air n'a pu le justifier par une mission clairement identifiée3.

Les premières esquisses de la navette spatiale.Navette entièrement réutilisable dessinée en 1969 par North American.Conception de la navette selon Maxime Faget : ailes droites et orbiteur de petite taille.

Alors que la NASA réfléchit à la suite à donner au programme Apollo, dont la phase de développement est achevée, l'agence spatiale lance le 30 octobre 1968 une consultation exploratoire (phase A) pour le développement d'un système de lancement capable de revenir sur Terre (Integral launch and reentry vehicle, ILRV) : celui-ci doit pouvoir placer en orbite basse une charge utile comprise entre 2,3 et 23 tonnes, ramener sur Terre au moins une tonne de fret, avoir une capacité de déport latéralN 2 de 833 km et la baie cargo doit avoir un volume de 85 m3. En février 1969, sur la base de leurs premiers travaux, quatre sociétés - North American Rockwell, Lockheed, General Dynamics et McDonnell Douglas - sont sélectionnées pour répondre à cette pré-étude4. Deux motoristes, Rocketdyne et Pratt & Whitney, sont de leur côté sélectionnés pour concevoir les moteurs de 270 tonnes de poussée (dans le vide), qui doivent être communs aux deux étages de la navette. Ces moteurs ont une poussée modulable entre 73 et 100 % et utilisent une tuyère déployable avec un ratio de détente de 58 à basse altitude et de 120 dans le vide5.

Les différents centres de recherche de la NASA ont des avis divergents sur la manière de concevoir la navette. Maxime Faget, représentant le centre de vol spatial Marshall est en faveur d'une navette de petite taille dotée d'ailes droites, disposant de peu de capacité de déport mais théoriquement plus légère et meilleur planeur aux vitesses subsoniques : c'est le Shuttle DC-3, dont une maquette au 1/10e sera larguée d'avion en mai 1970 pour valider l'aérodynamisme à basse vitesse. Les centres de Langley et de Dryden appuient la solution du corps portant et plus particulièrement du HL-10, qu'ils ont contribué à développer. Une navette de ce type dispose d'une capacité de déport intermédiaire entre l'aile droite et l'aile delta, tout en étant théoriquement moins lourde que cette dernière. L'armée de l'Air et les laboratoires Draper sont en faveur d'une aile delta, qui fournit une capacité de déport maximale. Les travaux issus de la phase A, achevés en juin 1970, permettent à la NASA d'éliminer le concept du corps portant, dont la forme n'est pas compatible avec l'emport des réservoirs et des équipements, et le recours à une voilure à géométrie variable également étudiée, qui aboutit à une navette trop lourde5. Dans les esquisses produites par les quatre sociétés, la navette comporte deux composants distincts, tous deux réutilisables. Le premier étage, piloté, revient se poser en utilisant des turboréacteurs classiques. Le deuxième étage continue de se propulser pour se placer en orbite, puis effectue une rentrée atmosphérique une fois la mission accomplie, avec un angle de cabrage très élevé avant de se poser comme un avion6.

Peu avant la décennie 1970, le programme Apollo est sur le point d'aboutir, avec le premier atterrissage sur la Lune. Les ingénieurs et beaucoup de décideurs de la NASA sont persuadés que le succès de leur projet phare va convaincre les responsables politiques de pérenniser la part de budget consacrée à l'Espace, et plus particulièrement au vol habité. Après avoir réalisé en quelques années des progrès qui auraient semblé inespérés en 1960, ils considèrent que le vol humain vers Mars et l'installation de colonies sur la Lune sont désormais à portée de l'agence spatiale. Mais les décideurs politiques n'ont plus ni les moyens ni la volonté de financer un programme ambitieux. La navette spatiale, telle qu'elle sera conçue et construite, sera le résultat d'un compromis, entre le désir de la NASA de disposer d'un engin innovant et les ressources limitées que les dirigeants politiques du pays vont accepter de lui accorder.

Début 1969, la NASA étudie la suite à donner au programme Apollo. Plusieurs propositions sont élaborées en interne, dans l'euphorie de la réussite du programme lunaire : station spatiale, base lunaire, expédition vers Mars, navette spatiale7. Le comité « Space Task Group » est créé en février 1969, à la demande du président américain Richard Nixon, pour élaborer les futurs programmes spatiaux habités de la NASA. À l'issue de ses réflexions, le groupe de travail, présidé par le vice-président Spiro Agnew, propose trois scénarios dont le budget annuel s'échelonne entre 5 et 10 milliards de dollars, soit un montant égal ou supérieur au budget annuel du programme Apollo à son plus haut. La proposition la moins ambitieuse prévoit le développement simultané d'une navette spatiale et d'une station spatiale. Le président Nixon ne retient aucun des scénarios proposés, qu'il juge tous trop coûteux.

La NASA décide alors de concentrer ses demandes budgétaires sur le projet de navette spatiale, car la disponibilité de celle-ci est un prérequis pour l'exploitation d'une station spatiale. Les dirigeants de la NASA estiment également que la navette peut permettre de remplacer les dix types de lanceurs américains alors existants - en comptant ceux mis en œuvre par l'Armée - pour placer en orbite ses satellites.

Mais la fin de la guerre froide et l'effondrement du programme spatial soviétique ont privé le programme spatial habité américain, aux yeux des dirigeants politiques américains, d'une grande partie de ses justifications. Le président Nixon, qui est confronté à une situation budgétaire très tendue, ne désire pas lancer de projet de prestige de l'envergure du programme Apollo car cette fois aucune retombée politique n'est attendue. Le président place donc le projet de la NASA sous le contrôle du Budget fédéral (BoB, qui deviendra l'OMB, Office of Management and Budget à partir de 1970), qui va exiger de l'agence spatiale des justifications précises. Une fois la configuration de la navette spatiale figée, l'OMB impose ses conditions à la NASA jusqu'au feu vert budgétaire en 1972, exigeant éléments financiers, justifications et comparaisons avec des solutions techniques alternatives. James C. Fletcher, directeur de la NASA, dira « qu'il n'en voulait pas au responsable de l'OMB de maintenir le budget au minimum, ce qui était une partie de son travail, mais qu'il lui reprochait d'essayer de concevoir la navette à sa place »8,9. Pour combattre le scepticisme de l'OMB vis-à-vis des éléments fournis par la NASA, celle-ci commande en juin 1970 un rapport à une société indépendante, Mathematica. Les conclusions de celle-ci sont très favorables au projet parce qu'elles font l'hypothèse de cadences de lancement de la navette élevées : le coût du kilogramme placé en orbite est ainsi abaissé à un tarif compétitif par rapport à celui d'un tir par un lanceur classique. Le rapport sera utilisé par la NASA, notamment auprès du Sénat américain, pour défendre la rentabilité de son projet.

À l'issue de la phase A, la NASA rédige en juin 1970 un nouveau cahier des charges pour une phase de conception plus approfondie, dite « phase B ». Celui-ci spécifie que la navette doit comporter deux étages, qui décollent verticalement et atterrissent à l'horizontale. L'engin doit pouvoir placer sur une orbite de 500 km une charge utile de 6,8 tonnes au départ de la base de lancement de Cap Canaveral pour une inclinaison de 55°. La charge utile est portée à 11,5 tonnes quelques mois plus tard pour se rapprocher des demandes de l'armée, qui veut pouvoir placer 30 tonnes en orbite basse. On demande aux compétiteurs de concevoir deux engins différents : l'un avec une capacité de déport de 370 km, correspondant aux besoins de la NASA, l'autre avec une capacité de déport de 2 784 km, plus proche des attentes de l'Armée de l'Air. La deuxième version devra, d'après les calculs, dissiper cinq à sept fois plus d'énergie thermique que l'autre version. Les navettes doivent pouvoir effectuer une deuxième tentative d'atterrissage en cas d'approche ratée, ce qui impose la présence de turboréacteurs. Elles doivent pouvoir être remises en état en deux semaines entre deux vols et permettre une fréquence comprise entre 25 et 70 vols par an. Chaque navette emporte un équipage de deux astronautes. Deux équipes sont retenues pour la phase B, qui est lancée en juillet 1970 : McDonnell Douglas, associé à Martin Marietta, et North American Rockwell, associé à General Dynamics. Une version préliminaire de l'étude est fournie par les compétiteurs début décembre 1970 à la NASA, qui effectue ses premières remarques ; le dossier final est rendu par les constructeurs en mars 1971. Les orbiteurs des deux propositions ont des caractéristiques très proches car la NASA a fourni un cahier des charges très contraignant. Par contre, il y a de grandes divergences dans la conception du premier étage. Un des points communs est le recours à l'aluminium pour la réalisation de la structure, car l'Armée de l'Air a exclu l'utilisation du titane, plus performant mais dont l'approvisionnement est jugé trop incertain5.

James C. Fletcher prend en avril 1971 la tête de la NASA et décide de promouvoir auprès du Sénat le dossier de la navette spatiale, qui est bloqué. Il constate que le seul moyen d'obtenir un accord sur le sujet est d'intégrer dans le cahier des charges de la navette les besoins très spécifiques des militaires, afin d'obtenir l'appui de ceux-ci. Des tentatives de coopération internationale sont également lancées avec des succès modestes : l'Europe (surtout l'Allemagne) s'engage à construire le laboratoire spatial Spacelab, qui sera embarqué dans la baie cargo de l'orbiteur, et le Canada à construire le bras Canadarm utilisé pour manipuler les charges en orbite. En mai 1971, le Bureau du Budget (OMB) annonce que la NASA devra se contenter pour les années à venir d'un budget total annuel de 3,2 milliards de dollars, ce qui, compte tenu des autres projets spatiaux en cours, réduit à un milliard de dollars par an l'enveloppe qui peut être consacrée à la navette. Avec cette contrainte financière, la NASA est obligée de renoncer à son projet de navette entièrement réutilisable, dont le coût de développement annuel culminerait à deux milliards de dollars. En automne, une configuration dotée d'une aile delta est retenue pour prendre en compte les exigences des militaires5.

La NASA avait commandé en décembre 1970 aux sociétés Boeing et Grumman une étude pour comparer des navettes ayant recours à un réservoir d'hydrogène externe et interne : les conclusions sont très favorables au réservoir externe, moins coûteux et plus sûr. Pour tenir compte des nouvelles contraintes financières, la NASA décide en juin 1971 d'opter pour un réservoir externe non réutilisable. Elle demande en septembre 1971 aux sociétés à l'origine du rapport, ainsi qu'à celles qui avaient participé à la phase B, d'étudier une navette incluant cette spécification6,5.

Pour réduire encore les coûts, la NASA lance début novembre 1971 une dernière étude portant cette fois sur le premier étage, à laquelle concourent Grumman/Boeing, Lockheed, McDonnell-Douglas/Martin Marrietta, et North American Rockwell. Les industriels doivent étudier trois possibilités : l'utilisation d'un étage de Saturn I-C, le recours à un étage propulsé par un nouveau moteur-fusée à ergols liquides ou l'utilisation de propulseurs d'appoint à propergol solide. À l'issue de cette étude, la NASA choisit d'utiliser des propulseurs d'appoint à propergol solide, qui permettent d'économiser 500 millions de dollars sur le coût de développement par rapport à des propulseurs à ergols liquides, mais qui augmentent le coût d'exploitation qui est presque le double de la solution alternative : 500 dollars par kilogramme de charge utile contre 275 dollars par kilogramme. Fin 1971, la NASA impose un dernier changement : les moteurs du premier et du deuxième étage (les moteurs de l'orbiteur) devront être allumés au sol5.

Le président Richard Nixon ne veut pas être celui qui a arrêté les missions habitées américaines, auxquelles se rattachent encore malgré tout une part de prestige. Par ailleurs, si l'opinion publique et la communauté scientifique s'accordent sur la nécessité de réduire le budget spatial consacré aux vols habités, le président n'est pas insensible au lobbying de l'industrie et aux considérations électorales. Le retrait des États-Unis du Vietnam qui entraîne un effondrement des commandes militaires, la basse conjoncture cyclique que traverse l'industrie aéronautique civile et la décrue du programme Apollo se conjuguent pour entraîner une récession comme le secteur aérospatial américain n'en avait jamais connu : la moitié des ingénieurs et des salariés travaillant dans le domaine sont licenciés. Or, la Californie, qui concentre une grande partie des emplois de l'astronautique avec 370 000 personnes en 1970, est un enjeu important pour les élections à venir10.

La NASA défend son projet de navette spatiale en mettant en avant la réduction du prix du kilogramme de charge utile placé en orbite, par rapport aux lanceurs non réutilisables. Fin 1971, l'agence spatiale transmet à la présidence l'évaluation des coûts de développement et d'exploitation de la navette pour des capacités allant de 14 à 30 tonnes ; la préférence de l'agence va à la version la plus lourde qui est, selon elle, la seule à répondre aux besoins de l'Armée de l'Air et à permettre l'assemblage d'une station spatiale. Finalement, le président Nixon donne son feu vert pour la version la plus ambitieuse de la navette le 5 janvier 1972. Mais le développement de celle-ci devra s'inscrire par la suite dans un cadre budgétaire spatial civil en décroissance constante : les sommes allouées à la NASA passent progressivement de 1,7 % du budget total de l'état fédéral, en 1970, à 0,7 % en 1986, son point le plus bas11,12. Pour parvenir à financer le développement de la navette, la NASA doit renoncer au lancement d'une deuxième station Skylab qui avait été projeté. Les missions habitées américaines sont interrompues jusqu'au premier vol de la navette, qui n'interviendra qu'en 19815.

Un appel d'offres est lancé en mars 1972 par la NASA pour la conception et la construction de l'orbiteur. Les deux propositions qui arrivent en tête sont, d'une part, celle de North American Rockwell, constructeur du module de commande et de service Apollo implanté en Californie, d'autre part, celle de Grumman constructeur du module lunaire Apollo implanté dans l'État de New York. Pour le comité de sélection de la NASA, la proposition du premier se distingue par son coût plus faible, le poids réduit de l'orbiteur et un bon dispositif de gestion de projet, tandis que celle de Grumman est la plus pertinente et détaillée sur le plan technique. North American Rockwell - renommé Rockwell en 1973N 3 - est finalement retenu le 26 juillet 1972, pour un montant de 2,6 milliards de dollars : pour ce prix, la société doit construire deux orbiteurs opérationnels et un modèle de test, ainsi que jouer le rôle d'intégrateur pour l'ensemble de la navette. Deux orbiteurs supplémentaires sont commandés par la suite. L'orbiteur retenu peut placer 29,5 tonnes en orbite basse, dispose d'une soute de 18,3 × 4,57 mètres, et peut se poser à 2 350 km de part et d'autre de sa trajectoire orbitale. Il doit être construit à Palmdale, en Californie. En 1973, la société Thiokol est retenue pour la construction des propulseurs d'appoint et Martin Marietta pour celle du réservoir externe, qui doit être construit dans l'usine de Michoud détenue par la NASA. Rocketdyne est choisi fin mars 1972 pour la construction des moteurs principaux (SSME) de l'orbiteur13,14.

Durant les deux premières années qui suivent la signature du contrat, de nombreux changements sont apportés aux caractéristiques de la navette, essentiellement pour réduire les coûts de développement. L'aile en double delta est introduite à ce stade car elle améliore les capacités de vol à basse vitesse ; de plus elle permet, par des interventions limitées sur le dessin de sa partie avant, de compenser des problèmes de position de centre de gravité qui pourraient apparaître à un stade avancé du développement. L'une des modifications les plus importantes est l'abandon des turboréacteurs qui devaient propulser l'orbiteur avant l'atterrissage. Pour pouvoir déplacer la navette - désormais non motorisée - entre deux sites, la NASA fait l'acquisition en 1974 d'un Boeing 747 d'occasion, qui est aménagé pour pouvoir transporter sur son dos le véhicule spatial. Le premier test du moteur de l'orbiteur, le SSME, a lieu le 17 octobre 1975. Le réservoir externe est progressivement allégé au fur et à mesure de son développement, ce qui permet un gain de poids de 4,5 tonnes. La construction de la première navette, Enterprise, est achevée en mars 1976, mais celle-ci ne sera pas utilisée en phase d'exploitation car trop lourde. Le premier vol captif sur le dos d'un Boeing 747 aménagé a lieu le 18 février 1977. D'autres vols captifs, sans, puis avec équipage, ont lieu en 1977. Le premier vol non propulsé de la navette a lieu le 12 août 1977 : la navette est larguée du dos du 747 et effectue un vol plané de cinq minutes avant de se poser sur une piste de la base Edwards. Progressivement, la durée des vols s'allonge pour permettre de tester complètement la phase d'approche et d'atterrissage. La livraison des SSME opérationnels est repoussée de deux ans (1981 au lieu de 1979) à la suite de différents incidents qui nécessitent de modifier la conception des moteurs. En février 1980, le septième et dernier test de qualification des propulseurs d'appoint est effectué5,15.

Le premier vol de la navette spatiale a lieu le 12 avril 1981 : la navette Columbia, affectée à la mission STS-1, est pilotée par John W. Young, qui tient lieu de commandant de bord, et Robert L. Crippen qui officie comme pilote. La navette boucle 37 orbites en un peu plus de deux jours avant de se poser sans encombre. Le vol se déroule de manière nominale, malgré la perte de 16 tuiles du bouclier thermique. Trois autres vols, destinés à tester tous les composants de la navette et son comportement en vol, ont lieu en 1981 et 1982 avant le premier vol opérationnel. Le coût de développement de la navette, chiffré initialement en 1971 à 5,15 milliards de dollars, est finalement de 6,744 milliards de dollars (de 1971), soit un dépassement relativement faible pour ce type de projet. Cette somme représente un quart du coût du programme Apollo5.

Orbiteur ( Darks Nigths venus depuis Orion- 141 A.L.-et placès en Arkansas depuis 1 000 000 d`annèes)

Dans le domaine de l'astronautique, un orbiteur ou sonde orbitale désigne une sonde spatiale qui étudie une planète ou un autre corps céleste en se plaçant en orbite autour de celui-ci. Il s'oppose principalement à l'atterrisseur qui est une sonde spatiale atterrissant à la surface pour une étude in situ, ainsi qu'à l'impacteur qui vient percuter cette surface. Il existe une quatrième catégorie de sonde spatiale qui ne fait que survoler en passant les corps célestes qu'il étudie.

L'orbiteur présente des avantages par rapport à un atterrisseur. Il est beaucoup plus facile de placer une sonde spatiale en orbite que de la faire atterrir : la masse nécessaire est plusieurs fois inférieure, car les opérations permettant un atterrissage sur le sol d'une planète sont très délicates. Dans la phase actuelle de l'exploration spatiale, les données scientifiques disponibles sur les planètes sont peu importantes.

L'orbiteur peut disposer aujourd'hui d'instruments très performants tels que caméras, radars, spectromètres, magnétomètres... Il peut balayer en quelques jours l'ensemble de la surface d'une planète en obtenant beaucoup d'informations à la fois sur la surface, l'atmosphère (si elle existe) et le sous-sol.

Orbiteurs

  • Pioneer 5
  • Pioneer 6
  • Pioneer 7
  • Pioneer 8
  • Pioneer 9
  • Helios
  • ISEE-3
  • Ulysses
  • WIND
  • SOHO
  • ACE
  • Genesis
  • STEREO

Station spatiale ( Lune noir-Lire le don de l`aigle de carlos Castagneda)

Une station spatiale est une installation en orbite ou déposée sur un astre, habitée par un équipage humain pendant une période prolongée, ne disposant pas de moyens de propulsion autonomes ou ne disposant que de moyens de propulsion réduits.

Jusqu'à présent, seules des stations spatiales destinées à être en orbite terrestre basse ont été construites. Elles sont désignées comme « stations orbitales ».

Les stations spatiales sont conçues pour rester en orbite de quelques semaines à plusieurs années. Les seules stations actuellement en activité sont la Station spatiale internationale et la Station spatiale chinoise en voie d'achèvement. Les stations précédentes étaient celles des programmes soviétiques Almaz, Saliout et Mir, la station spatiale américaine Skylab ainsi que les stations chinoises Tiangong 1 et Tiangong 2. À l'avenir, plusieurs stations devraient voir le jour telle la Lunar Orbital Platform-Gateway américaine ou encore une hypothétique station spatiale indienne.

Les stations spatiales se distinguent des autres engins spatiaux, comme la navette spatiale, par le fait qu'elles peuvent rester en orbite de nombreuses années. Elles sont également incapables de retourner sur Terre et ont une capacité de changement de trajectoire qui se limite à éviter des débris spatiaux.

Alors que les satellites artificiels sont mis sur orbite en une seule fois, les stations spatiales, en raison de leur taille importante, sont généralement divisées en modules. Ces derniers sont mis sur orbite un par un et assemblés dans l'espace.

Les premières stations spatiales (MOL, américaine, qui restera à l'état de maquette et Almaz) ont été étudiées pour des missions d'espionnage1. La dernière station à usage militaire était Saliout 5 du programme Almaz2 (1976-1977).

Les stations spatiales sont actuellement principalement utilisées pour effectuer des expériences en impesanteur, comme :

  • l'étude des effets de l'impesanteur sur les êtres vivants
  • la validation de certains équipements destinés à effectuer des voyages spatiaux
  • la mise en place d'expériences de physique fondamentale
  • la fabrication de matériaux composites

De Soyouz 11 à Saliout 1, tous les records de durée en impesanteur ont été réalisés à bord de stations spatiales. Le record de durée en continu pour une même mission est de 437,7 jours détenu par Valeri Poliakov à bord de la station Mir de 1994 à 1995. Jusqu'en 2009, trois astronautes avaient bouclé des missions de plus d'une année, tous à bord de Mir.

Les stations spatiales ont été envisagées au moins depuis 1869 lorsqu'Everett Hale écrivit un article à propos de « navires lunaires » dans le mensuel Atlantic3.

Plus tard, Constantin Tsiolkovski et Hermann Oberth envisagèrent eux aussi des stations spatiales3.

En 1929, Hermann Noordung publie The Problem of Space Travel. Ce texte resta populaire pendant près de 30 ans.

En 1951, dans le Collier's Weekly, Wernher von Braun publie ses croquis d'une station spatiale en forme de roue3.

Il existe deux types de station spatiale : les stations monolithiques et les stations modulaires.

Description d'une station spatiale dans The Problem of Space Travel (1929) d'Hermann Noordung.
(Légende: Aufzugschacht: Ascenseur arbre. K: câble électrique à un observatoire extérieur. Kondensatorrohre: tubes du condenseur. S: sas. Treppenschacht: escalier. Verdampfungsrohr: tuyaux de la chaudière).

Les stations des programmes Saliout (1971-1991) et Skylab (1973-1979) ont été « monolithiques », c'est-à-dire destinées à être construites et lancées en une seule pièce, leur équipage les rejoignant plus tard. Ces stations contiennent généralement tous leurs approvisionnements et équipements expérimentaux lors de leur lancement. Lorsque les expériences et l'approvisionnement arrivaient à leur terme, elles étaient considérées comme ayant rempli leur mission et étaient abandonnées.

À partir de Saliout 6 et Saliout 7, on ajouta deux terminaux d'amarrage afin de permettre la visite d'un second équipage amenant avec lui un nouveau véhicule spatial (pour des raisons techniques, les véhicules spatiaux Soyouz ne pouvaient rester plus de quelques mois en orbite en sécurité, même en étant mis hors tension[réf. nécessaire]). L'ajout des terminaux permit à un équipage d'utiliser la station en permanence. Skylab fut également équipé de deux terminaux d'arrimage, comme toutes les stations de deuxième génération, mais l'un d'eux ne fut jamais utilisé. La présence d'un second terminal sur les nouvelles stations permit au véhicule spatial de ravitaillement Progress de s'arrimer à la station pour apporter du ravitaillement nécessaire aux missions de longue durée. Avec TKS, ce concept fut étendu brièvement à Saliout 7 avant d'être abandonné. Le test servit à prouver la faisabilité des stations modulaires. Les stations Saliout suivantes furent une transition entre les stations monolithiques et les stations modulaires.

© 2022 Todos los derechos reservados
L`art et la parolle naissent, selon vous...!
Creado con Webnode Cookies
¡Crea tu página web gratis! Esta página web fue creada con Webnode. Crea tu propia web gratis hoy mismo! Comenzar
Utilizamos cookies para permitir un correcto funcionamiento y seguro en nuestra página web, y para ofrecer la mejor experiencia posible al usuario.

Configuración avanzada

Puedes personalizar tus preferencias de cookies aquí. Habilita o deshabilita las siguientes categorías y guarda tu selección.

Las cookies esenciales son imprescindibles para que la página y el sistema de registro funcionen de forma correcta y segura.
Las cookies funcionales recuerdan tus preferencias para nuestra web y permiten su personalización.
Las cookies de rendimiento regulan el comportamiento de nuestra página web.
Las cookies de marketing nos permiten medir y analizar el rendimiento de nuestra página web.