Skip to main content

complémentarité_macroscopique

complémentarité_macroscopique

Une copie quantique de moi, est-ce encore moi ou une copie quantique d’un objet, est-ce encore l’objet ? Une particule élémentaire comme l’électron a-t-elle une identité ? –        Oui à l’intérieur de l’atome où il ne peut y en avoir deux dans le même état quantique sur une même période (principe d’exclusion de Pauli). –        Non en dehors où on ne peut les distinguer (non localité). Deux réponses à priori contradictoires pour une même théorie mais complémentaires en regard de ses principes : états superposés et indiscernabilité ou incertitude d’Heisenberg (onde ou corpuscule). La flèche du temps ou l’entropie de Boltzmann est une loi statistique S=ln(W). Ici c’est le nombre qui fait la loi même si ses composantes sont des objets (molécules de gaz, particules) tout aussi indiscernables : la décohérence est à l’œuvre, c’est le retour de la localité ! Le débat sur la non localité de particules intriquées a été tranché, cependant personne ne peut honnêtement en comprendre la signification sauf à dire que les concepts classiques de position et de vitesse ne sont pas le même en mécanique quantique que leurs pendants classiques. Et nous sommes repartis sur les concepts de dualité onde/corpuscule, échelle macroscopique/ monde subatomique, relativité générale/électrodynamique quantique, modèle standard/gravitation, en résumé le tout puisque notre univers est un objet unique qui n’est pas seulement réductible à une collection d’objets lui appartenant, il est lui-même un objet qui se contient : or le tout ne pourrait s’expliquer qu’avec deux théories physiques contradictoires. Il existe bien des modèles mathématiques pour décrire une théorie du tout mais ils restent pour l’instant en dehors du champ de toute expérimentation. Quelle particule élémentaire susceptible d’être trouvée avant la fin des temps pourrait être découverte ici et maintenant, est-elle une question légitime ? Un objet physique incontestable, prévu par les équations semble être la preuve de par son existence que la dualité quantique et la relativité générale forment un seul et même objet de cet univers unique : le trou noir. La question arrive alors : les mathématiques sont-elles capables de décrire un modèle d’univers testable ? En l’état actuel, il semblerait que la détection du graviton de spin 2 et de masse nulle postulé par les équations relativistes d’Albert Einstein demande des moyens hors de portée des plus puissants accélérateurs de particules. La théorie des cordes dont l’objectif est d’unir la relativité générale et la mécanique quantique postule l’existence d’une corde qui possède les caractéristiques du graviton, le seul défaut de cette théorie est qu’elle est pour l’instant purement hypothétique et envisage des dimensions supplémentaires dont une serait précisément celle qui possède les caractéristiques de non commutativité nécessaire à la cohérence de la gravitation quantique ou super symétrie. Dans le modèle standard de la théorie des champs ou QED (électrodynamique quantique), les trois forces, électromagnétique, nucléaire forte et faible, sont réunies dans l’univers primordial à la même constante de couplage. Cependant les propriétés spatiales des éléments de cette dimension cachée ne doivent pas seulement réaliser AB # BA mais AB = -BA Dans l’essai : la conjecture de Goldbach forte et ses conséquences sur la théorie des nombres :

Opérateurs et algèbre.

La représentation spectrale des complémentaires premiers dans ℂ ne permet pas une identification ontologique des parties réelles et imaginaires. Tant que l’on n’a pas levé l’ambiguïté sur les éléments de Cp/ ℂ, A.B peut être différent de B.A et Cp/ ℂ forme alors une algèbre  non commutative. On peut lui attribuer les propriétés suivantes : –      1)        Annulation de l’équation fonctionnelle   = 0 (invariance) –        2)        Orthogonalité des parties réelles par passage des équations 6) et 7) aux systèmes 10) et 11). Cp/ℂ engendre le temps sur l’espace topologique U cela permet une représentation vectorielle des complémentaires premiers à condition de respecter cette ambiguïté des parties réelles et imaginaires Ils peuvent être écrit sous une forme matricielle (complexe) selon le choix qui aura été effectué, nous verrons alors que cette représentation matricielle conduit également à une invariance qui se traduit par l’appartenance au groupe des matrices GL (2, ℂ). … et A.B # B.A Le groupe de Lie ainsi obtenu est non commutatif (c.q.f.d.). Ici Cp/ ℂ réalise AB = -BA tant que d≠0 et les couples de complémentaires premiers sont au moins en théorie l’équivalent des particules super partenaires ! En conclusion, les particules super partenaires <fermions bosons> s’apparentent aux complémentaires premiers <p1 p2> tant que d≠0 (<=> de la décohérence pour les particules). A d=Lp (<=>0) ou au temps de Planck dans l’univers, les quatre forces fondamentales se trouvent alors réunies en une seule, dès que d>Lp une première brisure de symétrie apparaît et la gravitation se sépare des trois autres forces. La mesure de la polarisation du fond diffus cosmologique pourrait être le signe d’ondes gravitationnelles et la confirmation de l’inflation du modèle standard. Ainsi des phénomènes de surfusion liés à l’inflation auraient restitués la quantité d’énergie d’un champ primordial où la GUT et la gravitation décrite par une théorie quantique formerait le cadre d’une description unique de l’univers actuellement décrit par deux théories contradictoires. Une de ces théories candidates pourrait être la théorie des cordes mais aussi la théorie de la gravitation quantique à boucle mais aussi…en tout cas nombres de théories auront été invalidées par la confirmation du modèle inflationnaire ! La théorie des cordes n’est peut-être pas, dans sa version actuelle, l’ultime théorie ou la théorie du tout ou la M théorie. Ce n’est peut-être qu’une version ad-hoc qui s’ajuste aux observations physiques du modèle standard mais n’a pas un degré suffisant d’invariances ou de symétrie pour éliminer ces ajustements. Le géocentrisme Ptoléméen avec ses raffinements d’épicycles fût balayé par les équations de Kepler qui décrivaient un modèle héliocentrique. Ce système fût lui-même supplanté par la relativité générale qui décrit les orbites des planètes par la courbure de l’espace-temps et les géodésiques suivies par les objets stellaires qui impriment eux-mêmes une déformation de l’espace dans lequel ils se déplacent. Voilà une théorie fondamentale qui peut expliquer les moindres perturbations des orbes ! Elle explique la gravitation non comme une force qui agit instantanément à distance comme Newton avec sa célèbre équation entre 2 objets : F = G m1m2/R² mais comme une déformation de l’espace-temps avec un temps de propagation de la force qui ne peut excéder la vitesse de la lumière ! Certains diront que ce n’est pas une théorie de la relativité mais de l’absolu : celui de la vitesse de la lumière. En fait, il ne s’agit rien d’autre que le pendant de la relativité galiléenne étendue des mouvements inertiels aux mouvement accélérés. Avec son principe d’équivalence, on ne peut distinguer l’accélération de la masse grave dans la formule : F = mɤ=mg. De même que dans un repère galiléen on ne peut distinguer le mouvement, ici c’est le mouvement accéléré que l’on ne peut distinguer de la chute des corps. Ainsi dans un ascenseur en chute libre, vous n’avez pas de poids… jusqu’au terme de sa course !! Cependant les équations de la relativité générale ne s’appliquent pas aux particules subatomiques : c’est le règne de la mécanique quantique qui est non causale et probabiliste. Il semblerait que cette théorie puisse décrire à elle seule l’ensemble de l’univers à toutes les échelles. Mais alors un problème se pose : l’univers serait pixelisé et nous ne serions que des projections holographiques en 3D d’une information codée en 2D. C’est à ce prix que l’on sauvegarde le premier principe de la thermodynamique, la conservation de l’énergie, lire le livre de Léonard Susskind : Trous noirs, la guerre des savants. Faut-il le rappeler, Léonard Susskind est le précurseur de la théorie des cordes ? Mais ce n’est pas tout concernant cette théorie, outre la détection du graviton, il faudrait en détecter des supercordes cosmiques, objets cosmologiques ténus mais très étendus qui pourraient être observés indirectement par des anomalies gravitationnelles. Ces effets sont de l’ordre de l’échelle de Planck = 1/10^5 ou densité de Planck. C’est la même échelle que les fluctuations observées sur le fond diffus cosmologique mais il faudrait une observation plus fine car la densité d’énergie de la corde D >>  T sa tension, cependant la tension représente également une énergie et selon les principes de la relativité générale, elles gravitent mais en sens inverse, ce qui annule alors la différence entre densité et tension. L’effet reste perceptible en tournant autour d’une telle corde l’orbite mesurée devrait être inférieure à celle calculée à cause de la valeur du rayon diminué de  1/10^5 il existerait donc un angle manquant et c’est cette anomalie cosmologique qui pourrait être détectée. Si rien n’était observé, c’est la relativité générale elle-même qui serait remise en question Quoi qu’il en soit de ces objets et de leurs détections, cette théorie ne prévoit pas moins 10^500 espaces topologiques dans lesquels ils pourraient se mouvoir : 10^500 Calabi Yau En résumé : –        Les ondes gravitationnelles se sont produites dès l’univers primordial –        Le fond diffus cosmologique est apparu dès que les ondes électromagnétiques ont pu se propager librement, 380.000 ans après le BIG BANG –        L’observation des ondes gravitationnelles primordiales pourrait être confirmée par des interféromètres spatiaux de la future expérience eLISA –        L’observation de la polarisation du fond diffus cosmologique pourrait alors être confirmer avec un ordre de confiance de 3σ En conclusion : la corrélation théorique de ces deux expériences (ondes gravitationnelles et polarisation du fond diffus cosmologique) pourrait être l’unification de la gravitation au modèle standard et alors, mutatis mutandis la théorie des cordes son outil mathématique. fond_diffus2

A vos calculs et observations du fond diffus cosmologique !!   Paradoxe temporel  : Relativement, l’effet ne peut être plus vieux que la cause qui lui a donné naissance, il est donc plus jeune (vous êtes plus jeune que votre mère dans la même tranche d’espace-temps). Mais dans l’univers, objet lui-même le plus âgé, tout ce qui arrive après sa naissance est forcément plus âgé , également relativement ou contingentement à celui-ci, si l’on considère la flèche du temps de l’univers ! Donc la flèche du temps conduit au paradoxe suivant : tout ce qui est contingent à la naissance de l’univers est à la fois plus jeune et plus âgé que ce dernier !! En fait ce n’est seulement un paradoxe qu’à première vue, c’est le terme naissance de l’univers ou instant zéro qui en est la cause donc, force est d’admettre que cet instant zéro est incompatible avec la flèche du temps.   champ de higgs    

La flèche du temps ne peut dériver que d’un processus cyclique entre deux évènements ou points du cycle où l’on ne saurait dater relativement un point par rapport à l’autre. Exemple du schéma ci-dessus : qui précède qui sur autour du cercle engendrant le point associé au potentiel le plus élevé ? Cette représentation en fond de bouteille, représente dans la théorie des cordes, la cosmologie de l’univers primordial, c’est l’évolution d’un champ scalaire avec en ses points les plus bas la densité d’énergie la plus basse vers lequel il tend et au centre l’inflaton, résultat d’un phénomène de surfusion qui lorsqu’il s’est terminé a engendré l’inflation qui se poursuit mais a presque donné sa taille actuelle à l’univers en l’étendant d’un facteur 10^50 en 10^-20s !!     L’énergie du vide définie comme l’état d’énergie minimum devrait être égale à zéro. En cosmologie elle est fausse à 10^120 ordre de grandeur près ! Calculée à l’échelle de la super symétrie elle est bien égale à zéro mais compte tenu de la brisure de symétrie engendrée dès l’inflation cosmique c’est-à-dire juste après l’ère de Planck ou à l’énergie de Planck, il reste malgré tout un ordre de 10^60 à combler ! Cet ordre de grandeur qui est le même que celui calculé dans l’essai : la conjecture de Goldbach forte et ses conséquences sur la théorie des nombres. A environ 10^15 GEV les trois forces, électromagnétiques nucléaires fortes et faibles se séparent, c’est l’énergie que peut produire le LHC ou énergie de la GUT. Plus loin encore, à plus haute énergie il faut y ajouter la gravitation pour obtenir l’énergie du vrai vide, celle qui unifie les quatre forces fondamentales mais aucune théorie unique pour la décrire. En effet, en partant des constantes de couplages du modèle standard et de la gravité et en faisant remonter le temps en fonctions des niveaux d’énergie, on obtient un diagramme avec quatre courbes qui ne convergent pas en un point unique ! Cependant l’énergie de la super symétrie brisée pose problème puis qu’elle diffère d’un ordre de grandeur de 10^60 et c’est le même ordre calculé avec l’univers observable compensé de matière noire et d’énergie sombre, c’est aussi celui calculé dans l’essai : la conjecture de Goldbach forte et ses conséquences sur la théorie des nombres. Matière noire et énergie sombre pourraient alors correspondre à des particules super symétriques encore jamais observées dans les grands accélérateurs. Il serait intéressant à ce stade de trouver une particule candidate pour expliquer ce phénomène car si l’on fait jouer la super symétrie, ces quatre forces parviennent bien à converger ! Il y a plus encore : pourquoi la matière a-t-elle survécu à l’annihilation matière antimatière dans un état d’encore plus haute énergie ou de plus basse entropie ? Plusieurs prétendantes ont déjà été invoquées : –        Super neutrinos qui violent la symétrie CP –        Les neutrinos seraient leur propre anti particule : c’est la thèse de Majorana Enfin l’hypothèse des multivers dans laquelle le nôtre aurait survécu à une annihilation univers anti univers. Mais alors il devrait en subsister une trace puisque nous sommes là ! Et nous en revenons alors à la même quête : où est l’énergie manquante ?   Paradoxe topologique : l’ensemble des ensembles vides est-il vide ? Encore une fois, à première vue nous serions tentés de dire oui mais alors il ne contiendrait aucun élément, ce qui est contradictoire avec sa définition : l’ensemble des ensembles vides. Cependant l’union des ensembles vides constitue bien un ensemble vide et c’est le contraire de ce que nous avons montré plus haut, il s’agit là d’un nouveau paradoxe. Là c’est le terme vide qui est la cause de ce paradoxe : vide relativement à quoi ? Par exemple l’ensemble des nombres premiers pairs < 2 est vide mais dans l’acceptation des complémentaires premiers du livre, la conjecture de Goldbach forte et ses conséquences sur la théorie des nombres, il en existe une infinité ! Cela résulte d’une extension de la définition des nombres premiers. Autrement dit les mathématiques ne constituent pas un corpus figé et si l’on peut dire que le monde est mathématique, c’est également une invention humaine susceptible d’évolution historique de ses concepts, à cet égard ceux-ci ne sont ni transcendants ni immanents, ce genre de césure épistémologique est le pendant de l’instant zéro ou du néant, ils n’ont tout simplement pas d’existence dans le sens où celle-ci conduit aux paradoxes insurmontables tels ceux évoqués plus haut ! Ce n’est pas botter en touche que d’éluder ce genre de questions métaphysiques car les paradoxes évoqués ne sont pas de simples apories du langage : ils sont énoncés en terme mathématiques : théorie des ensembles et thermodynamiques, gradient de champs scalaires ! Si le temps relatif à l’univers conduit à un paradoxe, c’est que celui-ci ne peut servir d’étalon, ce qui est cohérent avec l’absence de temps zéro. De même le vide n’est pas l’absence de tout, énergie ou rayonnement, c’est un champ scalaire qui donne sa masse aux particules élémentaires et dont les défauts topologiques générés par une transition de phase ou brisure de symétrie d’où émergent le temps qui fait coïncider celui probabiliste de la superposition d’états quantiques et le temps propre de la relativité générale. L’univers ne peut être alors considéré que comme un épiphénomène mais de quelle structure émerge-t-il ? Effectivement, nous ne pouvons raisonner que structurellement sans repère absolu spatio-temporel. Cela ressemble à la structure Mop du livre : la conjecture de Goldbach forte et ses conséquences sur la théorie des nombres. Cette structure possède une métrique et un opérateur de réduction mais la question est de savoir si une théorie du tout conciliant relativité générale et physique quantique peut faire émerger une ou de telles structures qui ne seraient plus alors fondamentales ? Si l’univers primordial n’a pas commencé au temps zéro mais au temps de Planck, alors la densité d’énergie concentrée en cet instant ne pouvait être infinie, donc la singularité initiale n’était pas un point au sens mathématique du terme. Il s’avère alors que le point est une construction mathématique qui n’a pas son pendant dans la nature. Ceci répond à une question philosophique fondamentale : les mathématiques sont bien une construction humaine mais comme l’homme en tant qu’il appartient à la nature, le monde est bien mathématique, mais c’est une conclusion hâtive parce que tautologique ! C’est encore un raisonnement du type de l’œuf et la poule : qui était antérieur ? Cependant le projet de Descartes s’inscrit exactement dans cet optique pour décrire la nature et c’est son cogito ergo sum qui en est le postulat : je peux décrire ce qui existe parce que j’ai l’outil pour le penser. Sans entrer dans les détails, la structure qui se présente à mes yeux, si elle n’est pas l’essence de ce qui l’a précédé, son existence reste un palier suffisamment solide sur lequel je peux m’appuyer ! Cela ne lui a pas trop mal réussi et le structuralisme a fait florès depuis lors… C’est bien de la même démarche dont a procédé Claude Lévi- Strauss quand affecté en tant que soldat sur la ligne Maginot, il observait la structure des pissenlits. La nature procède bien d’un ordre et nous sommes équipés d’un esprit pour le percevoir, nonobstant le support à savoir le cerveau, c’est cet esprit en tant que structure émergente qu’il s’est évertué à étudier. Il ne s’agit pas là d’une nature universelle de l’homme, celle-ci apparaît telle une illusion, il y faut un renversement dialectique pour la percevoir : l’essence de l’homme n’est pas inscrite dans son patrimoine génétique. Le tout est supérieur à l’ensemble des parties et l’ontogenèse n’est pas le simple résumé de la phylogenèse, même l’ensemble de l’information du code génétique ne suffit pas à ordonner l’embryon pour construire le spécimen achevé. Par la suite celui-ci ne préjuge en rien du sujet qu’il va devenir. Est-ce qu’un extra-terrestre à partir de cet embryon ou du spécimen achevé, pourrait en déduire Albert Einstein, Mozart ou jacques l’éventreur ? Bien sûr sans le support rien n’est possible mais celui-ci est ensuite pétrit par la culture, c’est cela le sujet : la nature est certes première mais dans le processus de socialisation c’est la culture qui prévaut. Si même là, il n’y a pas de propre de l’homme, alors qu’est-ce que l’essence de l’homme ? la nature est un temple où de vivants piliers laissent parfois échapper de confuses paroles disait le poète. Ces hiéroglyphes, nous les avons décodés, cette sève-là est nôtre, excentrée comme disait Lucien (Sève) !                         Retour sur le principe de confinement : Il étendrait le principe d’incertitude au multivers et l’énergie de Planck et les constantes afférentes, temps et longueur deviendraient alors contingentes ou structurelles à un univers parmi tant d’autres, ce qui détruit définitivement l’anthropocentrisme mais n’enlève rien à l’aventure humaine quelque part sur un petit caillou aux confins de la galaxie : c’est ici !

hello_it's here   Tant que nous sommes dans les hypothèses théoriques, lâchons-nous : Si l’instant zéro et le néant n’existent pas, c’est qu’il y a toujours eu quelque chose, alors un temps cyclique peut-il être envisagé comme dans la théorie M des cordes avec des branes univers qui se rencontrent périodiquement engendrant à chaque fois des rebonds du type « big bang » ? C’est dans la théorie des cordes que l’on peut trouver une structure plus fondamentale que celle de l’espace-temps à quatre dimensions. Il en émerge du moins en théorie la gravité et le temps. Mais il y a plus, la conjecture de MALDACENA ou dualité holographique qui établit l’équivalence suivante : Théorie des cordes sur AdS 5 ×S 5 ~ Théorie de jauge sur la frontière 4D La théorie de jauge du membre de droite est une théorie de Yang Mills super symétrique qui imposent une limitation sur le nombre de degré de liberté des particules mais celle-ci ne deviendrait significative que pour les trous noirs ou pour les plasmas à des densités très élevées, inaccessibles aux tests expérimentaux. Cette limitation ne ressemble-t-elle pas à la brisure de symétrie représentée plus haut ? À nouveau un paradoxe surgi : Le premier principe de la thermodynamique est sauvé grâce à la théorie de Hawking revue et corrigée où les trous noirs ne perdent pas l’information mais en garde une trace sous forme de copie quantique à la surface de celui-ci.  Cela est représenté en théorie des cordes par un univers anti-de Sitter, c’est le membre gauche de l’équivalence.  Et c’est là que surgit le paradoxe : en théorie des cordes le temps est bien émergeant mais il le serait d’un temps cyclique branaire ou scénario ekpyrotique  du modèle cosmologique. Le temps cyclique, c’est le mouvement perpétuel et il contredit le premier principe de la thermodynamique : donc, à moins d’envisager les multivers où se joueraient à chaque fois des flopées d’univers contraints, à variabilité intrinsèque, un temps cyclique ne peut être envisagé car il serait l’apparition du mouvement perpétuel ce qui est bien contradictoire avec un temps émergeant ! Cela fait beaucoup d’hypothèses et reste pour le moment en dehors de toute vérification expérimentale en termes d’énergie délivrée les accélérateurs de particules. Le LHC a été construit pour découvrir le boson de HIGGS pas pour le graviton ! Cependant, ce qui ne peut être découvert dans l’univers microscopique pourrait l’être dans les restes de l’univers primordial, d’où l’intitulé de cet article : complémentarité macroscopique ! Ainsi, la polarisation du fond diffus cosmologique pourrait être détectée par le futur interféromètre spatial de la mission eLISA. Il permettrait de se rapprocher de périodes à hautes énergies pour l’étude de la cosmologie primordiale à laquelle les énergies restent indétectables par le LHC, actuellement le détecteur de particules le plus puissant jamais mis en service. Ce qui est séduisant dans la théorie des cordes est qu’elle considère que rien ne peut être plus petit que la longueur typique des cordes à savoir la longueur de Planck, ceci évacue les problèmes liés à la singularité originelle de l’univers ou de celle de ses trous noirs parfaitement décrits jusqu’au mur de Planck  où la relativité générale est confrontée à des termes infinis dans la solution de ses équations, forcément avec la singularité du point ou de l’instant zéro, les outils mathématiques ne sont plus aptes à décrire quoi que ce soit ! C’est vrai aussi du modèle standard pour lequel il a été conçu une renormalisation had hoc qui supprime les termes infinis dus aux particules sans dimensions. Mais il existe d’autres théories qui ont pour ambition d’unir la relativité générale et la mécanique quantique, c’est par exemple la gravité quantique à boucles ou ce qui est évoqué dans le livre : la conjecture de Goldbach forte et ses conséquences sur la théorie des nombres, à savoir un espace-temps granulaire ! Avec le principe de confinement, l’univers pourrait avoir subi une phase indifférenciée où le temps n’a aucune direction privilégiée l’espace décrivant alors des courbes d’hystérésis remontant le temps et le parcourant jusqu’à atteindre l’aire de Planck et l’énergie du vide à partir de laquelle l’entropie devient supérieure à

zéro (principe de confinement). origine_cosmologique

C’est le moment où la pointe d’une courbe d’hystérésis atteint la bonne amplitude  énergétique comparable à l’inflaton du modèle cosmologique cordiste en fond de bouteille ou chapeau mexicain ! c’est aussi le faux vide du modèle ou de la super symétrie brisée. Dans l’ère du pré Big-Bang, l’univers se relaxe puis rebondit, cela peut être assimilé à des fluctuations quantiques jusqu’à ce que l’une d’entre elles viole le principe de confinement ! Et si les particules super partenaires ne sont pas accessibles au LHC ou du moins encore jamais détectées, elles seraient responsables de la matière noire et de l’énergie sombre responsable de l’expansion accélérée de l’univers et c’est dans le fond diffus cosmologique qu’il faudrait en chercher les traces : le problème est de savoir à quels niveaux d’énergie les trouver ? Nous aurions là un modèle d’univers rendant compte de tout ce qui fût dans l’univers primordial et de ce qui subsiste et qui reste caché mais testable !!   Au-delà du mur de Planck ou de l’autre côté du miroir ! Si le temps émerge, c’est celui du temps qui passe, dans la phase supposée d’hystérésis du pré Big-Bang espace et temps sont indifférenciés, l’espace est bien dans son état de plus basse énergie à E=0. C’est le règne de la mécanique quantique et des particules virtuelles qui ne peuvent exister que si les conditions deviennent favorables à leur apparition : la violation du principe de confinement. C’est la seule contrainte du modèle de pré Big-Bang ! La détection de particules super-partenaires dès cette phase pourraient se faire à une énergie bien moindre que celle des 10^19Gev du modèle inflationnaire : l’idée est que durant la phase d’hystérésis, la mémoire des particules super-partenaires ai été conservée à des énergies détectables par le LHC !! Mais à quelle énergie et comment les observer ? C’est l’expérience eLISA qui pourra nous l’indiquer : si l’on détecte une polarisation du fond diffus cosmologique en se rapprochant du mur de Planck grâce aux ondes gravitationnelles émises, disons <= 10^15Gev, alors par effet miroir en regard du mur de Planck, il apparaît de par l’effet mémoire, une double polarisation et c’est cela qui pourrait être détecté au LHC, confirmant la forme d’enveloppe de l’hystérésis durant les phases de charges et relaxations. Quelques précisions sur l’ère de Planck et au-delà, l’ère du pré Big-Bang : Arrivé au temps de Planck en remontant le scénario de l’univers en expansion, l’on se heurte à un mur où deux théories contradictoires se croisent : l’une est prédictive et locale, c’est la relativité générale du monde macroscopique, l’autre est probabiliste et non locale, c’est la mécanique quantique du monde subatomique : une impasse pour décrire un univers unique à toutes les échelles ! Le problème se cristallise avec la notion de singularité originelle : un univers ponctuel avec une densité d’énergie infinie !! Peu importe le scénario des origines et admettons comme nous l’avons fait, que le point n’existe pas dans la nature, alors il faut admettre une singularité consensuelle, c’est-à-dire qui soit commune à plusieurs théories concurrentes qui ne se heurtent pas sur ce point : les expériences à venir feront le tri… Si l’on admet qu’à 10^19 Gev régnait la super symétrie : QED du modèle standard et gravitation de la relativité générale, soient les quatre forces fondamentales liées à une constante de couplage universelle, alors la Sussy peut se substituer à cette singularité à condition d’avoir un espace non commutatif où les particules super symétriques <bosons fermions> sont indifférenciées tant que l’on ne viole pas le principe de confinement. Cette super symétrie non brisée, sans inflaton ou monopôle magnétique nous amène à l’entropie liée à cet espace non commutatif : on peut la calculer avec la formule de Boltzmann, S = k*ln(w). Ici, le nombre d’états est réduit à la singularité donc : un ! Ou plus précisément dans l’algèbre des opérateurs a*a-a. a* =1 et c’est le même calcul, S=0. Alors l’entropie est bien égale à zéro (S=k*ln (1) =0), c.q.f.d. Si le temps et l’espace-temps émergent d’un espace non commutatif plus fondamental ou plus savamment, d’un opérateur auto-adjoint sur l’espace de Hilbert alors la Sussy non brisée ou n’ayant pas encore subi de transition de phases émerge elle-même d’un tel espace : c’est l’ère du pré Big-Bang décrit plus haut. Le temps et l’espace n’ont pas de directions particulières, c’est la phase d’hystérésis qui est décrite, mais pourquoi une telle forme ? Par-delà le mur : il existe une symétrie de type miroir où il faut descendre la pente depuis un point de rebroussement à 10^19 Gev, d’un côté du point c’est l’inflation de l’autre c’est le parcours dans un sens de la courbe d’hystérésis jusqu’à ce point limite. Mais avant d’atteindre une telle symétrie, combien de fois a t il fallut osciller dans les limites de la bonne courbe d’hystérésis ? cette forme de courbe est le signe d’un effondrement énergétique ou le retour à zéro doit obéir au principe de moindre action puisqu’il s’agit d’un emprunt à court terme !! Ces oscillations ou emprunts ne peuvent être dues qu’à des fluctuations quantiques du vide et la courbe d’hystérésis est une représentation moyennée et lissée comparables aux lois de Lois de Snell-Descartes obtenues à partir des diagrammes de Feynman en QED !   Paradoxe du glaçon : Si la température peut être liée à l’entropie, un système froid ou d’énergie minimale peut tendre vers une entropie nulle où les atomes atteignent un niveau d’organisation élevé, la moindre élévation de température ne peut qu’accroître le désordre, ceci est cohérent avec la formule de Boltzmann. Cependant, à l’état liquide et en continuant, à l’état gazeux, l’entropie retrouve une valeur proche de zéro, du moins, on ne peut plus augmenter son entropie : l’état est indifférencié ou la symétrie est maximale. Donc si l’on sort un glaçon du réfrigérateur et qu’on le plonge dans un verre d’eau puis qu’il s’évapore, son entropie aura donc diminuer ! A ceci près, que l’on garde en mémoire d’avoir placé l’eau dans le réfrigérateur et qu’avant sa condensation, c’était de la vapeur d’eau : son entropie a bel et bien augmenté. Le second principe de la thermodynamique est conservé grâce à un effet mémoire : ce qui peut se traduire par la conservation du second principe équivaut à remonter le temps ! Considérations cosmologiques : le Big Bang ou brisure de symétrie primordiale engendre le même type de paradoxe, la singularité initiale présumée ou Sussy impose une entropie nulle puis la densité d’énergie se dilue avec l’expansion de l’univers. Comment arrive-t-on à ce scénario ? c’est l’observation du fond diffus cosmologique qui nous le révèle : un reliquat de température à 3°K ou -270 °C, soit la mémoire des ou de nos origines mais pour l’interpréter, il faut une mémoire de la mémoire : c’est-à-dire nous, un avorton de singe au regard de la néoténie ! De toute façon l’entropie est bien dégradée sous forme de photons par le soleil.  Certes mais quel était le fiat lux de l’univers ? si l’on se passe de l’hypothèse de Dieu comme Laplace, celle du multivers semble crédible et au regard de ce qui a été développé plus haut, testable ! Quelle était la variable à l’ère du pré-BIG- BANG ? En réalité, l’énergie représentée dans les schémas, est une densité d’énergie par unité de volume ∂(E)/∂(V), mais pour simplifier nous utilisons E. Ainsi, après l’aire de Planck c’est bien une densité qui diminue à mesure que l’univers se dilate avec l’inflation. A l’ère du pré BIG-BANG, la courbe d’hystérésis ne décrit pas E en fonction du temps puis que celui-ci en émerge avec une direction particulière : la flèche du temps ! Il s’agit de fluctuations quantiques et le couple Énergie/temps est remplacé par S(E)/E. Pour mettre en équation le principe de confinement dans l’hypothèse des multivers, nous allons partir des hypothèses sur notre univers et généraliser le résultat : La formule de Boltzmann nous donne l’entropie d’un système à w configurations / S= k*ln(w). Nous avons admis qu’à l’ère de Planck ou de la singularité initiale ou Sussy S=0 mais qu’en est-il de S(E) ? Quand E a atteint une densité d’énergie infinie sur un court intervalle de temps elle peut s’apparenter à un Dirac avec S(E)=k*ln(δ). L’énergie du vide à partir de laquelle l’entropie devient supérieure à zéro peut se traduire par A*∂S(E)/∂(E)+S(E)=S(Eₒ), l’indice représente ici notre univers et S(Eₒ) est une limite en 0+ mais ≠ 0 ! Il reste à calculer A : dans ce cas limite, soit A*∂S(E)/∂(E)-S(E)=S(Eₒ) <=> A*∂S(E)/∂(E)- k*ln(δ)=0 A*∂S(E)/∂(E)-k=0 et le terme ∂S(E)/∂(E) représente lui-même un Dirac d’où A=k ! Il en irait autrement avec d’autres univers viables qui auraient d’autres constantes ou d’autre indices, mais revenons au notre, il vient : k*∂S(E)/∂(E)+S(E)=S(Eₒ), dont la solution est : S(E)= S(Eₒ)*(1-e(-S(E)/k) )c’est un premier ordre qui peut se représenter comme suit :

courbe-entropie-energie3 Discussion : A l’ère du pré Big-Bang la courbe d’hystérésis ne décrit pas le temps puisque celui de la flèche en émerge : il s’agit de fluctuations quantiques et la partie gauche de la courbe est démesurément grossie, ce qui varie, l’entropie, l’est en fonction d’une variabilité plus fondamentale, celle des soubresauts quantiques ! Quand S(E)/k<<1 au pied de la courbe d’hystérésis pendant la charge et au point de rebroussement avant la relaxation alors S(E)~0 et quand S(E)/k>>1 pendant les phases de pente nulle S(E) = S(Eₒ) : c’est l’équivalent de la conservation du second principe de la thermodynamique associée à une symétrie de la courbe d’hystérésis entre ces deux points ! Le mystère de la non localité quantique : Si à l’ère du pré BIG-BANG, remonter le temps est équivalent à un effet mémoire où l’information décrit une courbe d’hystérésis, pourquoi un tel effet ne subsisterait pas après le BIG-BANG ? Alors, si l’effet mémoire est celui des particules intriquées, l’action sur l’une d’elle, en agissant sur l’autre vient perturber son passé mais aucune information n’est échangée en termes de propagation du fait de la non localité !? Cependant avec le principe de confinement, rien ne se propage, même pas le temps avant que l’énergie n’ai atteint une valeur critique. Si la non localité est à l’œuvre dans les expériences d’intrication quantiques, alors, la seule solution est que ce n’est pas le passé des particules qui est perturbé, mais son niveau d’énergie et par là même l’information qui lui est associée. Dans l’ère de pré BIG-BANG ou espace de confinement de la courbe d’hystérésis, pour un même niveau d’énergie, il existe deux états d’informations ou entropie différents, l’un à la charge, l’autre à la relaxation. Cependant, ce sont deux états parfaitement corrélés entre deux points de la courbe où l’entropie est égale à zéro : corrélés mais non causaux ! Pour un même niveau d’énergie, deux états, c’est l’équivalent d’une superposition quantique de la même particule… En conclusion : si l’intrication quantique est équivalente à l’ère de pré BIG-BANG, une question troublante survient : Comment dans un espace-temps local, deux particules peuvent-elles avoir un comportement non local identique à l’ère de pré BIG-BANG ? Une réponse possible mais monstrueuse, serait qu’elles courbent l’espace-temps pour créer un trou de ver qui les relie !? Ce n’est peut-être pas aussi loufoque qu’il n’y paraît : la Sussy doit unir QED et gravitation, ainsi, cette dernière couplant aux autres forces à l’échelle quantique (QG) elle peut très bien ouvrir et refermer un trou de ver pour échanger un graviton, par effet mémoire ou faut-il le dire autrement, par effet tunnel ?! Mais comment peuvent-elles maintenir un trou de ver ouvert aussi longtemps ou aussi long dans le temps sans créer une catastrophe dans l’espace-temps ? Elles ne le peuvent pas, dès que l’on cherche à savoir par quel trou est passée une particule dans l’expérience des fentes, la figure d’interférence disparaît, c’est la décohérence quantique. Donc encore une fois, l’on aboutit à une impasse ou un paradoxe ! Qu’est-ce qui cloche si ce n’est pas les inégalités de Bell ? Mais c’est le même problème que dans la guerre du trou noir : l’information ne disparaît pas, elle est mémorisée , le trou noir, s’il n’a pas de poil, n’a pas de singularité au sens du point mathématique et rien ne peut être compressé au point de disparaître, c’est bien la granularité de l’espace-temps qui sauve la mise : le principe holographique est à l’œuvre !! Alors comme dans trou noir une particule disparaît et une copie quantique subsiste à sa surface et elles sont reliées par l’intrication quantique, ce qui sauve la mise du premier principe de la thermodynamique.  D’accord mais si des particules intriquées ne le sont pas avec un trou noir mais dans notre univers holographique, qu’est-ce qui les relie ? C’est la Sussy quantique : chaque particule intriquée crée une copie quantique d’elle-même, chaque paire se propageant en créant et refermant un trou de ver comme indiqué plus haut ! Un schéma explicatif s’impose avec deux particules intriquées et leurs copies quantiques, soient P 1 P 2 et CP 1, CP 2 , leurs copies :

intrication-quantique Ainsi la particule 1 et la particule 2, grâce à leurs copies et aux trous de ver restent en contact par échange d’une particule messagère. Évidemment, ce schéma reste moyenné et lissé à cause des états superposés. Par contre, ici, on voit bien qu’une mesure sur P 1 versus P 2 va influencer CP 2 versus CP 1 , quel que soit l’endroit sur le parcours AB. D’accord mais pour que les copies influencent à leur tour les particules originales, il faut que les trous de ver soient également créés, non plus seulement dans le sens radial mais également longitudinal, je ne peux pas le représenter sur le plan ! Ou plus simplement dans la configuration ci-dessus on peut penser que CP 1 , se propage avec P 1 versus P 2 /CP 2 , on pourra alors écrire : CP 1 <=>CP 2 dans les deux directions et par conséquent, P1 <=> P1/ CP 2 <=>CP 2 / P <=> P 2 , d’où P1<=> P2 c.q.f.d. : c’est une relation d’équivalence, le seul mystère réside dans la création/annihilation de trous de ver !! De tout ceci, il ressort que les copies doivent rester identiques à leurs particules originales. Pourquoi CP 1 versus CP2 resteraient identiques à P1versus P2 ? Pour la même raison que dans un trou noir, l’information ne peut disparaître, c’est l’équivalence de la conservation du premier principe de la thermodynamique. En d’autres termes : 1 er principe conservé => information conservée ou copies identiques Donc copies différentes => la non conservation du 1er principe et c’est ce raisonnement par l’absurde qui démontre l’équivalence entre particule originale et copie !

En conclusion : les particules intriquées se propagent dans le même sens que les copies quel que soit l’indice, il y a donc quatre copies ou particules complémentaires soit 1 particule pour deux copies identiques et elles ne font que créer et refermer des trous de ver sur leur passage dans le sens radial !! Par ailleurs le graviton doit être suffisamment fugace pour acquérir l’énergie nécessaire à sa création vis-à-vis du principe d’incertitude (ΔΕ . Δt ≥ h/2.pi  )  et si les particules complémentaires ou copies sont deux fois plus nombreuses elles doivent être également moins énergétiques ou plus fugaces et en conséquence, plus difficiles à détecter, quel serait le temps minimum alloué à un photon d’un EV ? c’est assez simple en regard de l’inégalité précédente : 5,391×10-44 s , c’est assez fugace pour un photon mais pour un graviton ? Plus difficile mais pas impossible : il existe des déjà des échanges d’informations basés sur l’intrication, c’est la cryptographie quantique, elle est à l’œuvre à Genève sur plus de 300kms de fibres optiques. Cependant, ce n’est pas pour demain sur votre ordinateur, les dispositifs mis en jeu sont dignes d’un véritable laboratoire de physique. De plus, les bits intriqués ne voyagent pas plus vite que la lumière dans les fibres optiques ! Une information quantique utilisable, mais est-elle vraiment inviolable ? Dans les expériences de pensée entre deux individus, habituellement appelés Bob et Alice, une espionne, appelée Eve, tente d’intercepter la clef publique servant à leur communication. Même avec ce genre de cryptage, il lui est possible de l’intercepter, alors pourquoi ce système est dit inviolable ? Sans rentrer dans les détails, Bob et Alice savent si Eve les a espionnés avec leur clef, il ne leur reste plus qu’à réinitialiser une communication en créant une nouvelle clé ! Pour donner une image de la création d’une telle clé, l’analogie avec une couleur unique aux deux protagonistes peut aider : supposons que Bob dispose d’un pot de peinture bleue et Alice d’un rouge, Alice envoie un échantillon à Bob et celui-ci mélange cette couleur avec un échantillon de la sienne, il obtient un mélange qu’il envoie à son tour à Alice c’est la clef publique utilisée !

Le graviton et sa fugacité, quel ordre de grandeur ? L’intrication quantique ou la non localité ne pourrait s’interpréter que par échange de gravitons, particules les plus énergétiques produites dans l’univers primordial. Attention, si le graviton est la particule messagère qui couple avec la force gravitationnelle, celle-ci s’exerce à l’échelle subatomique, au niveau macroscopique, il est bien entendu que c’est la géométrie de l’espace-temps qui est en cause, liée à la théorie de la relativité générale. Cependant des ondes gravitationnelles prévues par cette même théorie ont bien été détectées avec l’expérience LIGO et si demain le soleil disparaissait nous n’en ressentirions les effets que huit minutes plus tard, le temps de la propagation de l’onde dont la particule messagère est le graviton de masse nulle qui voyage à la vitesse de la lumière, jamais encore détectée dans les accélérateurs de particules et c’est bien là le nœud du problème une particule à toutes les échelles et deux théories pour expliquer l’univers ! Mais poursuivons avec la production du graviton : pour atteindre un tel seuil énergétique et suivant le principe d’incertitude, ces particules n’existeraient que pour un temps minimum tel que ΔΕ . Δt ≥   h/4pi et : t_min = h/4pi.ΔΕ Comme nous l’avons vu plus haut l’énergie produite à l’ère de Planck ou au moment du Big-Bang est de l’ordre de 10^19 GEV, la constante de Planck vaut environ 6.62 10^-34 Ce qui fait t_min   peu différent de 6.62 10^-34/4pi.10^28 soit : 10^-62 secondes et nous donne la longueur du trou de ver parcouru à la vitesse de la lumière : l # 10^-62 .3.10^8, soit environ 10^-53 mètres, stupéfaction , c’est l’ordre de la taille d’un trou noir électronique calculé avec le rayon de Schwarzschild !! Mais il y a une conséquence encore plus étonnante : Dans la zone de liaison radiale, l’échange de particule messagère ou le supposé graviton ne peut lui se faire qu’à une vitesse inférieure ou égale à celle de la lumière et ainsi les trous de ver créés puis annihilés par échange de gravitons seraient des micro trous noirs et nous aurions là un début de théorie qui relie mécanique quantique et relativité générale… L’honneur est sauf pour tout le monde, l’échange d’information est bien du type local, mais ce qui ne l’est pas, est la création et l’annihilation des trous de ver qui eux ne peuvent se concevoir que dans un espace-temps granulaire où celui-ci n’est pas déchiré et où seuls des objets subatomiques ou ayant un comportement quantique peuvent le faire ! Si une mesure en un point quelconque du trajet des particules referme les trous de ver, c’est l’équivalent de la décohérence quantique et assure la position ou la vitesse des particules mais Richard Feynman a montré que la frontière entre classique et quantique ou onde/corpuscule, n’était pas aussi clivée, elle dépendait de l’instrument de mesure et de sa résolution. La propagation classique d’ondes peut se faire à l’aide de la représentation complexe sous formes d’impulsions interférant chacune avec sa propre une longueur d’onde λ. C’est en fait un paquet d’ondes et si on le mesure sur une distance spatiale Δx, nous aurons une incertitude classique sur l’impulsion de ce paquet tel que ΔxΔk = 2pi où k est appelé le nombre d’onde. Ainsi un paquet d’ondes qui se propage sans atténuation peut s’écrire : u = U. ej(ωt). e-jk.d avec k=2pi/λ = ω/vφ  avec vφ  la vitesse de phase liée à une onde du paquet déphasée ou retardée de φ => u = Uejω(t-vφ.d) ou u = Uejω(t-τ) où τ représente le retard du paquet d’onde ou retard de groupe lié au déplacement vis-à-vis du lieu d’émission du paquet ou du signal. La relation entre fréquence de l’onde et résolution modulant la figure d’interférences dans l’expérience d’Heisenberg est : Δp.Δk=h  : c’est exactement cette équation qui a été utilisé plus haut pour déterminer la longueur du trou de ver. Il existe bien une analogie avec la propagation d’une onde classique mais dans sa version quantique, le module au carré du paquet d’onde en représente la probabilité sur sa position spatiale à un instant donné ! Dans le modèle représenté plus haut, le graviton peut être aussi représenté comme la propagation d’une onde associée et alors une mesure engendre les mêmes perturbations sur la figure d’interférences décrite par Feynman en termes de résolution de l’instrument et de la longueur d’onde à ceci près que la résolution étant la longueur elle-même et il sera difficile d’en faire une mesure directe ! Pour étayer une telle théorie unificatrice, il est à noter que nous sommes partis d’une hypothèse quantique qui impose comme contrainte la relativité générale, habituellement, c’est la relativité générale qui impose des contraintes sur la théorie quantique : pas moins de 10^500 Calabi Yau ! Maintenant, il reste encore une fois à passer au crible de l’expérience et à détecter ces fameuses copies quantiques et trous de ver associés qui voyagent de pair avec les particules originales, et comme montré plus haut la contrainte sur la résolution d’un instrument pouvant le faire, est impossible !! Conclusion entre une contrainte qui impose mesure impossible et 10^500 possibilités, que choisir ? Encore une fois, c’est une impasse, mais ce qui ne peut être traité, la non localité ou le fait d’agir sur le passé, peut l’être avec des ondes sonores grâce à la mise en mémoire du paquet d’ondes, c’est assez étonnant à voir sur le site : https://www.youtube.com/watch?v=LoBpGKGhkco Le principe d’incertitude sur la position A= x et la quantité de mouvement B = -ih/2.pi  d’une particule peut également s’exprimer par [A B] ≠ 0. Le terme [A B] est appelé le commutateur en mécanique quantique / [A B] = AB-BA ≠ 0 C’est la non commutativité du monde quantique qu’exprime le principe d’incertitude ! Si l’on cherche à savoir si un photon ou un électron s’est comporté comme une onde ou une particule les dispositifs expérimentaux ne vont pas être les mêmes. La complémentarité énoncée par Niels Bohr est que l’on ne peut utiliser les deux dispositifs ou faire les deux mesures en même temps, un peu comme si la particule savait ce que la mesure voulait lui faire dire : si je passe dans tel dispositif, je dois me comporter comme une onde et si je passe dans l’autre dispositif, je dois me comporter comme un corpuscule…donc si l’on me présente les deux à la fois je ne peux pas répondre ! Cependant, grâce aux inégalités de Cauchy-Schwartz ||∑I²||<= (∑|i|)² ,(soit le module  du carré de la somme est supérieur ou égal à la somme des modules au carré) il a été possible de faire une expérience à choix retardé : on laisse un photon unique passer un dispositif commun aux deux expériences, détection d’une onde ou d’un corpuscule et lorsqu’il a parcouru une distance suffisante pour être sûr qu’il est passé d’un côté ou de l’autre pour être détecter comme une particule, alors on active le deuxième dispositif pour la détection d’une onde et c’est bien ce qui est observé sinon c’est bien le corpuscule qui est détecté, c’est un peu comme si l’on agissait sur le passé comme dans les expériences d’intrications avec la non localité !! Ainsi, inégalités de Cauchy-Schwartz garantissent que le bruit inhérent aux appareillages de mesure ne peuvent être à l’origine de la relation d’incertitude. Par ailleurs, les mêmes inégalités de Cauchy-Schwartz expriment en électronique une limite sur la mesure à la fois du temps d’établissement et de la largeur spectrale d’une impulsion comme : ∆t. ∆f > 1/pi : plus le temps de l’impulsion est court plus la bande passante pour la traiter doit être grande ! Cette limite a également une conséquence fondamentale en électronique, elle concerne le débit binaire maximum qui peut être établi au travers d’un canal de communication, hertzien, câble, fibre optique, le débit s’exprime comme selon la loi de Shannon D = B. ln(1+ S/N) B est la bande passante du canal S l’amplitude du signal et N le bruit comme Noise, c’est le fameux rapport signal sur bruit ! Idéalement, on aimerait faire passer un train binaire de symboles « 1 » ou « 0 » avec un débit maximum, c’est-à-dire émettre à un rythme de 1/T, T étant la largeur temporelle du signal mais si l’on émet un tel train binaire dans un canal, il faut faire des conversions analogique/numérique à l’émission et à la réception et les convertisseurs CNA ou CAN qui traitent le signal sont eux-mêmes limités par leur fréquence d’échantillonnage Fe telle qu’elle est énoncée par le théorème de Shannon, encore lui : Fe >= Fmax/2, Fmax étant la fréquence maximum du spectre du signal, qu’est-ce que le spectre d’un signal ? Pour tout le monde, vous êtes limité par vos organes et vous ne pouvez voir les signaux électromagnétiques que dans une certaine gamme de longueurs d’ondes, de 0.4 à 0.8 µm, vous ne pouvez pas voir les rayons ultraviolets et encore moins les rayons X ou ɤ, pour le son le spectre détecté est entre 20Hz et 20Khz, pour détecter des ultrasons à moins d’être une chauve-souris ou un chien, tintin ! Voici ce qui se passe avec un train d’ondes et la représentation spectrale du signal échantillonné : signal_représentations Nous voyons sur cet exemple qu’à un étalement spatial et temporel du signal dû au canal de transmission, correspond un recouvrement spectral et une distorsion si l’on ne respecte pas Fe >= Fmax/2 Mais quel que soit le canal ou l’appareillage pour émettre ou recevoir les impulsions le débit restera limité par la relation ∆t. ∆f >= 1/pi  ! Des relation E=h.λ et ∆t. ∆f > 1/pi, on établit facilement la relation ΔΕ. Δt ≥  h/2pi En conclusion : particules quantiques ou signal électronique, ont des limites identiques sur la détermination de l’impulsion et la longueur d’onde simultanément, cependant la frontière entre comportement classique et quantique reste à déterminer ! La fonction d’onde de Schrödinger représente une amplitude de probabilité, c’est vérifié par l’expérience mais avant la mesure ou la réduction du paquet d’onde, celle-ci s’étendrait en n’importe quel endroit de l’espace avec des probabilités plus ou moins forte d’être de s’y trouver, plus ou moins mais pas nulle ! La propagation classique d’ondes vue plus haut, était en fait des ondes stationnaires c’est-à-dire une combinaison d’ondes incidentes et d’ondes réfléchies mais à la différence que sur un trajet et temps donné, nous pouvons parfaitement prédire leurs comportement, l’incertitude porte sur la possibilité de les produire en un temps très court devant la bande passante du signal ou son spectre. De plus le rapport entre la longueur d’onde λ et la distance parcourue ou la taille du circuit L intervient également dans le traitement du signal. Ainsi, un signal de longueur d’onde λ>>L peut être considéré comme constant, les lois de Kirchhoff peuvent s’appliquer pour additionner les ondes dans le circuit.

Par exemple pour un signal qui transporte l’électricité de fréquence f=50Hz, la longueur d’onde est λ = c.T avec c la vitesse de la lumière dans le vide (3*10^8 m/s) et T la période = 1/f donc, faites le calcul, λ = 3*10^8*20*10^-3 = 6000kms !

Sur l’échelle d’un pays comme la France, ce n’est pas un problème par contre sur une étendue comme la Russie, entre Moscou et Vladivostok, il va falloir remettre en forme le signal à l’aide de relais si l’on veut que les moteurs électriques fonctionnent correctement !!

Conclusion  : avec un bon appareillage et un traitement approprié on peut toujours se retrouver dans les conditions de systèmes linéaires et causaux, la raison fondamentale est que l’on contraint les particules à le faire, du moins à une échelle macroscopique, lorsque vous allumez un poste de radio ou de télévision, vous êtes quasiment sûr de pouvoir écouter ou regarder vos émissions favorites même si les transistors qu’ils contiennent reposent sur les principes de la mécaniques quantiques avec lesquels on ne peut pas reproduire la même expérience, essayez de le faire avec des ondes de probabilités…

Le problème est de savoir si les mathématiques de la fonction d’onde de Schrödinger est un outil qui reflète la réalité ou si c’est la réalité ?

Il ressort de tout ceci qu’une impulsion ne peut être obtenue en un temps nul, ce qui confirme que le zéro n’existe pas dans la nature, pourtant l’intrication pourrait nous faire croire le contraire. Certes aucune information n’est transmise et dire que la fonction d’onde s’étale dans tout l’espace n’a pas plus de sens. Par contre, si des trous de ver sont bien créés avec les particules fantômes ou copies quantiques, alors c’est bien une information qui est transmise mais il faut une photocopieuse quantique et pousser au maximum la relativité générale, au point de créer des trous de ver, ce miracle n’en est pas un, il résulte de deux théories à l’œuvre : ce sont des temps et des longueurs d’emprunt, mais comme nous l’avons vu, ces deux variables prennent des valeurs beaucoup plus faibles que les longueurs et temps de Planck : avec les fluctuations quantiques, c’est possible : à l’ère du pré Big-Bang, c’est le principe de confinement qui donne aux soubresauts quantiques, l’énergie suffisante pour que l’espace-temps émerge, c’est un univers épigénétique !

Pour un peu plus de clarté voici les deux dispositifs de détection : onde ou corpuscule d’un seul photon et celui à choix retardé

détection_complémentarité

C’est l’expérience imaginée par John Wheeler le train d’onde associé à un photon unique, après le passage sur une première lame semi réfléchissante, on peut faire une mesure sur le détecteur placé en A pour savoir qu’il n’est alors pas passé en B et vice versa.

Il s’est comporté comme un corpuscule, et si l’on recombine les deux trains d’onde avec une autre lame semi réfléchissante, l’on obtient à nouveau la figure d’interférences

Par contre lorsque le choix est établi, c’est-à-dire lorsque le photon est arrivé suffisamment loin dans le dispositif devant sa propre longueur d’onde, il est placé le dispositif à choix retardé avec un système aléatoire quantique donc ne pouvant être reprogrammé à l’identique et alors selon le choix qui est fait de recombiner ou pas, l’on obtient l’expérience avec les deux détecteurs de particule ou celui de la figure d’interférences associée aux ondes. C’est la complémentarité quantique onde/corpuscule !

–        Du principe d’incertitude classique en électronique et de la formule des quanta d’énergie E=h.λ , on retrouve la relation d’incertitude d’Heisenberg

–        Dans l’ouvrage « la conjecture de Goldbach forte et ses conséquences sur la théorie des nombres, les nombres premiers sont représentés par les distributions de DIRAC et il a été déduit comme rappelé au début de cet article l’opérateur  [AB] tel que AB=-BA.

–        Soit AB≠BA, la non commutativité en mécanique quantique !

Voici deux exemples issus de relations classiques, qui combinés à des objets quantiques (quanta d’énergie, distributions de Dirac), redonnent les principes fondamentaux de la mécanique quantique !

Sans pouvoir entrer dans les détails de la formulation d’une nouvelle théorie, celle-ci a pour corrélat, l’énoncé suivant :

L’intrication quantique ou la non localité ne peut s’expliquer que par échange de gravitons au travers de trous de ver du type trou noir extrémal.

Les variables qui entrent en jeu ne peuvent pas être mesurées de manière classique, ce sont les fantômes de la théorie issus de soubresauts quantiques mais c’est le chat de Schrödinger qui court après sa queue. C’est un système bouclé dont on ne peut retirer la boucle, au risque de perdre toute interprétation classique car déboucler, revient à effectuer une réduction du paquet d’ondes.

Cependant une telle liaison entre les deux théories peut être représentée par un tableau de correspondances à compléter avec la QED et le modèle standard des particules :

Tableau_correspondances1

Expérimentalement, tout espoir de trouver des particules correspondantes à la Sussy n’est pas perdu, c’est la détection d’une polarisation, du fond diffus et du reliquat de l’effet mémoire associé à l’ère du pré BIG-BANG.

La théorie complète pourra être développé à partir de ces présupposés théoriques et de l’expérience associée. Sans une confirmation expérimentale, développer une telle théorie restera un jeu mathématique !!

Un jeu mathématique aussi élaboré que celui de la théorie des cordes : ainsi de la conjecture de MALDACENA vue plus haut !

Mais celle-ci a pour contrainte les 10^500 CALABI YAU !!

L’intrication quantique ou IQ a été vérifiée expérimentalement et nous avons vu formellement avec un raisonnement par l’absurde grâce à la théorie des trous noir de Hawking, qu’elle était liée à la relativité générale associée aux trous de ver.

C’est donc sur une théorie quantique des champs ou QED associée aux multivers que viendra la lumière : une seule théorie testable contre 10^500…

Il est à noter que la QED associée aux multivers s’affranchi de toute singularité et des densités d’énergies infinies afférentes donc, plus de problème de renormalisation had hoc et le problème des origines est également résolu avec le principe de confinement !

Ce qui peut être exprimé par la conjecture suivante :

IQ~EPR + QED

 

Des inégalités de Cauchy-Schwartz aux énergies renouvelables :

L’effet photoélectrique exprimé par Albert Einstein, s’écrit : E=h.λ

Si l’on associe E à l’énergie obtenue par une cellule photovoltaïque, alors nous pouvons imaginer deux types de dispositifs :

circuit_parrallèle

Les rectangles représentent les cellules photoélectriques

Les triangles, les amplificateurs optiques

–        Dans la structure série, ce sont des tensions (V) qui sont ajoutées

–        Dans la structure parallèle, ce sont des courants (I)

Les cellules photovoltaïques ont un rendement médiocre (<= 30%) comparé à ce qui se fait dans la nature avec la photosynthèse pour laquelle un rendement de 100% est obtenu !

Dans le montage série, si nous plaçons en début de chaîne un amplificateur avec un facteur de bruit faible, ce sera le même pour le facteur de bruit total. C’est donc cette structure qui sera à retenir mais l’on ajoute des volts, par contre dans la structure parallèle, ce sont des intensités.

En général on réalise un mixte des deux pour obtenir une puissance avec une tension voulue mais l’on peut imaginer de mixer ces montages autrement :

On réinjecte le courant de la structure parallèle sur les amplis de la structure série, il convient de mesurer alors si le rendement de l’ensemble est amélioré. C’est un travail de laboratoire à mener en fonction des caractéristiques des cellules, des amplis et du nombres de ces éléments pour la structure globale, le meilleur rendement sera alors retenu !

Expérience de pensée et relativité restreinte :

Si j’imagine que je ralentis mon temps propre à l’extrême, à la limite de l’arrêt, alors je devrais voir mon environnement proche se déplacer à une vitesse infinie, en considérant deux repères galiléens : celui de mon temps propre et celui de mon environnement proche mais vous voyez tout de suite l’erreur de raisonnement car rien ne peut excéder la vitesse de la lumière. Cependant poursuivons comme si nous l’ignorions, cela pourrait se traduire par les relations mathématiques naïves suivantes :

X’ = Xₒ-v.t <=>  ∆X=-v.t avec ∆X évolutions des repères selon un axe horizontal, t étant mon temps propre qui tend vers 0 et v la vitesse apparente de mon environnement proche.

Ce qui donne quand t ->0 : lim ∆X = -v.t et lim-v =∆X/t = ∞ (c.q.f.d.)

C’est aussi ce qui arriverait si je tombais dans un trou noir géant. Mon environnement fuyant avec une vitesse apparente infinie pourrait aussi bien dire que je verrais la fin des temps.

Donc à t = 0, je vois t = ∞, c’est une façon d’appréhender l’alpha et l’oméga.

En dehors de toute considération religieuse, c’est une preuve de plus en faveur de la non existence du zéro dans la nature et confirme l’existence d’une vitesse limite que Albert Einstein avait identifiée à celle de la lumière !

Cependant, en relativité générale le zéro est identifié à la singularité originelle où la densité d’énergie était infinie et c’est ce qui interdit tout rapprochement avec la mécanique quantique qui seule peut décrire cet infiniment petit.

Si la singularité ne peut exister dans la nature, elle ne peut être une solution des équations de la relativité générale :

D’où la RG est non seulement incompatible aux échelles subatomiques mais elle est fausse donc incomplète !

RG => singularité nue du trou noir d’où non singularité nue => RG fausse ou incomplète. Ceci implique le résultat suivant : RG => RG fausse ou incomplète !

Il ne peut rester que RG incomplète et c’est le premier théorème de Gödel qui réapparaît : il y aura toujours une proposition indémontrable dans cette théorie, autrement dit, la RG ne peut être insérée dans une théorie qui l’unit à la mécanique quantique et ceci est un théorème !

Par contre, comme il est suggéré avec le principe de confinement, cette union devient possible dans la théorie du multivers où l’espace-temps émerge d’une fluctuation quantique : c’est peut-être le côté sombre ou la matière noire qui est ainsi indétectable dans un univers bulle !

Dans le livre « la conjecture de Goldbach forte et ses conséquences sur la théorie des nombres », nous avons assimilés les nombres premiers à une représentation spectrale : la distribution de DIRAC dont la transformée de Fourier est un nombre entier.

Ainsi, en utilisant les propriétés de linéarité de la transformée, nous avons pu à partir de l’ensemble Cp construire dans ℂ des fonctions analytiques comme sin(z) et en déduire une forme discrète : 0<d<ln(I) qd I->∞ de la formule de Boltzmann S = k.ln(W).

Ce qui dans la nature s’apparente aux nombres premiers, ce sont les q-Numbers de DIRAC.

–         La non commutativité associée à ces nombres s’exprime en termes d’opérateurs auto adjoints dans l’espace de HILBERT

–        Celles des nombres premiers liés aux complémentaires premiers Cp est-elle, associée à l’espace topologique U

Il s’établit une équivalence entre la non commutativité et les nombres premiers.

En partant des observables et en remontant le temps jusqu’à ce que l’on nomme la singularité initiale, nous n’obtenons pas une densité d’énergie infinie mais une distribution de Dirac qui rend géométriquement équivalent l’espace-temps avec l’ensemble topologique U des nombres premiers.

C’est cette équivalence qui démontre l’existence d’une liaison formelle entre la relativité générale et la mécanique quantique !

Une autre expérience de pensée, est celle d’Albert Einstein :

Celui-ci s’imaginait chevaucher un rayon de lumière et lui appliquer la composition des vitesses, il imagine voir son image dans un miroir et les vitesses s’additionnant, cela revient à ne pas pouvoir se regarder, l’image fuit plus vite que son reflet et il ne peut jamais se voir !

C’est une autre façon de déterminer un mouvement dans un référentiel fixe, associé à l’époque à l’éther luminifère mais c’est en contradiction avec la relativité galiléenne qui postule que l’on ne peut déterminer son propre mouvement dans référentiel inertiel, car la vitesse de la lumière est une constante dans les équations de Maxwell.

C’est ce qui a été observé avec l’interféromètre de Michelson et Morley où l’on ne perçoit aucun déphasage dû à la composition des vitesses, l’explication étant que le temps et la longueur étaient modifiés dans le sens du déplacement d’un facteur 1/√1-(vₒ/c) ²

Quand vₒ<<c on ne s’aperçoit de rien mais dès que la vitesse n’est plus négligeable devant celle de la lumière, il faut tenir compte de cet effet relativiste !

C’est le cas des particules qui entrent dans l’atmosphère terrestre et dont la durée de vie fait que l’on ne devrait pas les détecter au sol mais c’est sans compter sur la dilatation de leur temps propre qui n’est plus négligeable au regard de la vitesse de la lumière !

La relativité générale ne fait qu’étendre ce concept aux mouvements accélérés, c’est le fameux principe d’équivalence, là ce n’est plus seulement le temps et les distances qui sont déformés mais c’est l’espace-temps lui-même, résultat de la gravitation due à un objet qui lui imprime une courbure !

Le principe de moindre action permet de retrouver les équations de la relativité générale mais c’est également ce principe qui permet une réécriture de la mécanique quantique.

Mais ce principe procède-t-il d’un invariant en partant de ces deux théories concurrentes ?

L’invariance fait appel à un groupe de symétrie SO(3) pour un opérateur donné, ainsi un point sur la sphère garde les mêmes coordonnées dans le plan Oxyz par rotation d’un angle θ autour de l’axe Oz par transformation matricielle de celles-ci :

opérateur de rotation

L’invariance en relativité générale est associée au principe d’équivalence, si l’on associe une matrice de passage entre les tenseurs de Ricci et le groupe de symétrie SO(3), c’est cette matrice qui unifiera les théories les de jauge des particules élémentaires et la gravitation générale.

Si Leibniz fût caricaturé par Voltaire dans son candide en la personne de Panglos c’est que nous touchons là un principe unificateur de l’action en physique donc proche d’une vision mystique à défaut d’équation du tout !

Ce principe de minimisation de l’action correspond en relativité générale au calcul des géodésiques de l’espace-temps, c’est le quadri vecteur :

quadri vecteur
Ce qui peut se représenter, en appelant PMA, le principe de moindre action
RG la relativité générale et MQ la mécanique quantique :

principe-moindre-action

Mais si un invariant commun existe à partie du principe de moindre action, il entre en contradiction avec la variabilité intrinsèque de la mécanique quantique où l’on ne peut reproduire la même expérience, contrairement à ce qui se passe en relativité générale.

Cependant, dans l’hypothèse du multivers, il est tout aussi contradictoire de reproduire deux univers identiques. Par ailleurs, un photon est bien dévié ou interagit avec l’espace-temps de la relativité générale, il obéit à ses lois. C’est la loi qui est invariante, pas les objets auxquels elle s’applique. Ainsi, un arsenal législatif est le même pour tous les sujets mais en tant qu’individus, ils ne sont pas pour autant les mêmes, en conclusion, la loi n’est pas tout, elle est consubstantielle à un univers donné, quitte à décevoir les platoniciens !

Si le photon a une trajectoire, c’est l’équivalent d’une mesure où l’effet quantique disparaît.

Donc il ne peut y avoir un invariant commun et la boucle de retour vers le PMA du schéma n’a pu exister qu’à l’ère du pré BIG BANG. Recréer ces conditions hic et nunc, est tout simplement impossible, mais en reste-t-il des traces comme évoqué plus haut avec une polarisation du fond diffus cosmologique. Le détecter, c’est à la fois émettre et vérifier l’hypothèse du multivers, matière noire et énergie sombre, enfin dévoilées !

Pas si vite, hypothèses et observations cohérentes ne signifie pas que nous décrivions la réalité, il en est de même avec les expériences sur la non localité quantique et la description de la fonction d’ondes de Schrödinger, idem de la gravitation quantique à boucles, allez donc observer un quantum d’espace-temps !

Au regard de la méthode réductionniste, la critique d’Albert Camus, faite à la science de ne jamais atteindre le dernier fondement, semble légitime. Pour les platoniciens, au début était le verbe ou le théorème de Pythagore !

C’est vrai pour un univers plat où la somme des angles du triangle fait 180° mais dans l’optique du multivers, les lois peuvent être différentes d’un univers à l’autre ainsi que le langage pour les décrire. Si Champollion n’avait pas associé les hiéroglyphes à un langage encore parlé par les coptes, l’égyptologie n’aurait peut-être pas encore émergé !

L’approche structuraliste de la réalité est la dernière marche de la connaissance au-delà, c’est le règne de l’indicible ou de la métaphysique, le signifié ou réalité se dérobe toujours, l’imagination peut s’en approcher mais la métaphore, le mythe reviennent toujours s’en emparer, ce qui n’enlève rien à la démarche scientifique mais aller de l’autre côté du miroir est un conte pour enfant ou le non-conscient, faut-il dire l’inconscient s’exprime avec son propre langage signifiant, en linguistique, c’est le rapport du Signifiant sur le signifié qui produit le signe :

Signifiant-Signifié

Malheureusement, il n’existe pas de pierre de rosette pour décrypter la nature : les mathématiques ne sont pas aussi découplés de la physique que ne l’est le rêve du rêveur. Ils ne sont pas clivés par la barre du rapport car ils ne produisent aucun signe directement interprétable, ils sont dans une dialectique historique, le cerveau ne sécrète pas la pensée comme le foie la bile même si certaines tribus des Vanuatu (dites primitives) dessinent dans le sable des arabesques géométriques sans passer par la règle mathématique sous-jacente des graphes eulériens.

Vanuatu 101

Le cerveau lui-même n’est-il pas structuré par l’évolution ? ce n’est pas un monolithe qui a transmis les nombres aux êtres vivants, c’est un conte aussi fascinant que celui d’Alice au pays des merveilles mais jusqu’à présent, aucune trace d’ET… la traversée du miroir ou le franchissement de la barre ne sont pas de simples processus naturels et celui qui le pense est un sot, fût-il quantique !

Démonstration des relations des lois de Snell Descartes avec le principe de moindre action :

lois-snell-descartes

La vitesse de propagation d’un rayon lumineux dans le milieu 1 est différente de celle du milieu 2. Pour aller de I en I’ les vitesses dans 1 et 2 doivent minimiser le temps de parcours, ainsi le rayon suivra le trajet le plus rapide dans chaque milieu ce qui peut se traduire par ∂II’/∂θ = 0, soit en prenant les projections des vecteurs IO et OI’ sur la normale N qui définit les angles de réfraction : ||IO||∂cos(i₁) /∂θ = ||OI’||∂cos(i₂) /∂θ => ||IO|| sin(i₁) = ||OI’|| sin(i₂) eq1.

Les distances parcourues selon les vecteurs peuvent s’exprimer à l’aide de la relation x = vt.

V dépend de la vitesse de la lumière dans le rapport vg/c, vg étant la vitesse de groupe du rayon lumineux, donc x = vg.t/c le terme t s’annule de part et d’autre de eq1 et il vient :

v₁g/c sin(i₁) = v₂g/c sin(i₂). Comme le rapport des vitesses est un nombre sans dimension, une constante du milieu, la formule devient n₁ sin(i₁) = n₂ sin(i₂).

C’est l’optique géométrique classique issue du principe de Fermat et si vous passez d’un milieu plus réfringent à un milieu moins réfringent vous obtenez un angle limite iL pour lequel i₂ = 90° et au-delà duquel c’est la réflexion totale obtenue avec des fibres optiques (avec ou sans gradient d’indice) ou des fontaines lumineuses.

Avec Leibniz, un calcul intégral est réalisé pour trouver le chemin le plus court pour aller d’un point A à un point B. la solution de ce calcul est une cycloïde, résolu par le principe de Fermat !

C’est donc une courbe, or ce qui a été calculé avec eq1 est une vitesse de groupe qui ne peut se comprendre qu’à la lumière de la nature ondulatoire d’une onde qui se propage.

Feynman retrouve ce principe avec ses diagrammes pour la superposition des états quantiques d’une particule, c’est la moyenne lissée de tous les parcours possibles ou comment dans l’expérience des fentes une seule particule peut produire sur l’écran une figure d’interférences semblable à la propagation d’une onde ?

Cependant Dirac réfutait l’idée de trajectoire en mécanique quantique, tandis que Feynman les envisageait toutes avec une probabilité attribuée à chacune d’elles. Ce que Schrödinger traduisit avec sa fonction d’onde.

éq-Schrödinger

Nous en revenons au problème de l’interprétation : la nature se comporte-t-elle ainsi ?
Cependant la causalité implique un début qui ne peut être représenté par l’échelon Heaviside car il faudrait un spectre infini pour le traiter et donc d’après le théorème de Parseval, une énergie infinie soit : E =

formule-parseval

Une telle énergie n’existe pas, ce qui confirme une fois de plus l’absence d’un temps zéro remplacé par la période inflationnaire du BIG-BANG.
Si l’on dilate l’énergie colossale de 10^19Gev au temps de Planck d’un facteur 10^500, le spectre associé est augmenté du même facteur d’échelle, c’est une dilution énergétique dont il subsiste un bain thermique ou rayonnement fossile à 3°Kelvins isotrope mais non homogène, sinon nous ne pourrions l’observer !
Pas de temps zéro, donc pas de densité d’énergie infinie, en se dilatant, l’univers devient causal et prédictif, il reste le problème des trous noirs, on peut les caractériser : moment cinétique, masse, charge mais on ne peut savoir par définition ce qu’ils contiennent par-delà leur horizon.
C’est une limite à la connaissance, un angle mort qu’exprime le principe de confinement :
S(P) = S(Pₒ)*(1-e⎺S _k^((P))). Entre un univers cyclique à information nulle et un univers bulle dont on ne peut connaître l’origine, il y a une incompatibilité d’échelles qu’aucune loi ne peut circonscrire, c’est une nouvelle quadrature du cercle, on pourra toujours affiner les décimales de PI, il reste transcendant. Le rayon de l’univers observable lui, est limité à 13.7 milliards d’années lumières et des poussières…d’étoiles. Toutes les théories unificatrices avec un temps émergeant ou non, se heurtent au minimum d’action ou quantum : w = h.λ h dans un univers donné dépendant également de la constante Boltzmann afférente Ki !

Pas de temps zéro implique un univers transcendant, mais les lois le sont-elles ?

C’est une question de croyance, voire de religion, dans tous les cas, elles sont immanentes à un univers transcendant mais seraient-elles complètement différentes d’un univers à l’autre ?

Le nôtre semble plat et la somme des angles d’un triangle est égale à 180°, dans un univers courbe, le théorème de Pythagore existerait-il ?

La platitude est due à la formidable expansion des origines mais localement, il peut se courber et la géométrie euclidienne devient inopérante : le chemin le plus court pour aller d’un point A à un point B n’est pas la ligne droite mais une géodésique et mutatis mutandis, les équations ne sont pas les mêmes. Pire encore à une échelle telle que λ<<L, c’est la causalité qui est remise en cause !

En fait, il s’agit seulement d’ajuster des constantes, les lois restent les mêmes si l’on peut exprimer k et h dans un rapport déterminé fonction de l’entropie du système qui devient supérieure à zéro donc de sa température et transitions de phases associées. Lors de ces transitions, les phénomènes de surfusion apparaissent et c’est la complexité qui émerge !

Ainsi, si vous rejouez le même scénario, il y a une chance infime mais non nulle de reproduire les mêmes évènements. Ainsi, celui qui mélange  les constituants ou briques élémentaires de la vie ou de n’importe quelle création a peu de chance de les reproduire : quelle est l’origine d’homo sapiens, dans quelle couche sédimentaire peut-on la dater, quelle est la valeur de la constante cosmologique qui a permis la nucléosynthèse ?

Effet Doppler :

Il est utilisé dans pour la mesure de vitesses, comme la récession des galaxies avec un détecteur infrarouge ou plus terre à terre celle des véhicules automobiles, je pense que tout le monde l’a expérimenté à l’approche d’un bolide ou lorsque celui-ci s’éloigne ou encore lorsque vous avez dépassé la vitesse réglementaire !

Ce qui est en jeu est la fréquence dans la formule, x = v.t ou x = . Soit une onde de fréquence f qui se propage à la vitesse de la lumière c, elle se réfléchit avec une fréquence f’ sur un objet qui se déplace par rapport à elle à une vitesse v, nous allons pour simplifier composer cette vitesse avec celle de la lumière de sorte que :

effet doppler

Dans l’expression du principe de confinement, on peut associer S(Eₒ) à une température, c’est l’équivalent d’une énergie et l’on peut, pour une température Tₒ donnée, en normalisant Eₒ à Tₒ, écrire

principe-confinement

Soit pour un élément particulier de la nucléosynthèse E = hf d’où :

élt-nucléosynthèse

L’indice représente celui d’un univers particulier. En régime établi après la nucléosynthèse on peut établir le rapport suivant si tant est que ces lois ont un sens dans la théorie du multivers :

rapport des constantes2

Les constantes h et k sont bien dans un rapport donné fonction de l’entropie des univers et d’un effet Doppler donné. Si l’on intègre l’équation 1 en fonction de la température, nous n’obtiendrons plus une constante mais un rapport fonction d’une température initiale pour chaque univers. En effet les bornes d’intégration vont d’une température initiale comme la température de Planck (pour le nôtre) à celle d’une température nulle à mesure que l’univers se dilate, nous en sommes en moyenne à 3°Kelvins.

En dé-normalisant l’équation 1 et en associant

formule1

au coefficient d’absorption α(f) fonction de la fréquence à une température donné, ce coefficient reproduit la distribution gaussienne de Maxwell-Boltzmann,

formule2

Avec :

formule3

d’où pour une onde lumineuse de vitesse initiale Vₒ se propageant dans un tel milieu de coefficient α(f), qui subit l’effet Doppler suivant correspond un étalement de la vitesse centrale Vₒ telle que Vd ≈ Vₒ (1+ α(f)) => ΔVd/ Vₒ ≈

formule4

et comme il s’agit de la demi largeur Doppler, en supposant que la valeur moyenne des vitesses moléculaires due à l’agitation thermique est nulle, ce que nous obtenons est une variance (à une constante en 1/√2pi près) mais ce qui est mesuré est un demi écart-type, soit,

formule5

D’où la formule :

écart-type

Ce qui peut être écrit comme ΔVd/ Vₒ =

formule6

Avec Vd, la vitesse avec l’effet Doppler et kB la constante de Boltzmann.

Ainsi nous avons une formule qui fait intervenir le rapport  kB/h avec la mesure expérimentale (voir Figure 1 ci-dessous) d’une température T et  mc²/h qui est homogène à une fréquence.

mesure expérimentale de kB

Figure 1 – Schéma de principe de l’expérience. La distribution des vitesses des molécules du gaz est donnée à l’équilibre thermodynamique par la distribution de Maxwell-Boltzmann. Une molécule du gaz, en mouvement à la vitesse par rapport au laboratoire, va « voir » la fréquence de l’onde laser décalée de V.Vz/c, où Vz est la  composante de v suivant l’axe de propagation de la lumière.

La distribution des vitesses suivant l’axe du faisceau laser est une gaussienne à laquelle correspond une forme gaussienne de la raie d’absorption.

Il s’agit là de la dernière expérience d’une mesure de la constante de Boltzmann effectuée d’après une idée de Ch. J. Bordé en 2000.

Ainsi un décalage des longueurs d’ondes dû à l’effet Doppler permet de calculer la distance D qui nous dépare d’une galaxie. Si l’on pose z = Δλ/λ, ce décalage par exemple de raie hydrogène à 500nm et une mesure à 502nm, donne z = 0.004, soit un facteur d’échelle ẟ = z˗₁ et si l’on s’en tient à la constante de Hubble Hₒ, alors   D.

La galaxie GN-z11 est, en ce moment, la galaxie connue pour laquelle le décalage est le plus grand. Dans ce cas, on a z= 11,09, ce qui signifie que δ = 12,09. Cela veut dire que la lumière qu’on reçoit aujourd’hui a été émise quand le facteur d’échelle était de 1/12,09 = 0,0827. La distance entre les galaxies était donc 12,09 fois plus petite qu’en ce moment. C’était un univers beaucoup plus compact qu’en ce moment.

C’est donc une formule générale dont les contraintes sont les températures initiales et les effets Doppler dus aux pressions relativistes exercées d’un univers sur l’autre. Il y manque les effets de relativité générales dus aux BIG BANG initiaux issus des espaces de confinements. Ces effets ne seraient autres que la traduction du 3ème principe de NEWTON appliquée au multivers, un enchaînement causal que nous observerions localement comme une expansion d’un univers plat mais dont les anomalies du rayonnement fossile traduiraient,  une infinité d’univers issus de soubresauts quantiques ou d’univers bulles…

Nouvelle image du rayonnement fossile prise par le satellite PLANCK.

fond-diffus2

Asymétrie soulignée par le trait en S qui serait le signe de la théorie de l’inflation éternelle de Linde.

Est-ce la polarisation du fond diffus cosmologique responsable de l’effet mémoire à l’ère du pré BIG-BANG ?

Constante cosmologique :

Sa valeur mesurée actuelle en fonction de Hₒ est Ʌₒ/3Hₒ² = 0,72 ± 0,05.

La longueur de Planck (Lp) est 10^60 fois plus petite celle associée à Ʌ, c.a.d. au rayon de l’univers observable αE avec une densité de matière ρ où Ʌ= 4πGN ρ or ces deux ordres de grandeur (αE et Lp) ne peuvent s’expliquer à partir de la seule théorie de la relativité générale d’Einstein en tenant compte de l’expansion de l’univers décrite par Thomas Lemaître, il est nécessaire d’y introduire l’équation d’état qui relie la pression à la densité d’énergie :  P = -ρ (densité d’énergie du vide). La constante cosmologique mesurée doit donc tenir compte de celle du vide quantique et on peut alors l’exprimer par : Ʌmes = ɅE + ɅQ.

Avec l’ordre de grandeur Lp /αE, nous devrions retrouver ɅE + ɅQ ≃ 10−60ɅQ.

Ce qui représente une quasi annulation incompatible avec une expansion accélérée bien avant la formation des galaxies où P = -ρ ne serait plus valable !

Par contre, dans l’hypothèse du multivers P/ρ resterait constant depuis le BIG-BANG grâce au surplus d’énergie ou pression engendrée par le processus d’annihilation univers/anti-univers. Si les constantes cosmologiques semblent si bien ajustées qu’elles aient permis l’apparition des galaxies avec un processus d’annulation de ɅE, ce n’est pas le principe anthropique qui en est l’explication mais bien une théorie élargie de la relativité générale à celle du multivers, qui rejette définitivement ce principe !

Du point de vue des mesures effectuées en 1916 pour confirmer la relativité générale expliquant la précession de l’orbite de mercure, la valeur de la constante cosmologique ne pose pas de problème mais à l’échelle de 13,7 milliards d’années lumières, cela reste à confirmer, d’autant plus que l’expansion de l’univers tend à s’accélérer !

La Sussy était censée rendre compte d’une telle annulation mais pas au regard de l’échelle cosmologique…

Il conviendrait d’ici quelque temps ? de mesurer à nouveau l’effet Doppler sur La galaxie GN-z11 située à ≈ 1000 Mpc…(1parsec= 3,2616 années-lumière ) pour vérifier si P = -ρ reste valable et confirmer ainsi les théories coperniciennes d’un univers inflationnaire plat composé à 80% de matière noire ne représentant que 30% de la densité d’énergie ρ, les 70%venant de la contribution de la constante cosmologique Ʌ.

Le V.L.T. situé dans le désert d’Atacama au chili permettrait de confirmer une mesure telle que le décalage vers le rouge observé actuellement de 11.09 soit dans un temps t tel que δ’ = 11.001 soit : δ=Hₒ.D/c = avec v=HₒD et D = 1000Mp. Ce qui nous donne le temps t= D/V. δ/ δ’. Soit Ʌₒ/3Hₒ² = 0,72± 0,05, Hₒ = 70 km/s/Mpc. =>

t_mesure

Ce qui donne en supposant que le rapport des facteurs d’échelle n’est évolué que de 10^-10, un temps :

T = 10^10/70 ≈ 4.5 ans.

Donc avec les hypothèses du multivers : une expansion accélérée depuis le BIG-BANG avec la géométrie euclidienne (P = -ρ) du système copernicien, nous pouvons avec une évolution du décalage vers le rouge arbitraire telle qu’estimée plus haut de la galaxie GN-z11, prévoir de pointer Le V.L.T. d’ici cinq ans pour en avoir la confirmation.

Ce pourrait être une campagne de mesure étalée sur plusieurs années au terme de laquelle la théorie de la relativité générale serait validée aux échelles cosmologiques, l’univers conserverait une courbure nulle malgré et à cause d’univers bulles, champagne !

Effectivement, cela ne remettrait pas forcément en cause les anciennes théories sur l’inflation et leurs constantes afférentes comme le rapport à 3°kelvins de :

rapport des constantes3

Ceci pourrait donner lieu à une nouvelle théorie qui les inclurait comme le multivers tel que suggéré dans le livre : « la conjecture de Goldbach forte et ses conséquences sur la théorie des nombres » :

Or la différence entre est d’un ordre ⁺62 en faveur de l’univers observable compensé de matière noire et énergie sombre : il en manque toujours !

Il est à noter que le gap ainsi trouvé se situe en deçà du temps de Planck, c’est bien la seule information qui est remontée.

Il faut croire qu’à l’instar de l’antimatière un anti univers ait exercé sur le nôtre une pression avant de s’annihiler laissant un surplus d’énergie rescapée … l’hypothèse du multivers peut alors être envisagée !!

Il est à noter que dans tous les calculs qui précèdent, seule la distance observable a été prise en compte. L’univers n’avait alors que 13.7 milliards d’années. Cependant l’inflation a eu une phase d’expansion plus rapide que la vitesse de la lumière, celle-ci ne nous est pas encore parvenue. Le rayon de l’univers serait de 45.6 milliards d’années lumières.

Selon la relativité générale, la distance comobile est une de distance de diamètre angulaire, da apparente à un radian où à l’instar du temps propre des repères inertiels, les distances sont calculées avec les transformations de Lorentz. Ici on calcule une distance de mouvement propre en coordonnées comobile estimée avec le Redshift z telle que da = dpm / (1 + z) donc avec les constantes cosmologiques Ʌ et Hₒ du modèle standard pour une densité de matière Ωm = ρ, dpm est appelé distance de mouvement propre.

Selon la courbure de l’univers, les distances propres et comobile sont différentes en raison de l’équation d’état et de la densité de matière estimée ρ, de la constante cosmologique Ʌ, mais si la courbure est nulle, distance propre et angulaire sont égales !

Mais comment le rayon d’une telle sphère d’un univers géo centrée a-t-elle pu être calculée ?

L’univers ayant subi une expansion d’un ordre 10^50 au temps de Planck, cela fait une vitesse de Lp.10^50 /tp = 10^58m/s>>c= 10^8m/s ! ceci veut dire que l’univers s’est dilaté beaucoup plus vite que la vitesse de la lumière, celle que nous percevons a été émise lorsque nous étions à 13.7 années lumières, le calcul a pu être mené avec la théorie du modèle cosmologique standard en fonction de sa densité de matière estimée, de l’effet Doppler et des constantes Ʌ et Hₒ.

Cependant, c’est un calcul imprécis compte tenu de l’expansion accélérée de l’univers observable, surtout que la causalité n’était plus respectée, cependant, il peut être corrigé avec les anomalies du fond diffus cosmologique et notamment le Redshift calculé à partir de celles-ci.

En fait c’est une distance dans un rapport inverse de Hₒ, elle-même estimée lorsque l’expansion ralenti, le temps qu’il faut à la lumière pour rattraper la cause qui lui a donné naissance, la causalité est rétablie. Nous sortons de l’ombre mais dès que l’expansion reprend, nous y retournons, seul le Redshift nous permet de savoir et si l’univers cosmologique est plat, rendez-vous au VLT !

VLT

 

 

 

L’avenir d’une illusion :

Il existe plusieurs scénarios sur l’avenir de l’univers, ils dépendent tous de sa courbure :

–        1) Courbure spatiale nulle

–        2) Courbure spatiale positive

–        3) Courbure spatiale négative

Le premier cas est celui est celui de la géométrie euclidienne où s’applique le théorème de Pythagore, la somme des angles du triangle est égale à 180° : c’est un univers plat !

Dans le deuxième, cette somme est supérieure à 180°, c’est la géométrie de la sphère en 3 dimensions : c’est un univers fermé !

Enfin avec une courbure négative, c’est une géométrie hyperbolique où la somme des angles du triangle est inférieure à 180° : c’est un univers ouvert !

Tout ceci peut être formalisé à partir des équations de Friedmann-Lemaître :

équations de friedman-lemaître

H est la constante de Hubble, K décrit la courbure de l’espace-temps et a est le facteur d’échelle déjà vu avec l’effet Doppler ou Redshift.

Pour résumer l’univers peut être en expansion accélérée et finir par une mort thermique de type BIG CHILL où il ne restera plus rien après l’évaporation des trous noirs ou bien avec l’expansion d’un univers plat et c’est le scénario de l’inflation éternelle de LINDE qui dépend essentiellement de la densité de matière ρ difficile à déterminer avec l’énergie sombre et la matière noire censées en rendre compte.

C’est l’alternative de la théorie du multivers où nous aurions gagné à la grande loterie cosmique :

Et le résultat est : nous n’en savons rien !!

Sauf :

Si l’on reprend l’hypothèse du principe de confinement où :

principe-confinement

Il convient de noter que la température T de la formule dépend évidemment du temps, il faudrait l’écrire T(t).

Si l’univers de Sitter-Einstein en expansion donne pour solution qd t -> ∞ T≈0 et E = 0, cela correspond à une mort thermique. Nous serions donc passé d’une entropie nulle à un épisode inflationnaire avec un accroissement d’entropie et retour à une entropie nulle. Dans cette hypothèse, l’énergie n’est pas conservée : non conservation du premier principe de la thermodynamique et entropie qui diminue pour arriver à l’équilibre thermodynamique du BIG-CHILL, cette hypothèse peut donc être éliminée, sauf entre les amas de galaxies où règnent les conditions extrêmes du vide !

Il ne reste plus guère qu’un seul type d’évolution possible : l’univers plat où l’on peut mesurer en tout point de l’espace-temps, un rayonnement isotrope tel que la loi de Planck permet de mesurer le tenseur d’énergie :

tenseur d'énergie du rayonnement

Et son quadrivecteur flux d’entropie :

flux d'entropie

Mais comment ce rayonnement est-il compatible avec le Redshift observé ?

La condition géométrique en est que le tenseur et son flux ont chacun une divergence riemannienne nulle, or si c’était le cas, ce rayonnement n’aurait ni échange d’énergie, d’impulsion ou d’entropie avec la matière, ce serait comparable à un équilibre thermodynamique incompatible avec l’expansion !

Pourtant les raies spectrales des différents éléments sont la preuve que l’univers n’est pas vide, il l’est seulement presque partout !

Dans l’attente de confirmation de l’univers plat à l’échelle cosmologique par le VLT, nous pouvons conclure que matière noire et énergie sombre n’existent pas et ne peuvent expliquer l’accélération de l’expansion de l’univers, celle-ci serait le reliquat d’une pression fantôme et la confirmation du multivers, il restera encore une énigme : l’intérieur des hachoirs cosmiques, inutile d’y mettre une sonde même quantique, l’information ne serait restituée par rayonnement de Hawking que bien après l’univers qui les contient !

La matière observée ne semble pas se comporter comme elle devrait le faire : les étoiles au sein de la galaxie devraient s’en échapper de même que les galaxies dans leurs amas. Mais ce n’est manifestement pas ce qui se passe ! comme la nature ne se comporte pas selon les prédictions, alors c’est qu’il doit exister de la matière invisible ou de l’énergie sombre qui compensent l’observation. C’est un peu le retour du phlogistique

Est-ce réellement un problème insoluble ?

Un trou noir résulte de l’effondrement gravitationnel d’une étoile lorsque celle-ci a brûlé tout son carburant, l’hydrogène, et que l’énergie ainsi rayonnée ne peut plus compenser la force gravitationnelle. Un équilibre a été rompu, c’est celui du corps noir, étonnant pour un astre !

Mais il y a pire, c’est la coalescence de deux trous noirs enregistrée en 2016 par interférométrie du détecteur LIGO : une onde gravitationnelle s’est propagée, engendrant un plissement de l’espace-temps, mais aucun rayonnement n’a été produit ! or lorsque ces monstres cosmiques absorbent des étoiles, celles-ci avant de sombrer engendrent par frottement un rayonnement, c’est leur chant du cygne qui peut se produire dans n’importe quelle constellation puisqu’il semble établi que chaque galaxie comporte de tels compagnons.

Il y a plus les quasars, sorte de phares astronomiques visibles depuis n’importe quel endroit de l’univers referment des trous noirs au voisinage desquels la température peut être assimilée à celle du quasar. Là où existe un rayonnement intense se cache vraisemblablement à proximité un trou noir géant !

Pour en revenir à ce qui nous occupe le vide presque partout responsable du rayonnement isotrope et de l’expansion de l’univers peut-il compenser globalement l’anisotropie du fond diffus cosmologique ? en effet, c’est une question de temps entre l’ère du plasma où il n’existe que des fluctuations quantiques et la période inflationnaires où l’isotropie ne s’explique qu’en moyenne par la mesure du Red Shift calculé avec l’expansion des équations de la relativité générale. Il y a ici une confusion entre le temps et la flèche du temps de l’entropie du second principe de la thermodynamique. Entre temps, l’univers est passé de l’ombre à la lumière.

Puisque les trous noirs n’ont pas le temps de restituer sous forme de rayonnement Hawking tout ce qu’ils avalent, il doit nécessairement exister un tel mécanisme de compensation cosmique !

C’est encore l’univers plat qui sauve la mise à l’échelle cosmologique l’intérieur d’un trou noir ne peut être une singularité de densité infinie, même si une longueur peut être inférieure à celle de Planck, elle ne sera jamais égale à zéro, ne serait-ce que dans n’importe quel système ou métrique, il faudrait mesurer avec une incertitude nulle ce qui est incompatible le principe même d’incertitude, raisonnement tautologique ou question fondée ?

Elle est fondée car énoncée en ces termes : ΔΕ . Δt ≥  h/2.pi,  ce principe admettrait alors comme solution une énergie infinie, ce qui nous ramène au débat sur la courbure de l’univers !

Donc si l’espace-temps est granulaire, le grain peut bien tendre vers zéro mais c’est une question de convergence, pour voir à l’échelle macroscopique la période des objets de la mécanique ondulatoire énoncée par louis de Broglie, il faudrait une résolution ou longueur d’onde λ telle que par rapport à la taille L des objets que nous n’y verrions qu’un continuum de grains indistinguables. Cela sauve la relativité générale et le continuum espace-temps.

D’ailleurs le trou noir électronique calculé avec le rayon de Schwarzschild est bien inférieur la longueur de Planck ! le seul problème et non des moindres est qu’il devrait être super-extrémal donc supersymétrique, ce qui est incompatible avec la relativité générale. Par contre, il serait instable comme évoqué dans la non localité des particules intriquées. Les seules théories capables de l’expliquer, intègrent toutes la Sussy et le graviton comme la théorie des cordes ou la gravité quantique à boucles et donc des dimensions invisibles ou cachées de telle sorte que nos trois dimensions spatiales ne seraient qu’une illusion d’une réalité sous-jacente plus fondamentale comme celle du multivers !

Si tel est le cas, pourquoi les trous noirs ne déboucheraient pas sur des univers parallèles ?

C’est peut-être le cas mais pas dans le nôtre car il impliquerait une déchirure de l’espace-temps catastrophique !

Avant de trancher sur la réalité ou l’illusion de celle-ci, il doit rebondir de telle sorte qu’il ouvre, non pas un trou de ver catastrophique et contradictoire avec la causalité mais un processus inverse à sa formation, une dilatation de l’espace-temps, donc l’intérieur ne peut se concevoir de manière statique, il rebondit et se comporte comme un oscillateur !

C’est l’histoire d’un ressort de raideur k qui au lieu d’être étiré, subi une compression :

Ressort avec étirement sans frottement :

ressort-sans-frottement

Avec frottements de rapport α / f = α v avec v = dx/dt.

ressort-avec-frottement

Ce sont bien les équations d’un oscillateur mais l’amortissement est très rapide car l’espace-temps n’est pas déchiré, juste plissé comme détecté en 2016 par interférométrie.

Le mécanisme d’oscillations avec frottements de type visqueux (la matière absorbée et compressée à l’état de plasma) doit générer de la chaleur mais si celle-ci ne rayonne pas, où s’écoule-t-elle ?

Dans le cadre de la théorie électrodynamique des équations de Maxwell, il en est deux d’origine expérimentales qui sont : div(B)=0 et div(E)=0.

Si la divergence du tenseur et de son flux égales à zéro sont incompatibles avec le rayonnement isotrope, c’est qu’il existe un équilibre thermodynamique qui rend possible l’expansion de l’univers. Cet équilibre serait celui obtenu à l’intérieur des trous noirs. Comme ils ne rayonnent pas, l’énergie due aux oscillations du phénomène de rebond est non seulement invisible mais s’amortirait en un temps tel (dilatation temporel) qu’il serait à l’équilibre thermodynamique et constituerait le mécanisme de compensation vu plus haut, pas vu pas pris…en compte.

Pas vu, pas si sûr, en fait le trou noir possède un moment cinétique, reste de l’accrétion de l’étoile qui l’a créé en s’effondrant, comme ce dernier possède une charge, il doit en résulter un moment magnétique dans l’axe de rotation susceptible d’engendrer un jet de lignes de champ électromagnétiques : le trou noir rayonne !

 

 

Image théorique

 

 

 trou noir-jets

 

 

 

 

 

 

 Réellement détectée par la NASA : le trou noir se trouve au cœur d’une galaxie baptisée Centaurus A (NGC 5128).

trou noir de la galaxie NGC 5128

De tels jets de matière sont difficiles à visualiser à cause de leur éloignement, ici plus de 10 milliards d’années lumières mais aussi parce qu’il faut l’isoler du rayonnement des rayons gamma eux-mêmes propulsés par le quasar voisin.

S’il s’était agi d’un pulsar, il serait visible depuis n’importe quel endroit de l’univers et donc de l’horizon astronomique fonction de la latitude du lieu (déclinaison et ascension droite) car son champ magnétique ne tourne pas selon son axe de rotation comme sur terre, ici par contre, on ne peut être aligné sur celui-ci que par collimation lorsque le jet passe au-dessus de l’horizon, un petit schéma :

sphère-céleste

Voici la sphère céleste, si la terre au centre est projetée sur la voûte céleste, c’est par commodité pour explorer le ciel nocturne et repérer comme indiqué une étoile à l’aide de l’ascension droite et de sa déclinaison. Il faut tout de suite noter le plan l’écliptique, c’est la course du soleil sur la sphère. Ce plan fait un angle de 23°27’ avec celui de l’équateur céleste ce qui est revient à dire que la terre est orientée du même angle sur son axe de rotation. Nous pouvons remarquer les points vernaux qui sont les équinoxes et l’angle reporté sur la sphère entre le cercle bleu et marron fait 23°27’ mais bien sûr, c’est la terre qui tourne autour du soleil

Pour s’orienter sur la sphère avec votre latitude, il faut tourner l’axe des pôles du même angle, par exemple à l’équateur c’est zéro degré. Donc votre horizon astronomique coïncidera avec l’équateur céleste et la durée du jour sera égale à celle de la nuit, ici c’est l’équinoxe tous les jours mais c’est le seul endroit au monde où le soleil passe au zénith à midi, ne cherchez pas votre ombre, il n’y en a pas !

Si vous tournez de 90°, donc sur un des pôles terrestres, votre horizon astronomique fait le même angle avec l’équateur céleste qu’il coupe aux points vernaux et vous avez alors six mois de jour et six mois de nuit (voir l’écliptique ou la course du soleil), pour n’importe quelle latitude, suivez le même procédé en traçant un nouveau cercle horaire et pour connaître la durée du jour et de la nuit, prenez un précis d’astronomie !

Pour en revenir aux jets de trous noirs si vous n’êtes pas orienté dans leur direction au moment où ils se produisent, tintin pour les collimater sur la sphère céleste puisqu’ils ne rayonnent pas dans toutes les directions, il faut prévoir des séances photos  quelque peu heuristiques !

Par contre la galaxie du Centaure a pour coordonnées :

Ascension droite: ‎13h 25m 27,6s

Déclinaison ‎: ‎−43° 01′ 09″.

C’est la galaxie radio la plus puissante du ciel et la plus proche de nous, entrez ces coordonnées si vous avez un télescope avec une monture équatoriale programmable !

Les trous noirs ne rayonnent pas parce qu’ils n’émettent pas de photons, si la matière absorbée par gravité est transformée en plasma, un autre phénomène est à l’œuvre.

En effet, si le trou noir rayonnait, il perdrait de l’énergie engendrée par son moment cinétique et l’effet magnétique dû à sa charge (effet dynamo) diminuerait également, ce qui en ferait un système bouclé. Alors, l’équilibre thermodynamique ne serait jamais atteint, ce qui est en contradiction avec l’entropie du trou noir et le phénomène de compensation censé expliquer l’expansion et le rayonnement isotrope de l’univers. Ce système auto-entretenu doit s’amortir mais en quel temps ?

De plus, si toute la matière était rayonnée, les trous noirs ne pourraient jamais se former et nous ne verrions pas leur effet gravitationnel. Donc une partie seulement l’est et la question n’est plus seulement en combien de temps mais en quelle quantité ?

Encore une fois, c’est l’effet mémoire du type pré BIG-BANG qui peut l’expliquer, ce sont des effets de rebonds ou échos qui sont responsables d’un amortissement où il n’y a pas de direction privilégiée, l’entropie statistique de la loi de Boltzmann n’est plus à l’œuvre à l’intérieur du trou noir, l’amortissement du type ressort est couplé à la gravitation, et seule l’évaporation de Hawking peut assurer le maintien de la seconde loi et le premier principe de la thermodynamique, l’entropie augmente et un équilibre énergétique global est maintenu !

L’équation qui décrit les oscillations non linéaires d’un plasma où la contre-réaction est réalisée par le dernier terme de l’équation de Vlasov-Poisson :

équation-vlasov

Cette équation est non intégrable en raison du terme en E₁.

Par contre une solution existe où les particules s’homogénéisent sans frottements avec un champ électrique E qui tend vers zéro, c’est le retour à l’équilibre sans augmentation d’entropie et le plasma n’a pas direction temporelle privilégiée, il peut remonter le temps !

Voilà pour le temps, c’est l’amortissement Landau mais il reste le problème de la quantité de matière engloutie, même transformée en plasma, le champ électrique E finit bien par s’annuler ou disparaître mais quid du champ magnétique associé ?

Celui-ci est bien rayonné en un jet de lignes de champ électromagnétiques !

Mais il serait paradoxal que toute la matière absorbée soit à l’équilibre thermodynamique de par la création même du trou noir. Pour respecter le principe de la conservation d’énergie HIC et NUNC, il ne reste que l’évaporation calculé par rayonnement Hawking qui fait intervenir ceux de la mécanique quantique, soit un temps 10^57 fois plus grande que l’âge de l’univers pour une masse solaire !!

Autrement dit, dans notre univers bulle, de tels monstres n’auraient pas le temps de s’évaporer, ce n’est pas le moindre paradoxe de ces objets célestes…à moins qu’ils ne sachent que le temps leur est compté et qu’ils n’influent sur la durée de l’expansion, vertigineux !!!

En conclusion de l’information semble bien perdue mais pour sauver les apparences, il faut concevoir cette perte comme les particules éphémères du vide quantique mais cette fois, il ne s’agit pas d’un emprunt mais d’un crédit avec des échéances à très long terme, c’est de la comptabilité virtuelle qu’aucun plan de financement n’a réussi à masquer !

 

 

 

Equivalence du travail et de la chaleur

C’est le premier principe de la thermodynamique :

Uf = Ui + Q – W

Peut-on envisager un état qui ramène l’état initial du système à l’état final avec Q = W ?

La réponse est non car ce serait le mouvement perpétuel !

Ainsi une machine qui reçoit une quantité de chaleur Q pour fournir un travail W ne peut la restituer intégralement, on parle alors de rendement (e) et Sadi Carnot a montré que e < 1

Une conséquence est qu’il n’y a pas de processus réversibles pour une machine thermique contrairement aux processus adiabatiques d’un gaz parfait isolé de tout environnement. En termes de température : e = (T₂-T₁) / T₂ = 1 – T₁/T₂ ce qui implique une température T₁=0 pour obtenir le rendement maximal e=1, c’est une définition du zéro absolu. En d’autres termes ceci nous amène à la seconde loi macroscopique de la thermodynamique où l’on ne peut que dégrader l’énergie ! En effet essayer de faire fonctionner n’importe quelle machine thermique sans évacuer de la chaleur au milieu ambiant : ou essayer de démarrer votre voiture à moteur atmosphérique ou à explosion avec une chaleur dégagée supérieure ou égale à la température ambiante, si vous y arrivez, faites breveter !!!

Voici un système idéal où le système retourne à l’état initial :

un système avec Ei=Ef

L’intégral sur le chemin sur le chemin fermé a.b.c.d en fonction du temps correspond à ce qui peut être considérer comme une différence de potentiel W avec Q = W =0, c’est le système adiabatique microscopique du gaz parfait, sinon il faut considérer la deuxième loi et une augmentation de l’entropie en fonction du temps et le système ne fait que du travail sans rien recevoir de l’extérieur puisque le temps n’a pas encore de direction privilégiée ou flèche du temps !

système adiabatique-retourné

Cette courbe est à comparer à celle du pré BIG-BANG :

pré big-bang_système réversible

Ces deux courbes aux échelles près, semblent coïncider : dans la première l’énergie moyennée remonte le temps jusqu’à atteindre une valeur critique : l’énergie du BIG-BANG et l’expansion de l’univers avec l’entropie qui augmente.

Dans l’autre, c’est le système adiabatique retournée ou symétrique par rapport à l’axe P.

P et V représente l’évolution de la pression et du volume d’un piston tantôt comprimé puis détendu, ce qui se passe dans votre réfrigérateur. Mais celui-ci comme on l’a vu avec le paradoxe du glaçon, finit bien par augmenter l’entropie de l’univers !

La pression dans le principe de confinement a bien été assimilée à une densité d’énergie telle que dP=∂(E)/∂(V).

Mais comme il s’agit de fluctuations quantiques, ce n’est pas une représentation linéaire mais une courbe d’hystérésis qui représente l’énergie en fonction du temps.

Avec les hypothèses adiabatiques du gaz parfait, c’est un système qui retrouve son état initial microscopique mais si l’on se rapporte à la singularité originelle à partir des observables, c’est également une singularité qui est décrite. Dans un cas comme dans l’autre, nous remontons le temps sauf que pour le système microscopique l’effet mémoire est causal sans toutefois enfreindre le second principe de la thermodynamique puisque e<1 et ẟ(S) > 0 !

Alors que dans l’ère du pré BIG-BANG, les fluctuations quantiques maintiennent S=0 jusqu’à l’inflation et l’expansion de l’univers avec ẟ(S) > 0 !

Le système adiabatique retourné est équivalent à remonter le temps, ainsi effet mémoire ou remonter le temps serait équivalent à une symétrie de type CPT !

Cependant, cela implique une invariance en passant d’un modèle microscopique à celui macroscopique et statistique de la deuxième loi de la thermodynamique.

Cette invariance n’est autre que la courbe d’hystérésis dont l’équation est non linéaire !

Cependant, le système peut être décrit par le Lagrangien L= T-V.

Ici T représente P et V le potentiel est analogue au Volume, l’énergie est dissipée à l’intérieur de la courbe.  Le cycle s’interrompt et c’est une brisure de symétrie ou amortissement du système. Toutefois, charge et détente de la courbe d’hystérésis obéissent au principe de moindre action en minimisant la quantité L telle que ẟ(L)=0 et la surface décrite représente alors une constante, c’est la surface intérieure où ẟ(S) > 0 puisque on ne peut jamais vraiment atteindre un rendement égal à un !

Une conséquence est que le zéro absolu n’est jamais atteint ni avant ni après le BIG-BANG !

Pas de direction privilégiée et pourtant, le gyroscope tourne, son couple se joue des référentiels inertiels et des transformations de Lorentz !

Si les fluctuations quantiques du vide peuvent engendrer des paires de particules et d’antiparticules elles ne peuvent cependant rien soustraire au vide, ce serait descendre spontanément d’un niveau d’énergie un électron vers une orbite plus basse sans interférence ou échange de photons, en violation du premier principe de conservation !

Ainsi le zéro absolu n’est jamais atteint mais à l’ère du pré BIG-BANG, nous pouvons associer deux états limites ou deux potentiels V₂ et V₁ tels que :

V₂-V₁ = ∫Pdv et V₁-V₂ = – ∫Pdv d’où en parcourant la courbe d’hystérésis le bilan est V₂-V₁ + V₁-V₂ = 0. Ici la variable est un volume, le temps a été évacué au profit d’une équation de champ, le champ ou la pression dérive d’un potentiel, le volume !

Ce que l’on pourrait écrire V₁-V₂ = – ∫Pdv ou dV = –Pdl, dl est un petit segment du parcours à la charge ou en relaxation et la surface intérieure est alors équipotentielle entre deux points de coordonnées {P₁, V₁} et {P₂, V₂} la surface est bien une constante !

Par contre, dès que le seuil énergétique est franchi, c’est le domaine de l’expansion où émerge le temps avec ∂(E)/∂(V) ≈ 0 quand t ->∞ ou P∞ = 0 !

Attention, ici c’est la flèche du temps qui émerge, le temps, lui, est bien une composante d’un espace-temps qui oscille mais dans quoi s’il n’y a pas de repère absolu ?

En effet la surface a alors atteint une taille critique, un peu comme des gouttes d’eau qui tombent dans un récipient et qui sont retenues par capillarité avant le débordement. Le potentiel ou barrière de potentiel sont franchis et c’est bien l’espace-temps qui se cristallise : pour poursuivre l’analogie, prenez de l’eau à température ambiante et plongez la bien en dessous de son point de congélation, il ne va rien se passer, elle va conserver sa symétrie même à la température atteinte en dessous de zéro, jetez-y un cheval, elle va prendre aussitôt, c’est une brisure de symétrie appelée surfusion et l’univers n’en est pas exempt !

Pourtant, c’est la goutte d’eau qui fait déborder le vase, cette expansion fulgurante ou inflation, en poursuivant les analogies, s’apparente au phénomène d’avalanche, c’est l’univers lui-même qui a émergé d’une singularité quantique à un espace sans bord décrit par la relativité générale !

La constante de surface se transforme en nombre d’onde k tel que k = ω/Vᵠ avec Vᵠ, la vitesse de phase associé au front d’ondes gravitationnelles. La causalité ou la flèche du temps en est un retard de propagation sur une distance depuis n’importe quel référentiel galiléen !

Un lien mathématique entre ces deux constantes, représenterait donc l’unification de la mécanique quantique et de la relativité générale !

Une représentation vectorielle peut être déduite de l’équation vectorielle I = ej(ω.t) . ej(k.d). Comme c’est une onde qui s’éloigne de sa source depuis n’importe quel endroit, on notera I= ejωt . e-jkd = ejω(t-d/ Vᵠ) = ejω(t-d/∆Vᵠ)= ejω(t-ꞇ) le symbole ꞇ est l’analogue d’un temps de retard du front d’onde où ∆Vᵠ est considéré comme constant. Cette propagation peut être supérieure à la vitesse de la lumière jusqu’à l’émission des photons que l’on observe maintenant !

Ces ondes peuvent encore se produire comme ce fut le cas lors de la coalescence de deux trous noirs massifs !

Les équations peuvent se ramener à celles de Newton où dV/dt = -grad P(x).

Le seul problème est que l’expansion semble reprendre de façon exponentielle !!

Dans ces conditions, les trous noirs ont-ils le temps de s’évaporer ?

Il parait que oui, des calculs ont été menés mais comme aucune expérience n’a encore été réalisée, il faudra attendre des mesures futures, plus précises du fond diffus cosmologique…

Au cas où les trous noirs avant de se créer devaient tenir compte de l’expansion avant de s’évaporer, quelle variable physique utiliseraient-ils ?

Il faut s’imaginer franchir l’horizon du trou noir et regarder sa montre, rien ne devrait changer tant que vous ne bougez pas vous-même mais dès lors que vous le faite, les gradients de marée sont tellement élevés que le temps varie avec le déplacement : distance et temps se valent, c’est cette équivalence ou équipartition entre pression et volume qui détermine les caractéristiques spatiotemporelles du trou noir, il s’agit de l’équivalent d’une loi très simple PV = cte.

Mais celle-ci est plus générale qui donne une direction du temps orthogonal à la métrique considérée : dV/dt = –grad P(x).

Bien sûr, les coordonnées spatiales sont en x, y, z

espace-temps

L’axe du temps est bien orthogonal aux cônes de lumière !

En relativité générale le gradient s’exprime en fonction de la distance spatio-temporelle où g joue le rôle de potentiel et mesure le temps propre dont l’intensité locale dépend du référentiel :

gradient-relativité générale

Le temps propre est celui que mesure votre montre, une vue d’artiste :

montres-molles

Mais une fois l’horizon franchi, c’est la chute inexorable vers la singularité, le temps se fige avec la température vers le zéro absolu, temps et température se valent ou comme dit le poète : Le soleil s’est noyé dans son sang qui se fige…

baudelaire

 

Lui s’est figé dans le temps !

 

 

 

 

 

 

 Repère fixe : oscillations du pendule de Foucault et couple gyroscopique

 

Comment détecter la rotation de la terre dans le référentiel galiléen d’un laboratoire terrestre ?

La réponse est donnée par l’expérience du pendule ou du couple gyroscopique qui semblent ancrés à un repère fixe ! la relativité restreinte montre qu’il n’en existe pas et en relativité générale, c’est l’espace-temps lui-même qui est la trame de tout corps en mouvement qui engendre en retour une déformation de l’espace-temps.

C’est dans ce cadre, en l’absence de tout masse qu’un objet en rotation subit la force centrifuge et conserve son moment cinétique !

Il est quand même paradoxal qu’après avoir évacué l’éther luminifère, l’espace-temps serve de repère fixe pour expliquer le mouvement du pendule quelle que soit la latitude du lieu d’observation ou serait-ce que la relativité générale qui pointe son incomplétude théorique ?

En effet, la terre ne déformerait pas suffisamment l’espace-temps pour révéler une quelconque précession de sa rotation. Il n’en va pas de même pour des objets massifs en rotation sur eux-mêmes, tels les trous noirs !!

Le mystère du pendule demeure, il pointerait là, une incomplétude de la relativité générale…

Dès 1851, le pendule oscillait, suspendu à la coupole du panthéon, donnant à voir expérimentalement la rotation de la terre.

 

pendule-1906

Commémoration pour le cinquantenaire de l’évènement en 1902 :

Ainsi les trous noirs massifs en rotation, seraient le mécanisme de synchronisation le plus perfectionné de l’univers : système de coordonnées fixes expérimental de l’espace-temps pour tous les référentiels inertiels et température du zéro absolu au fond d’un puit de potentiel gravitationnel, temps et température se valent distance et temps se valent.

Tout ceci est déjà confirmé par la loi de Planck où la température est associée à une couleur ou une longueur d’onde quant au temps, il est lié à la vitesse de la lumière (qui est invariable sous tous référentiels) par ℷ = cT. Pour ce qui est des interactions fortes, c’est le modèle standard de la chromodynamique quantique. Ce modèle regroupe 3 familles de particules, c’est un véritable bestiaire dont la cohérence ou symétrie CPT ne serait assurée qu’au prix de la Supersymétrie mais il y manque toujours la gravitation qui n’est couplée à aucune de ces particules !

Eh oui les constituants ultimes de la matière sont également associés à une couleur…

Ce qui peut s’écrire temps ≡ température et distance ≡ temps

 flèche

 Température ≡ distance si l’on veut boucler le système, d’où enregistrer une mesure, c’est enregistrer une température et mesurer zéro mètre, c’est mesurer zéro degré Kelvin !!!

En effet la température du zéro absolu est celle du vide intersidéral auquel est associé une densité de matière tout aussi nulle, aucune mesure n’est possible, c’est l’état d’énergie la plus basse où la pression tend vers zéro.  Ici c’est le temps qui assure la cohérence pour toutes les symétries de la distance des théories de jauge à celle étendue de la gravitation : le temps est donc cette variable dépourvue de sens ou flèche qui unit RG et MQ mais ce temps là émerge-t-il d’un trou noir ? comme l’expérience de pensée pour qui tombe à l’intérieur et voit défiler le temps comme s’il était à la fois l’alpha et l’oméga !

Pour s’affranchir du temps qui désigne à la fois celui qui remonte la courbe d’hystérésis du pré BIG-BANG et celui qui en émerge avec une direction à sens unique, il vaut mieux utiliser le principe de moindre action ou PMA qui boucle sur lui-même dans le schéma ci-dessous :

principe-moindre-action

Ce principe nous affranchit de l’ambiguïté du temps au profit d’une algèbre à un paramètre, l’action tel que dV/dt = –grad P(x) ou                       !

L’équation d’Euler-Lagrange donne ṗ =∂L/∂q pour un groupe G, le principe de la moindre action affirme que les mouvements d’un corps rigide, fixé en un point, sont (en l’absence des forces extérieures) les géodésiques du groupe G, muni d’une métrique invariante à gauche.

Comme il a été vu plus haut, l’invariance fait appel à un groupe de symétrie G = SO(3) pour un opérateur donné, ainsi un point sur la sphère garde les mêmes coordonnées dans le plan Oxyz par rotation d’un angle θ autour de l’axe Oz par transformation matricielle de celles-ci.

Soit U, une algèbre de G munie d’une métrique dont le produit sera noté < , > une courbe g(t) est une application g : R –> G. On définit le produit scalaire <v₁,v₂> = dx où D est un domaine borné de l’espace de Riemann et dx un élément de volume sur D. Ceci constitue le groupe des difféomorphisme S sur D où le volume est conservé lorsque l’intégrale précédente est minimisée.

La courbe g(t) est une géodésique de D et finalement la fonction de Lagrange L(q,(dq/dt)>  est donnée par 2L = <ω,ω>.

Tout ceci est comparé à ce qui est décrit dans l’ouvrage « la conjecture de Goldbach forte et ses conséquences sur la théorie des nombres : « Cp qui est un ensemble discret à deux dimensions ne peut plus convenir. Nous avons un groupe continu et Ф devient un difféomorphisme de ℂ vers Zr. C’est l’ensemble topologique U ci- dessus qui devient un groupe de Lie dans lequel les complémentaires premiers peuvent maintenant être représentés par des vecteurs. »

En effet avec l’algèbre U, nous disposons bien d’un opérateur à un paramètre pour les fluides parfaits incompressibles, non visqueux où conformément au principe de moindre action la courbe g est une géodésique du groupe des difféomorphismes S sur D.

En conclusion, le PMA permet à lui seul d’établir un lien formel entre la RG et La MQ mais pour ce qui est de la traduction mathématique comme celle du principe d’équivalence de la RG, il faut établir un opérateur de transformation matricielle du tenseur de Ricci à la scattering matrice de diffusion des particules élémentaires : tout le travail reste à faire !

En effet il s’agit de trouver un opérateur qui respecte la causalité, on ne peut pas reboucler un système sur lui-même sans enfreindre ce principe, la non linéarité s’installe et l’effet se met à créer sa propre cause, ce qui peut se traduire dans le cas de la relativité restreinte : un observateur d’un système inertiel au repos S voit une action se dérouler avec un début, une existence et une fin liés à l’entropie du système, frottements, échange de chaleur…

Un autre observateur dans un Système inertiels S’se déplaçant avec une vitesse -v par rapport à S tel que ||v||<<c, verra les évènements se dérouler selon un ordre différent : fin, existence et début en violation du principe de causalité. Evidemment ce principe n’est pas remis en cause en relativité restreinte car dans la réalité, si les deux observateurs ont des temps propres, ils ne le remontent pas ! par contre, il n’en va pas de même avec des particules subatomiques où les particules peuvent atteindre des vitesses proches de celle de la lumière et c’est alors le domaine de la physique quantique où remonter le temps pour un électron est l’équivalent du mouvement de son antiparticule, le positron !

Ce qui se traduit dans l’espace des phases par une périodicité ou les amplitudes s’annulent en coupant l’axe des temps. Cependant le système finit par s’amortir et ce sont les solutions des équations différentielles du mouvement qui en donnent une description analytique comme une masse suspendue à un ressort :

ressort-avec-frottement

L’anti gravité pourrait être envisagée à partir du graviton qui est sa propre antiparticule et voyager dans le temps serait envisageable pour des objets massifs. Malheureusement, une fois découplée des autres forces fondamentales, elle devient négligeable aux longueurs d’ondes >> Lp. Ce qui peut se traduire comme suit :

La non linéarité de la RG est incompatible avec les lois linéaires de l’électromagnétisme !

Température ≡ distance est un principe d’équivalence si l’on s’affranchit de la flèche du temps : une fois franchi le seuil de confinement, il n’y a pas de solution au voyage dans le temps, même pour aller dans le futur si cela était permis. En effet, pour pouvoir en bénéficier, il faudrait revenir dans le présent que nous avons laissé et ce serait alors faire un voyage dans le passé : impossible pour les objets macroscopiques !!

Les lois physiques sont invariantes dans le temps en raison de la première loi de la thermodynamique (conservation de l’énergie) et si l’on écrit la variable t en -t elles restent les mêmes. Par contre, il n’en va pas de même de l’état physique des objets auxquels elles s’appliquent !

Une expérience amusante mais impossible à réaliser : une usine engendre une transformation d’objets suivant ces mêmes lois, ainsi un engrenage peut revenir dans le même état si on le fait tourner à l’envers, il aura en quelque sorte remonté le temps, c’est le cas de tous les systèmes cycliques !

Maintenant, prenez une charcuterie mettez-y un cochon, il va ressortir en boîte de pâtés. Faîtes tourner tous les engrenages à l’envers depuis la fin du processus de transformation en boîte de pâtés : vous n’obtiendrez jamais un cochon, étonnant ?

Loi de Mariotte Boyle et zéro absolu

Pour une température donnée, cette loi peut s’exprimer comme suit : PV = cte (pression par volume égal constante).

loi-Mariotte-Boyle

Cette loi de la mécanique classique atteint ici ses limites au zéro absolu, en effet, la force exercée par la pression d’un gaz deviendrait infinie !!

Par contre, plus l’on s’approche expérimentalement de cette limite, plus le volume diminue pour atteindre l’état de d’un condensat de BOSE EINSTEIN, c’est le règne de la superfluidité et d’états superposés de la mécanique quantique.

Dans les laboratoires est atteint 100 pico Kelvin, soit 10^-10K. pour aller plus loin vers le zéro absolu (0K ou -273°C), il faut comme indiqué par la formule quantique du principe d’incertitude, en assimilant la température à l’énergie :

principe d'incertitudeDisposer d’un temps infini à mesure que l’on abaisse le niveau d’énergie ou température de la matière condensée !

Ce sont des conditions qui ont pu régner à l’ère du pré BIG-BANG, donc impossible à atteindre une fois le seuil de confinement franchi comme indiqué dans l’ouvrage, la conjecture de Goldbach forte et ses conséquences sur la théorie des nombres : « L’espace-temps qui n’avait aucune direction privilégiée, prend une orientation qui n’est autre que la flèche du temps : cette brisure primitive de symétrie engendre un système causal.

Cette zone intrinsèque de l’espace-temps dont on ne peut rien savoir où il existe une entropie nulle est celle dont on ne peut rien savoir à partir des observables : c’est une autre manière d’exprimer le principe d’incertitude, celle du principe de confinement.

Nous n’avons rien gagné à cette reformulation sauf à exprimer l’énergie du vide à partir de laquelle l’entropie devient supérieure à zéro. Nous n’avons rien gagné à cette reformulation sauf à exprimer l’énergie du vide à partir de laquelle l’entropie devient supérieure à zéro. »

En dehors des laboratoires, où pourrait-on trouver de telles conditions extrêmes ?

À l’intérieur d’un trou noir de Kerr où la matière serait amenée non pas à l’état de plasma mais à celle du condensat de Bose Einstein.

 Gµν =   Tµν = ??… Or nous ne pouvons pas associer brutalement Gµν à ∂g. En effet il y va d’un facteur d’échelle où les lois ne sont pas les mêmes pour exprimer une distance comme les distances des orbites planétaires et celles des orbites électroniques !

Ceci nous ramène à notre usine de transformation des cochons en pâtés, bien sûr le second principe nous empêche de le faire mais pas les lois par inversion du temps, c’est toute la différence entre la science et ses applications : les lois disent oui mais l’état physique dit non dès que l’entropie s’accroit et il arrivera un moment où même si votre cochon est reconstitué en un énorme condensat de Bose-Einstein, vous ne pourrez pas le ressusciter à l’identique.

Cela ressemble à une farce mais c’en est une mauvaise parce qu’elle remet en cause tout notre artifice théorique fondé sur la notion géométrique du point !!

Evidemment cet arsenal théorique a évolué passant du point à la masse de Dirac et aux distributions sans parler de la fonction d’onde d’Erwin Schrödinger. Mais le cochon reconstitué avec son empreinte quantique, est-il vivant et le vivant aurait-il un statut particulier ?

Nous savons que le vitalisme a vécu et que tous les processus vivants peuvent être expliqués en termes thermodynamiques où rien ne se perd rien ne se créer tout se transforme, mais depuis Lavoisier, des éléments radioactifs ont bien été créés artificiellement voire même prévus dans le tableau périodique des éléments !

Cependant, imaginons une machine à hacher le cochon mais qui en garde une empreinte quantique, nous avons changé de braquets en passant d’un pâté informe où l’entropie est considérable à un ensemble de particules où la loi statistique de Boltzmann ne s’applique plus : pourrions-nous alors le reconstituer ?

Essayons d’abord de trouver une machine qui réponde aux critères précédents : une machine à hacher qui garde une empreinte quantique !

Cette machine existe bel et bien dans la nature : c’est un trou noir de Kerr, jetez-y un cochon et ce malheureux va se retrouver hacher menu tout en laissant son empreinte quantique sur l’horizon du monstre qui l’a englouti mais ce n’est pas tout, à l’intérieur au-dessus de la singularité à mesure que la longueur d’onde entre ses particules va se rapprocher de celle de de Broglie telle que λ = h/ Mf   , disons vers T de l’ordre du µK, va se produire une transition de phase avec une accumulation particules en un condensat de Bose Einstein !

Cependant, nous ne savons toujours pas comment récupérer ce cochon « HIBERNATUS ». Il sortira de sa gangue après l’évaporation du trou noir et nous pourrions récupérer les particules dans un vase canope mais elles seraient indiscernables, pas moyen de le reconstituer à l’identique et encore moins de le resusciter.

C’est le problème des origines qui se pose encore et toujours : cependant la notion d’émergence ou de complexité est devenue incontournable. La géométrie ou le topos a repris provisoirement le pas sur l’analyse mais une conciliation ou faudrait-il dire un dépassement dialectique est en cours avec le programme Langland depuis l’association de courbes elliptiques et des formes modulaires dans la démonstration du dernier théorème de Fermat.

Ceci nous amène à un espace non commutatif d’où émerge le temps mais une fois qu’il a émergé, plus moyen pour les objets macroscopiques de retourner dans le passé AB=BA c’est bien l’indiscernabilité classique cette fois qui prévaut, le nombre de configurations de particules dans le même état est nettement plus improbable et nous retrouvons la loi statistique de Boltzmann S=k* ln(W) !!

Ce qui différencie l’état quantique des particules est l’indiscernabilité de celles-ci et leur propriété de se mettre dans le même état fondamental. En effet nous pouvons attribuer à chaque particule un certain nombre de propriétés comme leurs moment cinétique, leur charge ou leurs masses, mais en quoi l’indiscernabilité favorise-t-elle ce comportement à se mettre dans le même état ?

C’est lié aux nombres de configurations W différentes qu’elles peuvent prendre pour se mettre dans le même état et cette fois-ci la loi de Boltzmann ne s’applique plus, c’est celle de la fonction d’onde d’Erwin Schrödinger. Effectivement une fois la condition de louis de Broglie atteinte une quantité macroscopique de particules peuvent se retrouver agrégées dans le même état fondamental proche du zéro degré Kelvin ou zéro absolu.

Concrètement, des expériences ont pu être menées pour confirmer la prédiction de Bose Einstein en faisant inter agir les particules avec des faisceaux lasers dans ce qu’on appelle une mélasse optique.  Cependant la condensation n’est pas encore atteinte, il faut créer un champ magnétique telle que l’énergie du champ E=µB et il faut encore abaisser la température de ce piège magnétique par évaporation en tronquant le piège magnétique à une certaine hauteur ou barrière de potentiel magnétique. On passe alors du µK au nK et le tour est joué !

En voici des photographies prises au MIT en 1995 :

L’image a) représente une distribution gazeuse du type statistique de Maxwell-Boltzmann, le seuil du condensat où λ =  h/Mv  n’est pas encore atteint.

L’image b) le condensat commence à se former mais tous les atomes ne se sont pas évaporés du piège magnétique !

L’image c) la condition est atteinte, les atomes sont tous dans le même état quantique !

Est-ce que pour autant ces atomes n’interagissent pas entre eux ?

En fait ils interagissent de manière cohérente, ils restent dans l’état gazeux, leurs longueurs d’onde est très grande devant la distance interatomique λ>>d ou en termes de températures, T<<Tc !

C’est un peu dans le domaine classique, le comportement d’une onde électronique devant la taille du circuit quand λ>>L, les lois de Kirchhoff sont respectées et l’onde garde la même amplitude, ici c’est la fonction d’onde qui est la même pour toutes les particules.

Cependant, l’analogie s’arrête là, dans un cas une température est dissipée par effet Joule, dans l’autre il faut l’évacuer jusqu’à atteindre le nK !

Maintenant un faisceau lumineux se propage à travers un milieu avec une dispersion liée au nombre d’onde, β = ω/vφ, avec vφ, la vitesse de phase ou ramené à une longueur d’onde β = 2π/λ.

Si l’on fait passer un rayon lumineux à travers deux fentes dans l’expérience de Young, nous allons obtenir sur un autre écran situé en aval, des franges d’interférences dues à la nature ondulatoire de la lumière à condition de ne pas savoir par où sont passés les photons, sinon nous aurons une distribution en lobe avec un maximum situé dans l’axe de propagation. Ceci est au comportement quantique des photons, ils interfèrent !

Nous pouvons également assimiler la propagation du faisceau à un déphasage moyen ou retard encore appelé temps de groupe τ comme nous l’avons déjà évoqué dans l’hypothèse d’une propagation de gravitons au travers d’un trou noir extrémal pour le phénomène non local d’intrication quantique !

Un condensat, versus le rayon lumineux, interfère avec lui-même, la différence, de taille est qu’il s’agit maintenant d’objets macroscopiques !

Si nous disposons de deux condensats non corrélés, ils vont également produire des franges d’interférences mais l’expérience la plus étonnante est de les faire tourner. Avec un objet classique la vitesse de rotation dépend du rayon, plus il est grand plus grande est sa vitesse

v = ωR ou plus généralement l’intégrale curviligne :

Mais la vitesse dans un condensat est directement reliée à la phase, elle ne croit pas continûment avec le rayon, elle est quantifiée à partir d’une fréquence critique, un vortex se forme dont la densité s’annule au centre, c’est une singularité et plus on augmente la fréquence, plus on forme de vortex !

Le formalisme quantique décrit le moment cinétique classique en spin demi entier pour des fermions, entiers pour des bosons, il se trouve que les condensats réalisés à partir de presque tous les éléments du tableau périodique sont des bosons, ils obéissent à la statistique de BOSE-EINSTEIN ceux qui ne réalisent cette condition sont des fermions, ils obéissent à la statistique de Fermi-Dirac !

Cependant ces atomes fermioniques peuvent former un gaz parfait où ils se retrouvent tous dans le même état à la température de la mélasse optique !

 

 Mesure du temps

Si l’on prend les deux états fondamentaux de l’atome césium 133 la fréquence ou l’énergie pour les faire passer d’un état à l’autre est 9192631770 Hz, nous pouvons sélectionner les atomes à très basse température à l’aide d’un filtre ou cavité résonnante à cette fréquence pour qu’ils soient tous en sortie dans le même état de plus haute énergie, en tenant compte de la relation d’incertitude, ∆t. ∆f > 1/pi  plus on fait interagir longtemps les atomes à travers cette cavité plus la précision sur la fréquence de résonnance sera élevée, on peut ainsi atteindre une précision relative de l’ordre de 10^-16  en l’absence de gravité !

D’ailleurs, cette extrême précision permet de tester la relativité générale avec le décalage des horloges sur une distance d’un mètre en mesurant le Redshift afférant, plus besoin d’embarquer des horloges synchronisées dans les avions pour mesurer que celles restées au sol retardent, le test peut se faire dans un laboratoire de physique !!

Conclusion :

Nous avons obtenu concrètement une symétrie formelle entre la mécanique classique et le domaine quantique, ceci peut se résumer dans le schéma suivant :

Nous avons montré que Température ≡ distance sur un système bouclé ce qui est le cas des atomes de césium 133 réinjectés dans une cavité résonnante afin qu’ils atteignent tous l’état de plus haute énergie pour définir la seconde à la fréquence de 9192631770 Hz.

Cependant ces fermions agissent entre eux de manière cohérente, la fonction d’onde est la même pour toutes les particules : essayez de distinguer un électron d’un autre, la vitesse est directement reliée à la phase, contrairement à un paquet ondes classiques qui subit un étalement au cours de son déplacement donc un retard de groupe.

Fonction d’onde identique dans un cas et cohérence quantique, une seule onde dans l’autre et décohérence quantique ou suppression des franges d’interférences !

Résultats :

  • Incomplétude théorique de la relativité générale
  • Symétrie formelle entre la mécanique classique et le domaine quantique
  • Interaction cohérente d’un faisceau de lumière à travers un condensat => λ >> d
  • Champ de vitesse de particules condensés directement relié à la phase => formations de vortex ou singularités
  • Ces singularités peuvent être assimilées à des signaux complexes où serait appliqué le premier critère de Nyquist T=B avec T la période de transmission et B la largeur du signal de la bande passante : ici intrication quantique mais indiscernabilité des particules : possibilité de cryptage quantique !!

Champ moyen pour N particules en interaction lorsque la condition λ >> d n’est plus vérifiée :

Le potentiel d’interaction devient une fonction à plusieurs états liés difficile à décrire mais qui peut être représentée par une longueur de diffusion a pour la température du µK.

On peut faire l’hypothèse qu’il n’y a aucune corrélation entre particules, il existe ainsi une symétrie qui relie l’état fondamental de la fonction d’onde par exemple pour N particules, qui peut s’exprimer par l’équation : Ψ (r₁, …rɴ) = φ(r₁) … φ(rɴ). En cherchant à minimiser la valeur moyenne par particule φ(r) on abouti à l’équation différentielle :

Cette formule rappelle étrangement celle de Schrödinger :

Ce n’est peut-être pas un hasard !

 Représente l’intensité de la fonction d’onde et le potentiel de l’hamiltonien associé. Celui-ci, comme évoqué dans le livre, la conjecture de Goldbach forte et ses conséquences sur la théorie des nombres :

« En deçà du temps de Planck, il existe une zone intrinsèque de l’espace-temps dont on ne peut rien savoir, celui-ci n’a aucune direction privilégiée. Si une fluctuation quantique franchit cette zone, elle engendre une brisure de symétrie et confère à l’Hamiltonien un potentiel Vᶲ # 0. » correspond bien à une brisure de symétrie ou transition de phase comme dans le cas d’un condensat de Bose Einstein !

En effet, il faut piéger les particules d’un gaz dans un champ magnétique pour abaisser suffisamment la température et atteindre le seuil du condensat où λ =  h/Mv

Dans l’hypothèse du pré Big-Bang, il faudrait franchir le seuil de confinement où l’entropie de vient supérieure à zéro, ici c’est l’indiscernabilité quantique qui est atteinte (monopole magnétique et courbes d’hystérésis) et lorsque T < Tc avec Tc, température de Curie, les particules du condensat deviennent ferromagnétiques, particules indiscernables soumises à l’interaction d’échange Heisenberg !

1)

2)

3)

C’est un peu capillotracté mais en triturant la courbe 3) nous obtenons des courbes semblables !

Ceci est du principalement à l’effet mémoire des systèmes adiabatiques et du principe de confinement, il est à noter que tous peuvent s’expliquer par des effets de la mécanique quantique : états indiscernables et fluctuations du vide.

Evidemment la courbe 3) est montrée ici avec son amplitude maximum et un facteur d’échelle, toutefois si l’hypothèse d’une singularité initiale est retenue, il reste à passer de la température de Planck Tp au micro Kelvin µK !

Il faut imaginer les fluctuations quantiques de l’ère du pré BIG-BANG juste avant l’émergence du temps pour de températures versus énergie n’excédant pas le µK…

A-t-il existé alors un monopôle magnétique primordial proche de l’état fondamental ?

La relativité générale et son principe d’équivalence entraine que la masse pesante ne saurait être différente de la masse inerte sans quoi le premier principe de la thermodynamique serait violé. Cependant, d’après Zwicky, ce n’est pas ce qui est constaté indirectement dans les amas de galaxies où celles-ci devraient s’échapper du centre de masse, il faut y ajouter 33% de matière noire et 73% d’énergie sombre pour compenser les 4% de matière ordinaire et rendre compte de la cohésion du cosmos !

Mettez-y du super et ça va marcher ! pour l’instant aucune particule de cette matière n’a encore réagi dans des pièges de cristaux de germanium refroidis juste au-dessus du zéro absolu pour pouvoir capter la moindre élévation de température !

Matière noire et énergie sombre se seraient former au moment du BIG-BANG. Depuis, l’attraction du premier décroit pendant que l’expansion de la seconde augmente elle se seraient croiser après 5 milliards d’années comme le montre le schéma suivant :

Quant à l’énergie sombre, il semblerait qu’elle entraine l’univers vers une mort thermique par refroidissement mais tout ceci a déjà fait l’objet d’une discussion plus avant avec la courbure de l’univers !

Si la RG permet d’écrire une histoire de l’univers depuis le BIG-BANG elle ne peut coupler la gravitation aux  théories de jauge : il faut utiliser la mécanique quantique pour décrire le monde des particules subatomiques sans remettre en cause la singularité à l’origine de tout ce qui compose l’univers : baryons mésons, période inflationnaire création des premiers atomes et libération des photons, le bilan est le suivant : pas de détection de particules de matière noire, pas de détection de gravitons, expansion accélérée d’origine inconnue !

Entre les lois de la mécanique classique et celles du domaine quantique, il peut être tentant d’établir un tableau de correspondances afin de trouver un langage commun :

Mais ce langage ne sera jamais complet puisque le terme le plus à gauche du schéma ne l’est pas, il restera toujours une part d’obscurité même si la théorie qui sous-tend le terme de droite est cohérente, de même que l’on se rapproche du zéro absolu, il faudrait disposer d’un temps infini mais cela n’empêche pas d’essayer, il faut imaginer Sisyphe heureux !

Selon Newton, les objets soumis à la pesanteur, tombent à la même vitesse v mesurée avec un temps absolu dans un espace qui ne l’est pas moins. Or en relativité restreinte v dépend du temps propre mesuré par une horloge associée à un référentiel inertiel ou galiléen.

Dans l’expérience de MICHELSON et MORLEY, la vitesse de la lumière ne se compose pas, elle reste constante, il n’y a pas de mesure possible de la vitesse de la terre dans l’éther luminifère !

L’équivalence de la masse et de l’énergie selon E=mc² était connu bien avant la RG mais ce qui ne l’était pas était la variation l’énergie d’un rayon de lumière dans un champ de gravité, en effet pour les objets dont la vitesse v<<c les lois de Newton restent une bonne approximation mais l’avance du périhélie de mercure sans la découverte de l’hypothétique planète vulcain restait un mystère centennal !

La loi universelle de la dynamique selon sir Isaac  « F=mγ » ne l’expliquait pas mais il y a pire, elle était non causale en agissant instantanément à distance, il fallait une réforme législative !

D’après le principe d’équivalence, masse pesante et masse inerte sont une seule et même entité, il faut donc étendre le principe de relativité à un champ de gravité et il revient au même de considérer un repère fixe K et un repère K’ accéléré selon γ par rapport à K selon l’axe z commun où S₁ et S₂ sont des repères associés à des instruments de mesure identiques en z sans connaître à priori l’influence de la gravité sur les horloges qui effectuent la mesure.

Un rayon de lumière est émis de S₂ vers S₁ avec une différence d’énergie potentielle γh et si nous observons le transfert d’énergie depuis un repère non accéléré K₀ les photons arrivant de S₂ vers S₁ et en S₁, il se sera écoulé un temps h/c mais à cet instant S₁ possède la vitesse v = γh/c par rapport à K₀

Et le rayonnement arrivant en S₁ peut s’écrire E₁=E₂(1+v/c) = E₂(1+γh/c²) éq1

Toujours d’après le principe d’équivalence la même relation peut-être remplacer le repère K, situé dans un champ de pesanteur par le système K’, sans pesanteur, accéléré uniformément dans le sens positif de l’axe des Z avec S₁ et S₂ liés à l’axe des z du système K’.

Nous pouvons alors remplacer γh par le potentiel de gravitation Φ en S₂ telle que la constante arbitraire est posée nulle en S₁.

L’équation éq1 s’écrit alors : E₁ = E₂+ Φ.

Ainsi l’énergie E₁ arrivant en S₁ est supérieure à celle en S₂ d’une quantité d’énergie potentielle de la masse   . Ainsi pour que la conservation d’énergie soit respectée dans un champ de gravité, on doit ajouter à l’énergie E avant son émission en en S₂, l’énergie potentielle Φ à sa masse pesante .

C’est à ce prix que peut être conservé le premier principe de la thermodynamique pour des systèmes accélérés par un champ de pesanteur tel que la masse pesante est égale à la masse inerte !

Si l’on se réfère à K0, le rayon arrivant en S₁ a transféré la quantité d’énergie E(1+γh/c²).

Pour un corps W de masse M, le travail Mγh est cédé de l’extérieur en arrivant en S₁ où la masse pesante prend la valeur M’, on peut élever W en S₂ et le travail M’γh est dépensé, c’est un cycle où de l’énergie a été cédée puis à nouveau transférée fournissant au système et d’après la conservation de l’énergie on doit avoir :

M’γh- Mγh = , soit : M’-M = , ceci découle de l’équivalence de la masse pesante en K et de la masse inerte en K’.

Effet doppler dans un champ de pesanteur uniforme :

Des mesures avec des horloges identiques vont attribuer au rayonnement provenant de S₂ une fréquence en ν₂ augmentée en S₁ de ν₁ = ν₂ (1+ γh/c²) ou ν₁ = ν₂ (1+ Φ/c²).

Or dans cette approximation les fréquences ν₁ mesurée en S₁ et ν₂ mesurée en S₂ l’ont été avec la même horloge U mais rien n’indique que cette horloge U mesure le temps de la même manière avec des champs de potentiels différends. Il faut définir un temps dans le système K de tel sorte que les fréquences ν₁ et ν₂ soient indépendantes de la valeur absolue du temps entre S₁ et S₂, il s’agit d’un processus stationnaire, sinon cela reviendrait à définir le temps avec le temps !

Si l’on veut obtenir une mesure identique en S₁, il faut utiliser une horloge U qui retarde d’un facteur 1+ Φ/c² en S₂. Mesuré avec une telle horloge, la fréquence du rayon mesuré en S₂ est ν₂(1+ Φ/c²  ). Or d’après ce qui précède c’est la même que ν₁ mesuré en S₁. D’où dans le système K’ accéléré, sans champ de gravitation nous mesurons partout la même vitesse avec des horloges U de même construction. Si c₀ est la vitesse de la lumière mesurée à l’origine des coordonnées telles que Φ = 0, alors la vitesse de la lumière à un endroit de potentiel de gravitation Φ est c = c₀(1+ Φ/c²) éq2. La constance de la lumière n’est pas respectée dans cette théorie, elle dépend du lieu de propagation dans un champ de gravité, de ce fait, nous pouvons déjà entrevoir dans les équations de la relativité générale des termes non linéaires !

Par contre les équations de Maxwell sont linéaires et peuvent être représentées dans l’espacetemps euclidien de la relativité restreinte mais le rayon lumineux va suivre une trajectoire qui pour minimiser l’action de l’énergie soit E=mc² doit être considérer dans un espace courbe comme la trajectoire d’une cycloïde décrite par Leibniz mais c’est surtout un champ qui se déforme en fonction de la densité de matière contenue dans l’espace où le champ est déformé.

De sorte que dans l’espace euclidien, la somme des angles du triangle fait 180° mais que dans d’autres géométries non euclidiennes comme dans l’espace de Riemann, cette somme dépend densité de matière qui déforme à son tour l’espace, sur une sphère elle est inférieure, sur un espace hyperbolique, elle est supérieure.

Nous avons que selon le type de courbures donc de géométries, l’évolution de l’univers pouvait avoir un destin différend la relativité générale qui unifie espace, temps et matière en donne une formulation générale dans une description géométrique de l’espace-temps !

Ainsi des rayons lumineux peuvent être déviés dans un champ de gravitation. Si l’on considère une onde plane à l’origine du processus, alors à un instant t+dt, le vecteur unitaire dans la direction des n’ croissants donne une déviation α entre deux points P1 et P2 distants d’une longueur unité 1 telle que sur le chemin cdt :

En considérant un champ statique, la théorie est une généralisation de l’équation de Poisson :∆φ=4πkρ. D’après l’équation éq2, avec la vitesse de la lumière c supposée constante dans le temps mais variable d’un point à l’autre de l’espace, nous (Einstein) pouvons obtenir une équation homogène en c, telle que : ∆c = k {cρ +(1/2k)( grad²c)/c}

En multipliant par c cette équation nous obtenons pour un champ gravitation statique :

c∆c-  grad²c = kc²σ où σ désigne la densité de masse (+densité d’énergie). Comme c varie en fonction du lieu mais pas de la direction, c(x,y,z) définit entièrement le champ de pesanteur et c est déterminé à un facteur numérique près. Ainsi, nous obtenons les équations du mouvement d’un point matériel dans un champ de pesanteur homogènes en c au premier ordre (les termes en x² peuvent être considérés comme nuls) :

Le terme à gauche de l’équation représente la dérivée par rapport au temps de la quantité de mouvement divisé par m du point matériel. Le second terme du membre de droite représente l’ensemble de toutes les autres forces.

En relativité galiléenne, la masse inertielle reste la même pour des repères non accélérés. Les équations de Maxwell sont invariantes pour ces mêmes repères avec les transformations de Lorentz.

Avec L’équivalence de la masse inerte et de la masse pesante, la relativité galiléenne étendue à la relativité restreinte se heurte à la vitesse de la lumière où l’on ne peut composer les vitesses. Ainsi une représentation vectorielle dans le plan euclidien ne convient plus, c’est la géométrie de l’espace-temps de Minkowski !

Pour conserver l’invariance en mécanique classique, il faut réécrire les lois de la physique en tenant compte de la gravitation, c’est ce à quoi s’attèle la relativité générale.

Il ne s’agira plus de force s’exerçant sur un point matériel à l’instar de l’équation fondamentale de la dynamique ,  mais de Tenseur et en réécrivant l’équation dans un champ de pesanteur  :

nous pouvons obtenir en obtenir une formulation lagrangienne en posant H = -m(c²-q²) , elles s’écrivent alors :

Ce qui donne dans un champ de gravitation statique :

C’est la forme du principe de moindre action :

Avec m, masse du point matériel au repos.

En effet, d’après le principe d’équivalence, ds² est la distance parcourue dans le temps dt² par un point matériel dans l’espace-temps à quatre dimensions, il reste invariant dans tous les référentiels. Pour un référentiel en chute libre donc accéléré, la loi de la chute des corps devient pour l’observateur également en chute libre :

L’indice α représente ici les coefficients des quadri vecteurs de l’espace-temps avec α variant de 0 à 3, c’est l’équivalent de la loi fondamentale de la mécanique newtonienne, ainsi ζ⁰=cte, ζ¹=x ζ²=y, 𝜁3 = 𝑧 avec l’équivalent du théorème de Pythagore dans l’espace courbe de l’espace-temps 𝑑𝑠2 = 𝑐2𝑑𝑡2 − 𝑑𝑥2 − 𝑑𝑦2 − 𝑑𝑧²

Equations du mouvement d’un point matériel dans un champ de pesanteur quelconque :

Retour sur le principe d’équivalence, nous sommes partis d’un repère fixe K dans lequel le point matériel était soumis à une accélération , ce qui revient au même de considérer un référentiel K’ accéléré par rapport à K, de la même grandeur affectée d’un signe moins ou accéléré vers le haut !

Alors ds devient ds’ et nous devons effectuer un changement de coordonnées en pour revenir à un référentiel galiléen : en chute libre on avait :

, qui devient dans le référentiel galiléen :

avec x⁰(ζ⁰,ζ¹,ζ²,𝜁3), la fonction
inverse donne ζ⁰[x⁰(s), x¹ (s), x²(s), 𝑥3(s)] et le calcul de

est celui d’une fonction composée :

Le terme de droite donne la force gravitationnelle dans le référentiel galiléen, il explique les forces de gravitation dans un laboratoire terrestre, si on ne tombe pas c’est que nous subissons la contre réaction du sol.

Le terme de gauche représente la géométrie de l’espace courbe ou le chemin le plus court, ainsi un avion sur un vol Paris Tokyo passera par le pôle nord, à l’échelle locale, si l’on prend deux explorateurs qui partent de l’équateur en suivant des trajectoires orthogonales, ceux-ci vont suivre des droites parallèles. Or deux droites parallèles ne doivent pas se rencontrer selon le 5ème postulat d’Euclide et pourtant, quelle que soit leur direction, ils vont se rejoindre aux pôles !

Cela dépend de la courbure comme expliquée précédemment, dans d’autres cas, ils vont effectivement ne jamais se rencontrer (là où les angles d’un triangle sont supérieur à 180°).

En conclusion, des relations :

On aboutit au cas général par transformation des coordonnées à Eq1) :

Pour un référentiel non inertiel dx¹=dx²=dx³=0, d’où ds² = g₀₀(dx⁰) ².

Le dernier terme peut s’exprimer en termes de temps et ds² = g₀₀c²dt², le temps propre d’un observateur est donné par ds² = c²dτ²

Comme vu plus avant avec le principe d’équivalence, la relativité générale étend aux systèmes accélérés, le principe inertiel galiléen, non seulement, l’espace-temps courbe les rayons lumineux et déforment les corps en mouvement mais la masse grave, en retour déforme elle-même l’espace-temps, c’est le tenseur d’énergie impulsion qui se trouve impliqué dans l’équation de la relativité générale qui peut être calculée de façon exacte par approximations successives à l’ordre n :

La solution exacte à géométrie sphérique fut obtenue par Schwarzschild.

En général, le champ de gravitation est représenté par dix fonctions d’espace-temps :

Si l’on reprend l’équation de poisson ∆φ=4πkρ, φ représente le potentiel de gravitation newtonien et ρ la densité de matière, ils peuvent être représenté par le tenseur fondamental Gᵤν des gᵤν d’une part qui mesure les règles et les horloges (distances et temps propres) et par le tenseur dit d’impulsion énergie.

En effet, comme nous l’avons vu plus haut un processus comme l’émission d’une fréquence de S₂ en S₁ ne peut satisfaire à lui seul aux théorèmes de conservation, il faut y ajouter les composantes du champ de gravitation !

Ainsi pour obtenir l’équation des géodésiques invariante dans tous les référentiels, la solution des équations est à géométrie sphérique avec |gμν| = -1

À l’approximation zéro, le tableau suivant correspond à relativité restreinte :

Approximation à l’ordre 1

En négligeant les termes d’ordre supérieur à deux, les équations de champ peuvent s’écrire :

Eq1)

où α ne prend que les valeurs 1 à 3, c’est le coefficient des mêmes quadri vecteurs déjà vu.

Le tableau des dix fonctions d’espace-temps amène à :

Eq2)

À l’infini les gμν prennent les valeurs du tableau ci-dessus.

Ces conditions sont satisfaites si l’on pose :

Eq3) 

À ce stade, les composantes ᴦᵅμν du champ de gravitation, peuvent être calculées en première approximation et il résulte de Eq1 et Eq2 :

Eq4)

D’après les équations Eq1 et Eq2, un rayon lumineux qui passe au voisinage du soleil à une distance Δ subit une déviation angulaire de grandeur  :

Approximation à l’ordre 2

Compte tenu de Eq4 et des propriétés de symétrie / |gμν| = -1, l’équation de champ devient

Eq5) :

Si l’on se limite à une vitesse (v/c<<1) avec v désignant la vitesse caractéristique du système en mouvement par rapport à la masse centrale de la solution de Schwarzschild.Alors les dx₁, dx₂, dx₃, sont petits devant dx₄. En ne considérant le membre de droite de l’équation que le terme σ = τ = 4 et compte tenu de Eq4) :

 Mouvement des planètes

Si l’on introduit dans le plan de l’orbite les coordonnées polaires r et φ, la loi de conservation de l’énergie et la loi de aires (vitesse aréolaire = cte).

Nous obtenons :

Compte tenu des équations qui précèdent, on obtient exactement à l’ordre 2 :

Pour obtenir à partir de cette équation, la rotation séculaire de l’orbite elliptique, il suffit de remplacer les termes d’ordre 1 dans la parenthèse du membre de droite en utilisant

On obtient d’abord :

Avec

il vient en désignant par x, 1/r

Eq6) :

L’angle décrit par le vecteur qui parcourt l’ellipse entre le périhélie et l’aphélie est déterminé par l’intégrale elliptique entre les bornes 𝛂₁ et 𝛂₂ de racines de Eq6) = 0

Soit :

Tous calculs faits avec la précision de l’approximation au second ordre, donne :

Φ = π(1+ ) avec  la grandeur du demi grand axe de l’ellipse et e, son excentricité. Si T désigne la période de révolution en secondes à la vitesse de la lumière, on obtient une avance du périhélie de :

Si l’on néglige le dernier terme de Eq6), nous retrouvons les équations de Newton, par contre pour ce qui est de la précession du périhélie de mercure, avec la précision fixée, l’avance est de 43’’ par siècle, ce qui fût confirmé par Eddington en 1919 lors d’une éclipse de soleil en mesurant la déviation des rayons lumineux d’étoiles proches.

Ainsi, la relativité générale se révèle une théorie locale et surtout causale plus précise que celle de Newton !

Cependant, comme nous l’avons vu, elle s’applique aux corps célestes situés à des distances d>>Lp !

Maintenant, nous savons non seulement que l’univers est en expansion, depuis les observations de Hubble mais que les équations d’einstein l’impliquait comme l’avait calculé l’abbé Lemaitre !

Ainsi, sa théorie de l’atome primitif, est-elle devenue ce que l’on appelle le BIG-BANG, c’est-à-dire une singularité où l’univers avait une densité d’énergie infinie, où les relations suivantes ne s’appliquent plus quand ds = 0 :

Cependant pour un champ de gravitation statique, nous avions :

C’est une question d’interprétation physique des équations, en effet si nous admettons que le zéro ou le néant n’existent pas, alors nous devons commuter les opérateurs et écrire   = K avec K, constante ou masse de Dirac telle que K=10^19Gev, ce qui est analytiquement juste mais ne nous renseigne pas plus sur la signification physique !

La théorie d’einstein peut ainsi être étendue aussi près que l’on veut du passage à la limite :

Lorsque d→0, nous passons de grandeurs déterministes à une impulsion de DIRAC, ce qui évacue bien le problème de la singularité et le problème des origines dans les équations au prix d’une commutation des opérateurs intégrale et delta de Kronecker. Une interprétation physique peut être avancer en faisant l’hypothèse que cette commutation des opérateurs correspond à la période inflationnaire de l’univers ou brisure de symétrie !

Pour autant, la mécanique quantique reste la seule théorie pour expliquer ce qui se passe lorsque d~Lp, une fois que la lumière devient visible il y a 380.000 ans après le BIG-BANG !

Conclusion : Il reste toujours deux théories pour expliquer un seul univers, d’une équation de champ de gravitation à une distribution de Dirac en remontant le temps jusqu’à l’énergie de Planck.

Les équations d’einstein peuvent s’inscrire dans le champ quantique si l’on admet la Sussy qui couple la force de gravitation au modèle standard avec l’hypothétique graviton qui ne peut être détecté par les accélérateurs de particules dont l’énergie se révèle insuffisante pour reproduire les conditions de la singularité initiale, eût-elle été de densité finie !

C’est bien le problème de la flèche du temps qui conduit à cette impasse, empêchant non pas de remonter à une singularité mais à un évènement singulier non reproductible à moins de considérer l’hypothèse d’une ère de pré BIG-BANG dans un espace de confinement épigénétique d’où émergea notre univers avec ses lois propres mais c’est une autre histoire…

Théorème…

La relativité générale semble avoir été complétée :

  • Si l’on admet la commutation des opérateurs ẟ et ∫
  • Si l’on admet la non existence du zéro ou du néant
  • Une distribution de Dirac comme origine de notre univers

En effet, nous pouvons décrire une histoire de l’univers du BIG-BANG jusqu’à son expansion depuis environ 13.7 milliards d’années lumières avec la RG complétée ou RGC !

Quand d→0 ou d<<Lp, les notions de trajectoires et d’espace-temps ne sont plus valables, les particules subatomiques ne sont plus décrites que par la mécanique quantique mais si la RGC => la MQ, alors comme nous avions vu :

Nous devons tenir compte d’une ère de pré BIG-BANG où l’interprétation physique de la distribution de Dirac primordiale est engendrée par une première brisure de symétrie dès que l’entropie franchit le seuil de confinement !

Mais il s’agit bien de sauts quantiques et la MQ => RGC donc RGC <=> MQ

Ce qui signifie une notion de symétrie totale que seule l’hypothèse du graviton peut étayer !

Avec cette particule il ne reste plus qu’une théorie physique pour expliquer notre univers mais la MQ implique une superposition d’état et un corolaire immédiat en est l’hypothèse du multivers, voici le théorème : Gµν =   Tµν = ρ(d,T) où ρ représente une densité d’énergie, d, une distance et T une température.

Revenons à nos hypothèses :

  • Si l’on admet la commutation des opérateurs ẟ et ∫
  • Si l’on admet la non existence du zéro ou du néant
  • Une distribution de Dirac comme origine de notre univers

Il se trouve que les opérateurs peuvent être inversés, en effet, avant son expansion, l’univers est statique au regard de la gravitation et à t ~ 0 la transformée de Fourier de la densité spectrale d’énergie donne directement l’énergie soit  :

En effet l’énergie est donnée par la DSP avec le théorème de Parceval :

La non existence du néant a déjà été démontré par l’absurde avec le paradoxe de l’ensemble des ensembles vides !

Quant à la troisième hypothèse, elle résulte directement des deux premières, cependant la théorie du multivers sous tendue reste encore à  définir…

L’hypothèse du principe de confinement et des soubresauts quantiques pourrait être testée avec la détection d’une polarisation du fond diffus cosmologique !

Pourquoi l’expansion a-t-elle reprise ?

L’hypothèse simpliste selon laquelle, plus l’univers poursuit son expansion, plus la densité de matière diminue donc moins l’expansion est contrainte par la gravitation pourrait s’avérer exacte !

En effet, c’est l’espace-temps lui-même qui s’étend mais si l’on considère le multivers, le nôtre avant de s’être décorrélé, peut être vu comme un objet quantique intriqué à son anti-univers !

Le raisonnement qui va suivre ne tient que si la non reproductivité du phénomène est considérée : une mémoire des univers quantiques perdurerait due au phénomène d’intrication !!

Ainsi, l’expansion de l’un aurait pour effet l’expansion de l’autre et ainsi de suite entrainant l’expansion exponentielle que l’on constate aujourd’hui.

Si l’univers est quantique, alors pourquoi peut-on reproduire un évènement comme envoyer l’homme sur la lune ?

La statistique de Boltzmann est à l’œuvre, pas celle de Bose-Einstein ni celle de Fermi-Dirac !

Cependant, si Boltzmann décrit l’entropie des objets macroscopiques, le monde subatomique, lui, n’est pas commutatif et une expérience n’est pas reproductible : aller sur la lune ne permettrait pas d’en revenir !

Si nous reprenons le scénario du BIG CHIL avec la courbure de l’univers où la géométrie est celle d’un triangle dont la somme des angles fait 180 degrés, après s’être refroidit, il continuerait son expansion jusqu’à la dislocation atomique. C’est alors le scénario d’un espace-temps vide de matière où les lois de la physique, contrairement à ce que pensait MACH, s’y appliquent encore et un corps en rotation en l’absence de toute influence y subirait la force centrifuge. Voici pour le destin de l’univers mais comment concilier la statistique de Bose-Einstein d’un univers quantique avec celle de la relativité générale ?

Nous l’avons envisagé avec l’hypothèse du pré BIG-BANG, le temps émerge de soubresauts quantiques et la non commutativité laisse la place à l’indiscernabilité classique où l’on ne peut remonter le temps, c’est l’histoire du cochon que l’on ne peut reconstituer, une fois qu’il a été mis en boites et pourtant les équations peuvent s’écrire avec la variable -t !

En fait, cela se produit dans les collisionneurs avec l’annihilation d’une particule et de son anti particule dont l’équation peut s’écrire :

̅n →̅p + e+ + ν, tandis que n→p+ e- + ̅v : v est un neutrino émis lors de la désintégration β d’un neutron en proton + émission d’un neutrino versus antineutron en antiproton et anti neutrino. En effet lors d’une transition d’un corps de telle sorte que (Z, A) → (Z+1, A) + e, un électron est produit puisqu’un neutron se transforme en proton. Une telle transformation continue avec une énergie électronique constante, impliquait la conservation totale de l’énergie en raison du premier principe de conservation énergétique.

Or des mesures précises effectuées par la physicienne lise Meitner, montrèrent qu’il n’en était rien et que c’est plutôt l’émission d’un spectre électronique qui peut prendre toutes les valeurs de zéro au maximum autorisé et pour conserver le premier principe, l’hypothèse d’une particule suplémentaire émise dans la désintégration β fût proposé par le physicien Pauli : le neutrino !

Mais il y a plus, l’existence d’antiparticules ou d’antimatière est équivalent à celles de particules qui remontent le temps !

Mais cela relève de la mécanique quantique et pour en revenir à notre anti-univers l’annihilation, n’aurait manifestement pas été totale et le premier principe de conservation pourrait de même s’expliquer par une particule, versus une pression continue exercée sur la matière. Pas de masse noire détectée et il semble que même des neutrinos tauiques n’y suffiraient pas !

Des univers intriqués pour expliquer l’expansion accélérée, semblent aussi peu probables mais le graviton réhabilité, la Sussy peut à elle seule, rendre compte du coté obscur de notre univers, en effet à toute particule, correspondrait une particule messagère. Tout photon qui est sa propre antiparticule aurait son anti-photon, appelé photino particule de matière de spin 1/2 entier et ce dernier serait à son tour sa propre antiparticule : de sorte que pour des univers entiers :

U₊ + U- → U + Sn (comme super neutrinos). Pourquoi n’ont-ils pas encore été détectés ?

S’ils sont supers, à l’instar des particules fantômes de l’intrication, leur durée de vie serait fugace. Si l’on refroidissait les atomes de gallium dans les chambres de détection, pour obtenir une précision relative de 10^-19, cela ne suffirait pas devant les 10^-62 secondes calculées plus avant, aucune détection possible en laboratoire !

Là encore, seul le fond diffus cosmologique pourrait les révéler comme des paires de particules superpartenaires résidu ou polarisation de la période de Pré BIG-BANG…

Certes, nous pourrions détecter une polarisation des ondes gravitationnelles mais la particule messagère, le graviton ne pourrait l’être par interférométrie même spatiale et si la Sussy peut être vérifiée expéritalement, c’est bien par la détection de cette particule messagère !

 

Comment faire, quelle expérience peut-elle mettre en jeu les 10^19Gev ?

Rendez-vous à la grande arche de la Défense : que voyez-vous, en dehors de l’exploit technique qui surpasse de loin la technique de l’arche gothique et des arcs boutants ?

C’est une projection en 3 dimensions d’une arche imaginaire en quatre dimensions, de même qu’un dessin en deux dimensions représente un dé en trois dimensions !

Notre univers lui-même ne serait que la projection holographique en trois dimensions d’une réalité en deux D : c’est la conjecture de MALDACENA ou dualité holographique !

Matière et énergie :

Actuellement à Saclay, l’ancien accélérateur linéaire a fait place au projet Appolon, avec lequel, il est prévu d’atteindre sur un tir laser d’une puissance de 10^16 w sur 1 femtoseconde !

Pour se rapprocher des 10^19 Gev, il faudrait maintenir un tel faisceau pendant 10^3 secondes !!

Puissance et taille des instruments vont de pair, ainsi à Saclay, il est prévu un bunker de tir de 700m²

Mais poursuivons avec la production du graviton : pour atteindre un tel seuil énergétique et suivant le principe d’incertitude, ces particules n’existeraient que pour un temps minimum tel que ΔΕ . Δt ≥   h/4pi et : t_min = h/4pi.ΔΕ

Comme nous l’avons vu plus haut l’énergie produite à l’ère de Planck ou au moment du Big-Bang est de l’ordre de 10^19 GEV, la constante de Planck vaut environ 6.62 10^-34

Ce qui fait t_min   peu différent de 6.62 10^-34/4pi.10^28 soit : 10^-62 secondes et nous donne la longueur du trou de ver parcouru à la vitesse de la lumière : l # 10^-62 .3.10^8, soit environ 10^-53 mètres, stupéfaction, c’est l’ordre de la taille d’un trou noir électronique calculé avec le rayon de Schwarzschild !!

Or, il se trouve qu’avec la puissance atteinte du projet Appolon, sur une cible de 40cm, la matière se retrouve à l’état de plasma permettant ainsi de la «filmer» aux échelles de temps et d’espace atomiques !

 

Quelle devrait être alors la taille du bunker pour la détection du graviton ?

Avec la dualité holographique, les 700m² donnent une arête de 

~ 18520m³ soit approximativement 1/20ème du cubage intérieur total de la grande arche, il reste encore un ouvrage important à bâtir mais pas impossible : doubler les 7000m³ du projet Apollon !

Autre représentation :

 

Conséquence de la détection du graviton :

Elle valide de fait la supersymétrie, donc une nouvelle théorie de jauge qui unie la relativité générale à la mécanique quantique, il reste à trouver la matrice de passage entre les tenseurs de Ricci et le groupe de symétrie SO(3) !

Le graviton, à l’instar du photon pour la lumière ou l’électromagnétisme, est la particule messagère de la gravité. Nous savons depuis Einstein que la gravité courbe la lumière, celle-ci suit les courbes géodésiques de l’espace-temps.

Cependant, selon la même relativité générale, les forces d’attraction ne sont pas instantanées. Si un génie retirait le soleil, nous ne le saurions que 8mn plus tard !

Cela revient à dire que la déformation géométrique engendrée par le soleil, se produirait également au bout de 8 mn. C’est le temps mis par la vitesse de la lumière pour transmettre les photons du soleil jusqu’à la terre mais il en est de même de toutes les particules émises à la vitesse de la lumière, donc du graviton !

C’est exactement ce qui se passe pour des corps massifs, comme la coalescence de deux trous noirs qui ont engendrés des ondes gravitationnelles détectées par l’interféromètre LIGO en 2016. La question est : pourquoi ne détectons-nous pas les ondes gravitationnelles du système solaire ?

La réponse est, la stabilité ou l’inertie du système solaire. Si le démiurge retirait le soleil, les mêmes plissements de l’espace-temps apparaitraient, en effet, il ne pourrait le faire instantanément et des oscillations ou ondes gravitationnelles seraient générées comme celles prévues par le futur interféromètre spatial de l’expérience eLISA pour détecter dans le fond diffus cosmologiques, non pas des ondes lumineuses mais les premiers soubresauts gravitationnels peu de temps après le  Big-Bang avant même que la lumière ait pu se libérer, 380000 ans après le temps de Planck !

En conclusion, ondes gravitationnelles et détection d’une polarisation du fond diffus cosmologique, même combat : dans les deux cas, nous pouvons l’expliquer par la relativité générale, le seul problème est l’hypothèse du démiurge, pour s’en passer, il conviendrait de détecter le graviton mais là, sans même l’avoir détecté, il faut renoncer à la singularité initiale et aux infinis afférents pour faire place à la RGC, seule capable de relier cette particule aux théories de jauge !

Des algorithmes sans fins et pourtant !

Comment les physiciens peuvent-ils se poser des problèmes sans solution ?

Ainsi, l’origine de l’univers est toujours soumise à controverses alors qu’il est patent qu’il y a toujours eu quelque chose comme expliqué plus avant avec le paradoxe topologique de l’ensemble des ensemble vides !

En réalité, ce n’est pas une question sans fondement, mais elle est mal posée, un peu comme se demander à l’instar des pythagoriciens, si la surface d’un cercle pouvait s’exprimer en termes de surface égale d’un carré de côté R ou quadrature du cercle. Nous savons depuis que S = πR² avec R, rayon du cercle. En effet, il n’y a aucune régularité dans les décimales du nombre PI, qualifié de transcendant, au même titre que e, la base du logarithme népérien, le nombre d’or exprimé avec la suite de Fibonacci !

Ces nombres peuvent toutefois s’exprimer à l’aide de suites, mais on ne peut que réaliser des exploits en établissant des records avec la plus grande décimale jamais encore calculée !

La formule mathématique nous le permet mais on ne peut prédire arbitrairement la valeur de la énième décimale voulue ! comment la nature se sert-elle par exemple du nombre d’or sans utiliser la formule, les lois préexistent-elles, sont-elles inscrites dans le marbre des platoniciens ?

Nous en avons déjà discuté avec l’hypothèse du multivers mais il existe une façon sans équivoque d’étayer cette théorie, c’est la détection du graviton et elle est maintenant à portée de tir laser avec la construction d’un bunker géant, c’est une question de volonté politique, qui sera le vainqueur de la course à l’infiniment petit : l’Europe (Russie comprise) ou les lanceurs de la Saturne 5 issue de la technologie des V₂ ?

Autre approche calculatoire :

Le volume croit comme le cube et la surface comme le carré, soit une cathédrale de volume V, ramené à un cube d’arête a, nous avons donc :

En doublant le volume nous avons fait une élévation au cube, alors que la surface s’est trouvée simplement doublée ! ce qui explique que plus les cathédrales sont massives, moins elles sont lumineuses mais c’est aussi une explication simple du principe holographique ou entropique dans laquelle deux dimensions suffisent à coder toute l’information d’un objet en 3D !

Ainsi il suffirait de doubler les 700m² soit 1400m² représentant un volume de 52483m³.Les 18520m³ calculés précédemment ne représentant qu’un facteur de ~ 1/2.83 !

C’est ce qui existe actuellement au bunker apollon, il faut donc plus que doubler son volume et la différence vient de ce que le bunker n’est pas un cube mais ce n’est toujours pas impossible !

Selon la relativité restreinte, les équations du mouvement sont relatives à un repère galiléen ou inertiel et l’on passe d’un à l’autre par les transformations de Lorentz. Il n’en va pas de même en relativité générale où les équations sont invariantes par changement de repère, la métrique de l’espace-temps s’exprime par .

Si l’on considère un évènement A de cet espace-temps comme origine ou point fixe des évènements, il faut considérer le cône de lumière minkowskien et trois cas se présente :

1) ds²=0 et les évènements se déroulent au bord du cône :

  • (c’est le présent où les évènements ont lieu à la vitesse de lumière)

2) ds²<0 et les évènements se déroulent à à l’intérieur du cône  :

  • (c’est le passé où les évènements ont déjà eu lieu)

3) ds²>0 et les évènements se déroulent à l’extérieur du cône :

  • (c’est le futur qui n’a pas encore eu lieu)

Un problème majeur se pose alors, le graviton devrait avoir une masse nulle, mais si comme le postule la RG, il n’y a pas de repère privilégié, alors aucune polarisation ne devrait être détectée sinon un bruit de fond gravitationnel local !

Elle peut l’être localement comme cela fût le cas avec des interféromètres mais il est vain de le faire globalement, comme il est vain dans un repère inertiel de détecter son propre déplacement ou en RG de composer la vitesse de la lumière, c’est aussi un invariant !

De cela, il résulte que si les neutrinos ne sont pas assez massifs pour expliquer l’expansion accélérée et la matière noire, le graviton ne pourrait pas plus être candidat, à moins de considérer la RGC et la théorie du multivers, le BIG-BANG n’étant qu’une articulation mécanique entre univers ou le résultat d’un soubresaut quantique issue de l’ère de pré BIG-BANG, dans tous les cas, un univers ne suffit pas !

A cet égard, l’expérience BICEP2, en ce qu’elle voulait détecter, était vouée à l’échec, la détection du graviton, comme suggérée plus avant, peut-être réalisée dans des conditions moins précaires que les glaces de l’antarctique !

La nature réelle du monde

Sommes-nous dans l’espace-temps de la RG où les phénomènes quantiques se manifestent dès que ∆E.∆t ≥ h/2π ou dans un univers quantique où la RG n’est qu’une manifestation locale d’un univers épigénétique ?

Certes, il s’agit là d’une question d’échelle mais si la superposition d’états se produit dans le multivers, elle nous est à jamais inaccessible, ce qui ne serait pas le cas des phénomènes d’intrication !

Il ne peut exister qu’une conclusion logique : intrication et superpositions d’états ne sont que les deux faces d’un même phénomène : la non localité par échange de gravitons au travers de trous de ver du type trou noir extrémal.

Mais comme nous l’avons vu, pour préserver le premier principe de la thermodynamique, ces trous doivent s’ouvrir et se refermer dans un espace-temps granulaire, ce qui est contraire à celui, lisse et continu de la RG mais pas de la RGC où le problème de la continuité est évacué par celui de la non existence du point ou du zéro en physique !

Tout comme l’on ne peut affirmer que l’intelligence, c’est ce que les tests de QI mesurent, on ne peut pas plus affirmer gratuitement que le temps est ce que mesurent les horloges, c’est une question de référencement !

Mais pour revenir à la granularité de l’espace-temps, dire que l’on ne peut pas intrinsèquement faire une mesure du temps, c’est dire que les horloges marquent le pas dans la mesure du temps ou qu’il échappe à toute mesure ou intégration au sens mathématique du terme ou métaphoriquement, qu’il s’écoule si discrètement qu’aucune clepsydre ne peut le contenir !

La discontinuité d’une fonction en un point f(x₀) implique que celle-ci n’est pas dérivable en ce point pas plus qu’elle n’est intégrable. Ceci a pour conséquence, qu’une mesure est impossible à réaliser : essayez de mesurer la montée de la fonction Heaviside quand elle passe de zéro à un !

Avec un espace-temps granulaire ou discret, nous ne pourrions mesurer les vitesses, donc l’expansion de l’univers, celui-ci ne saurait être que statique à moins que la précision de nos instruments de mesure ne soit inférieure à la longueur d’onde gravitationnelle, ce qui n’est pas le cas puisque cela a déjà été mesuré, donc la granularité ne peut être infirmée mais est-elle établie ?

Toutefois, dans le monde de la simulation des phénomènes physiques de la RG, c’est le traitement numérique qui a pris le pas, cela est dû au développement de la puissance des calculateurs qui traitent l’information en base deux et ce n’est pas le moindre des paradoxes que s’attaquer à des phénomènes continus à l’aide de machines dont les composants ont un comportement quantique comme les semi-conducteurs !

Cependant, avec la théorie de l’information, il est prouvé que le traitement binaire est optimal si l’on se ramène à l’équipartition des évènements, ainsi quelle est le nombre de pesées avec une bascule à plateaux pour trouver la pièce d’un poids différents parmi 8 ?

La réponse qui vient à l’esprit est 3 mais elle n’est pas optimale : la pesée en elle-même est de 3 évènements, plus lourd, moins lourd ou égale, celle de l’ensemble est 8 et la réponse correcte est ln (8) / ln (3) ~ 1.89 mais on ne peut raisonnablement en réaliser que deux et c’est la bonne réponse !

Démonstration :

Supposons que l’on cherche une pièce plus légère : Je prends 6 pièces, j’en met trois sur chaque plateau, si la balance est équilibrée, il reste 2 pièces, je fais une nouvelle pesée, et je trouve la pièce incriminée, sinon j’en prends deux parmi les plus légères et j’effectue une nouvelle pesée : résultat, deux pesées. Certes mais nous avons réalisé une expérience idéale en supposant l’erreur de pesée inférieure à la différence de poids !

Mais comme il a été maintes fois répété, nous forçons la nature à nous donner des résultats à toutes les échelles grâce à la décohérence quantique dans les cas où l’on ne possède que des probabilités lorsque la longueur d’onde des objets n’est pas petite devant le pouvoir séparateur des instruments de mesure !

A cet égard, le couplage d’ondes impulsionnelles peut se traiter de manière analogique avec les diagrammes en chemin de fer de Bergeron et la précision est liée au trait de crayon mais le traitement numérique nous laisse loin derrière !

Cependant pour numériser, il nous faut toujours partir d’un filtre passe bas qui élimine le recouvrement spectral comme il a été vu plus avant, d’un échantillonneur bloqueur et d’un convertisseur analogique/numérique ou CAN en entrée, la restitution dépend quant à elle d’un compromis vitesse de traitement/précision !

À ce titre, quel que soit le nombre de bits utilisés, la mesure sera toujours entachée d’un bruit numérique dû au pas d’échantillonnage q=∆Vmax/2ⁿ avec une erreur quadratique moyenne ε= q²/12 !

Cependant, le bruit peut se révéler être lui-même une information, il en est ainsi du rayonnement fossile à 3°Kelvins mais un tel signal en provenance du passé était attendu par la communauté des physiciens et il a été découvert de manière fortuite par les ingénieurs Penzias et Wilson de la compagnie Bell qui avait toujours ce bruit de fond quelque soit l’orientation de leur antenne, même en nettoyant les crottes de pigeons…c’était le même bruit que sur votre récepteur de télévision lorsque celui-ci n’était calé sur aucun canaux, il apparaissait alors sous forme de neige…

Mais les tubes cathodiques ont maintenant été remplacés par les écrans plats des récepteurs numériques, cependant les porteuses, sont modulées par un signal numérique et le bruit du rayonnement fossile n’est plus capté !

C’est le revers du tout numérique, jusque dans les transmissions par fibre optiques où comme il a été vu, le recouvrement spectral du signal échantillonné limite le débit des uns ou des zéros mais aussi à cause du canal de transmission qui a sa propre limitation exprimée par une autre formule de Shannon :

avec B = bande passante du canal de transmission et N = bruit comme Noise, ici le bruit limite l’information dans le cas du rayonnement fossile, il la révèle !

Retour vers le futur

Si l’on se représente l’espace-temps de la relativité restreinte comme un bloc, passé, présent et futur y sont déjà figés, nous n’aurions pas de choix ou de libre arbitre puisque c’est déjà écrit, le présent n’étant qu’une question de référencement ou de causalité, il n’y a pas de présent absolu puisqu’il ne peut y avoir d’évènements simultanés. Seule la flèche du temps donne une indication commune depuis le BIG-BANG jusqu’à la fin des temps !

De ce fait nous pouvons dire qu’à l’ère du pré BIG-BANG régnait la supersymétrie, nous sommes passés d’une entropie nulle à une augmentation d’entropie en passant par une impulsion de DIRAC de masse constante égale à 10^19 Gev. L’entropie est passée de 0 à 1 en normalisant le DIRAC. Quid de l’information ? un système où l’entropie est nulle possède le plus haut degré d’organisation, on peut dire qu’elle est optimale et inversement, plus l’entropie est forte, moins le système est organisé !

Nous pouvons représenter cela par le schéma suivant :

Ainsi à l’entropie nulle peut correspondre le DIRAC dont une partie est représentée en rouge mais comme la densité d’énergie n’est pas infinie, l’impulsion atteint un maximum à 10^19 Gev puis elle retombe progressivement à son minimum autour du zéro absolu, nous en sommes actuellement à 3°K !

En termes d’information, elle est passée de 1 (en normalisant le DIRAC) à 0 pour la température du zéro absolu. Cette représentation peut paraître arbitraire mais la RGC peut expliquer le Dirac et la courbe qui suit l’expansion de l’univers. Mais comme il a été vu l’ère du pré BIG-BNG présuppose un soubresaut quantique et par là même, la théorie du multivers avec une infinité de phases inflationnaires se succédant, donc à chaque fois une succession de 1 et de 0. Le multivers se comporte alors comme un processus optimal dans lequel l’équipartition correspond aux lois physiques de chaque univers pour lesquels isotropie et homogénéité en assurent la permanence ou l’invariance mais dont le bruit signe par contre leur spécificité !

Des lois propres à chaque univers mais une invariance issue d’un processus d’optimisation qui peut se traduire par le schéma suivant :

Notre univers peut être qualifié de métastable :

  • –  Méta, parce qu’il est couplé ou articulé au multivers !
  • –  Stable parce qu’avec l’expansion, la densité diminue jusqu’à atteindre une singularité où la mécanique quantique domine les forces de gravité à longue distance engendrant un phénomène de BIG-BOUNCE

Cependant, il est à noter qu’à chaque fois, les cartes sont rebattues, c’est un phénomène pseudo-cyclique et le deuxième principe de la thermodynamique est conservé : il n’y a pas de mouvement perpétuel !

Il est donc nécessaire que la trame de ces univers soit granulaire ou discrète !

L’équivalent de l’espace-temps continu est l’équivalent en mathématique de la continuité sur un intervalle donné, une infinité de 1 et de 0, comme l’apparence du trait de crayon qui n’est fait que d’une discontinuité de points vus au microscope électronique avec une résolution λ inférieure à la distance d ou pouvoir séparateur entre deux points !

La résolution de ce problème tient à la continuité d’une fonction dans l’espace de HILBERT et à celle dans celui de la mécanique quantique où l’on parle d’opérateurs autoadjoints : dans un cas l’espace vectoriel suffit à représenter tous les observables, dans l’autre, la symétrie des évènements n’est plus respectée et comme nous l’avons vu dans le livre : « la conjecture de Goldbach forte et ses conséquences sur la théorie des nombres » A.B ≠ B.A, l’ordre revêt la même importance que dans le calcul matriciel hormis l’identité, la matrice I ou une matrice de passage qui rend la diagonalisation possibles où A.P = A⃰ / A. A⃰ = I, en règle générale, les coefficients aij ≠ aji !

Un univers stérile

Si la Sussy régnait à l’ère du pré BIG-BANG, jamais aucune structure actuellement observable n’aurait vu le jour. En effet une homogénéité parfaite ou entropie nulle n’aurait rien produit, ce sont les petites inhomogénéités ou bruit quantique qui sont à l’origine de la nucléosynthèse !

À l’aulne du multivers, quelle est la proportion d’univers stériles, cela revient à poser la question, quelle est la probabilité de détection du graviton ?

Combien de campagnes de tirs laser d’une puissance de 10^16 w sur 1 femtoseconde faudra-t-il produire ?

Si l’on considère la largeur de spectre du signal laser dans le domaine du visible ou

800 10^-9m avec un train d’onde qui respecte le premier critère de Nyquist B=T, alors la probabilité est de l’ordre de grandeur de (10−15  3*10^8) /800 10^-9~12510^-9, c’est-à-dire une fois tous les 8 tirs, en 1 an à raison d’un tir par mois, on peut espérer détecter un graviton, ça en vaut la peine !

Thermodynamique des trous noirs

 Énoncé des quatre principes de la thermodynamique des trous noirs

Conformément à l’analogie thermodynamique, les quantités :

jouent respectivement le rôle de la température, de l’entropie et de l’énergie interne du trou noir.
Bardeen, Carter et Hawking formulèrent les quatre principes de la thermodynamique pour la physique des trous noirs de façon similaire aux quatre principes de la thermodynamique usuelle.

Principe Zéro : La gravité de surface d’un trou noir stationnaire est constante sur toute la surface de l’horizon.

La thermodynamique n’autorise pas l’équilibre lorsque différentes parties d’un système sont à des température différentes. L’existence d’un état stable est postulée par le principe zéro de la thermodynamique. Celui-ci joue donc un rôle similaire dans la physique des trous noirs.

Premier principe : Lorsqu’un système contenant un trou noir passe d’un état stationnaire à un autre, sa masse change de :

 

(1.8)

et sont les variations respectives du moment angulaire total et de la charge électrique du trou noir, et est la contribution à la variation de la masse totale du changement de la distribution stationnaire de matière à l’extérieur du trou noir.

Il s’agit simplement de la forme différentielle de la relation entre la masse et les paramètres physiques précédemment donnée.

Second principe : Dans n’importe quel processus classique, l’aire du trou noir et , par conséquent, son entropie , ne diminuent pas :

 

(1.9)

Cette forme, analogue au second principe de la thermodynamique, est une conséquence du théorème de l’aire de Hawking. Dans les deux cas (trous noirs et thermodynamique), cette seconde loi met en évidence l’irréversibilité inhérente au système dans son ensemble, et définit ainsi la direction de la flèche du temps. En thermodynamique, elle signifie que la part d’énergie interne ne pouvant être transformée en travail augmente avec le temps. De la même manière, elle signifie pour les trous noirs que la part de leur énergie interne qui ne peut pas être extraite grandit inévitablement. Comme en thermodynamique, la quantité délimite notre incapacité d’extraction de toute information sur la structure du système (en l’occurrence de celle du trou noir).

Troisième principe : en thermodynamique, le troisième principe a été formulé de diverses manières. Deux d’entre elles (essentiellement équivalentes) dues au physicien Nernst stipulent que :
(1) les processus isothermes réversibles deviennent isentropiques à la limite de la température nulle.
(2) il est impossible de diminuer la température de tout système jusqu’au zéro absolu en un nombre fini d’opérations.
Une version plus forte a été proposée par Planck : l’entropie de tout système tend vers une constante absolue qui peut être considérée nulle quand Ѳ tend vers 0.

Barden, Carter et Hawking formulèrent l’analogue du troisième principe pour les trous noirs de la manière suivante : Il est impossible, quelle que soit la procédure, de réduire la température d’un trou noir à zéro par une séquence finie d’opérations.

 

 

 

La prédiction de Von Neumann ou 2020 odyssée 3 :

Il semblerait que la singularité vient d’être atteinte avec l’I.A. peu importe le fait de savoir si la conscience artificielle a émergé, l’I.A vient de s’affranchir de ce qui lui a donné naissance : l’architecture Neumann du cycle Fetch, Decode, Execute, n’a pas attendu l’ordinateur quantique ou autres billevesées destinées à financer les laboratoires de recherches…

En effet, c’est l’humanité qui vient de franchir un cap ou une révolution numérique comparable aux précédentes comme l’agriculture, les premiers système de comptage, bouliers machines à calculer mécanique telle la pascaline et autres, les machines à vapeur, le train, le pipeline pour transporter le pétrole et maintenant le pipeline des nouveaux processeurs pour effectuer des instructions en parallèle ! les prédictions des Neumann, Alan Turing et de tous leurs prédécesseurs portaient en germe le dépassement des limites de ce qui fût appelée la loi de Moore liée à la technologie du silicium. La chimie du carbone également tétravalente est moins rigide et plus performante, surtout lorsqu’elle est mise réseau excentrée de son support dans la sphère sociale !

Cette singularité issue d’un réseau peut-elle apparaître chez les fourmis ? et bien oui, comme chez les termites, les abeilles ou tout ce qui peut s’apparenter à des automates cellulaires qui répondent à des stimuli, quel que soit le comportement de ces automates, une information a été échangée, c’est un langage qui doit être compris de celui à qui il s’adresse, à ce niveau de description, la conscience n’est pas nécessaire !

Il peut exister des algorithmes ou des calculs très élaborés à partir de règles simples comme le calcul binaire ou la théorie des jeux, cependant la conscience d’avoir un ou plusieurs adversaires est requise ! est-ce qu’un type d’organisation en réseau peut devenir chaotique malgré des règles prédéterminées ?

Entrez dans un superordinateur tous les paramètres requis une prévision météorologique ou tous ceux pour déterminer si le lancer d’une pièce la fera tomber sur pile ou face, n’importe quel calcul va diverger à cause de l’imprécision intrinsèque et des troncatures de calculs qui vont s’accumuler et ceci n’est pas lié à la technologie utilisée mais au fait que vous travaillez sur des systèmes non commutatifs où les règles sont celles d’un anneau A et non d’un corps Κ !

Soient a, b deux éléments de l’anneau A / a, b ϵ A a.b n’a pas la même valeur que b.a, dans un cas, celui du corps la commutativité est réalisée mais dans l’autre, celui de l’anneau, si a.b = 0 alors a et b peuvent être différents de zéro, ou autrement dit la loi «.» n’a pas d’élément neutre !

Pour le corps, vous manipulez des nombres pour l’anneau, ce sont des q-numbers.  Ces nombres sont issus de la physique quantique où ils sont associés au spectre des éléments atomiques. Par contre, comme il a été vu dans l’essai, la conjecture de Goldbach forte et ses conséquences sur la théorie des nombres, les nombres premiers peuvent être représentés par les distributions de Dirac telles qu’elles ont été intégrées dans le corpus des mathématiques par Laurent Schwartz. Pourtant l’opérateur intégral à la base de ce résultat sur l’ensemble des fonctions test est lui bien commutatif. Ainsi, si vous voulez connaître la réponse en fréquence ou fonction de transfert de n’importe quel système physique, il suffit de lui envoyer un Dirac en entrée et d’opérer une transformée de Fourier inverse pour obtenir le résultat !

En effet, TF[ẟ(t)*H(t)] = H(f).1= H(f). La fonction recherchée est bien TF-¹[H(f)]. Facile à dire mais allez construire une telle fonction de DIRAC, on peut passer par la dérivée de l’échelon HEAVISIDE mais c’est tout aussi impossible à réaliser !

Ainsi lorsque l’on veut échantillonner un signal pour le numériser et effectuer des opérations arithmétiques traitables par ordinateur comme le filtrage numérique et éviter les phénomènes de recouvrement spectral comme vu plus avant avec Féch >= 2.Fmax, il convient de faire un sur-échantillonnage. Par exemple pour les signaux téléphoniques où l’on a besoin de traiter la bande passante de la voix humaine il faudrait prendre Féch = 2.2 kHz = 4 kHz mais on prend un facteur 4, ce qui donne 4.2=8kHz soit un traitement tous les125ms, c’est ce qui est réalisé dans les différents multiplexeurs du RTC en Europe (réseau téléphonique commuté) qui traitent chacun 8 signaux en entrée !

En matière de réseaux, il y a mieux : le GSM et son système satellitaire (iridium) associé. Dans l’architecture au sol, c’est la géométrie hexagonale qui a été retenue, la raison en est fort simple : l’hexagone rempli n’importe quelle surface de façon optimale, ce n’est pas pour rien que les abeilles l’ont adoptée dans leurs ruches, elle a d’ailleurs été baptisée structure nid d’abeille dans moult activités humaines !

Tout ça pour illustrer les limites du traitement numérique, plus on traite d’informations, plus le coût est élevé en matériel et cette loi ne déroge pas à celle de Boltzmann sur l’entropie ou au second principe de la thermodynamique : la singularité de Von Neumann admet aussi ses limites, ce n’est pas une singularité mathématique, c’est bien ce qu’exprime trivialement la non commutativité, on ne peut aller que dans un sens, celui de l’expansion et de la flèche du temps concomitante. L’asymétrie polaire du fond diffus cosmologique en est une représentation outre le fait que depuis notre galaxie est en mouvement pour pouvoir en donner une image parfaitement symétrique car il n’existe pas de repère privilégié ou fixe dans l’univers !

Outrage mathématique :

Ce qui soutient ma théorie sur les nombres, outre la proposition de la démontrer à l’aide d’un super calculateur, est l’extension des nombres premiers de ℕ à ℤ, seule solution pour obtenir le groupe Cp des complémentaires premiers.

Si nous étions dans un anti-univers, il y a fort à parier que les nombres négatifs se seraient imposés naturellement comme la prose à M. Jourdain !

D’ailleurs, je peux formellement créer un nombre négatif à partir d’un entier positif.

Je vais commencer avec la base deux du langage informatique. Il y a donc deux états 0 ou 1 (deux symboles ou un bit, n=1). Donc avec n =1 la règle est 2^n états possibles et l’on compte jusqu’à 2^n-1.

Mais comment créer un entier binaire négatif ?

Si je veux compter de -3 à +3, combien de symboles ? 7 mais il me faudra au moins 3 bits => 8 états possibles et je pourrais compter de -3 à + 3. Voyons cela dans une table :

tableau-binaire

Je compte bien de -3 à 3 et je constate une symétrie dans le tableau après 3, je recompte de 0 à 3 mais cette fois le bit le plus à gauche est passé à 1, est ce que l’on appelle le bit de signe.

Ainsi -3 +2 est bien égal à -1 dans ce tableau. Ce qui est à retenir avec ce système est que l’on créer des nombres négatifs en ajoutant posant ‘1’ à gauche du nombre positif !

La règle établie pour créer les nombres négatifs est celle du complément à deux vrai :

On complémente le nombre binaire et l’on ajoute un, exemple -1 -> 110 + 1 =111

Je peux le faire en base 10, ainsi -5 peut s’écrire 10-10-5 ou 5 -10, que je peux interpréter à l’aide de ce que nous venons de voir, comme 5 complément à 10.

Moyennant un certain formalisme sur les bases, j’ai bien transformé un nombre négatif en nombre positif. D’où l’équivalence entre des nombres premiers positifs et des nombres premiers négatifs mais ma nouvelle définition des nombres premiers dans l’ouvrage « La conjecture de Goldbach forte et ses conséquences sur la théorie des nombres » n’entre pas en contradiction avec celle communément admise : tout nombre premier n’est divisible que par un et par lui-même.  Sans les nombres complexes, essayez de résoudre x²+1=0 !

Solution  x=e.j(pi/2)

La conclusion est qu’il faut parfois faire de telles extensions, quitte à passer pour un dangereux déviant. Celui qui avait découvert que √2 était un nombre irrationnel a failli se faire occire par les pythagoriciens, j’espère ne mériter ni cette gloire ni cette indignité…

 

Relation entre pression et énergie :

P = F/S = (Fl)/Sl  => P = E/Sl = E/V

Ainsi la pression est une densité d’énergie par volume d’espace et nous pouvons réécrire le principe de confinement en remplaçant E ou ∂(E)/∂(V) par P, il vient :

S(P)= S(Pₒ)*(1-e(-S(P)/k) ) et sa généralisation aux multivers :
n

∑S(P) = S(Pi)*(1-e-S(P)/ki)

i=0

Cette formule indique que les univers viables sont ceux dont la constante k<<S(P).

C’est l’équivalence à l’ère du pré BIG-BANG de la conservation du second principe de la thermodynamique et donc de la possibilité d’émergence d’un espace-temps épigénétique !

Ces univers viables sont uniques car ils ont une variabilité fondamentale issue des soubresauts quantiques. Le corrélat de ces univers est qu’ils présentent tous des constantes aussi bien ajustées que le nôtre et cela évacue une fois pour toute, l’anthropocentrisme !!

Il paraît que les principes ne sont pas incarnés dans la nature et pourtant les lois physiques en découlent, cela voudrait-il dire que ces principes sont transcendants ?

Prenons l’inertie, si vous sautez d’un train en marche, vous avez bien acquis par inertie la même vitesse que lui, pour fixer les idées, disons 500 kms/h. En passant d’un repère inertiel à l’autre, soit du train à la terre, je suis convaincu que vous allez vérifier le principe d’inertie, inutile de tenter l’expérience, vous avez peu de chances de pouvoir la transmettre : c’est tout à fait concret et le peu de chance avoisinant le zéro, il est même certain que ce sera là votre dernière expérience de physicien !

D’accord mais l’on peut objecter de la même manière que l’inertie ne se rencontre pas dans la nature, que la certitude mathématique n’existe pas elle non plus !

Eh bien oui, le second principe est une loi statistique, l’onde de Schrödinger est une loi probabiliste, la structure ou le grain de l’univers ne se confond pas avec le point mathématique, il est temps de dépasser les contradictions Kantiennes et de penser en termes d’émergence rapide ou lente de la complexité : Pasteur disait c’est le germe qui crée la vie face aux théorie vitalistes, il avait raison et nous l’en remercions mais qu’est-ce qui crée le germe ?

Il semblerait que personne ne puisse raisonnablement répondre à cette question, jusqu’à ce que l’on trouve des traces de vie ailleurs, alors, on aura une autre référence et des critères de comparaison pour faire des extrapolations et construire un nouveau palier.

Faute de nouvelles avancées, le vitalisme, le créationnisme prennent de nouvelles formes comme le dessein intelligent mais procèdent de la même philosophie idéaliste. Il a suffi des idées de Pasteur pour vaincre des maladies en partant de ses présupposés étayés par ses expériences sur les germes responsables même si l’on ne les voyait pas encore, l’histoire du boson de Higgs procède de la même méthode : nouvelle théorie, prédiction et expérimentations donc critères de réfutabilité.

Avant d’atteindre un nouveau palier de la connaissance face à ce qui semble une impasse, il convient de proposer et d’expérimenter et l’un ne va pas sans l’autre, théorie et expérimentation s’inscrivent dans un rapport dialectique d’où émergent les nouvelles marches de la connaissance : c’est une construction !!

Est-ce un puits sans fond comme Albert Camus en faisait le reproche à la science ?

Il s’agit du fondement même de la science : celle-ci doit être réfutable, ce n’est pas un dogme mais la question d’une connaissance ultime ou théorie du tout est légitime, il ne s’agit pas là de questions philosophiques mais d’une question très concrète : unir deux théories contradictoires pour expliquer un seul univers !

La philosophie garde ses prérogatives mais elle ne peut reprocher à la science de lui faire dire ce qu’elle ne peut pas : une vérité transcendante…

Quid du principe ?

Le principe semble être au-dessus des lois qui doivent s’y conformer, il ne peut-être violé, c’est la borne à ne pas dépasser, une question survient alors, incarne-t-il la transcendance ?

La formule du principe de confinement étendue aux multivers nous indique une borne limite sous forme d’entiers naturels !

C’est bien ce qui reste indéterminé mais le pas est quantique même si l’on ne peut en atteindre la limite supérieure : le principe de tout principe est lui-même contraint !

Par ailleurs, cette formule est donnée à partir de i= 0, c’est notre univers : une version non seulement généralisée mais universelle devrait s’étendre à + ou –  l’infini.

Ce qui tend vers l’infini n’est pas une énergie mais un nombre d’univers viables, cependant, tous ces univers viables ou quantiques ne sont pas eux même constitués de termes infinis et tendent vers une limite spatio-temporelle dès qu’ils ont émergé, à l’instar de la formule e-|x|: qui tend vers 0 quand x tend vers l’infini.

C’est la dernière borne et la granularité nous dit que le zéro n’est jamais vraiment atteint, ce qui augure bien des nouvelles théories qui évacuent toutes la singularité et le principe anthropique !!!

Faire un don à l’auteur :

https://editions-amalthee.com/blog/luis-gallego/

A propos de mon nouvel essai

La conjecture de Goldbach forte et ses conséquences sur la théorie des nombres

La conjecture de Goldbach forte et ses conséquences sur la théorie des nombres

C’est une conjecture dont l’énoncé est très simple : tout nombre pair supérieur à deux est la somme de deux nombres premiers.

Cependant, elle résiste à toute démonstration depuis 1742.

Le dernier théorème de Fermat, aussi simple dans l’énoncé en 1640, a été démontré par Andrew Wiles en 1994. C’est le résultat d’une véritable épopée mathématique qui se poursuit aujourd’hui avec le programme Langland.

Une question se pose ici : ce programme résoudra-t-il la conjecture de Goldbach forte ou la résolution de cette dernière sera-t-elle le verrou qui fera de ce programme une percée dans la théorie des nombres ?

Cet essai tente de répondre à cette question en proposant une démonstration de la conjecture.