Utilisateur:JLC64/Brouillon

Trou Noir selon la physique usuelle modifier

Introduction modifier

En astrophysique, un trou noir est un objet céleste à la fois massif et invisible, et dont aucune matière ne peut s'échapper. Et pendant un siècle, on n'a connu que l'interprétation des trous noirs selon la relativité générale.

Dans tout le microcosme de l'astrophysique, on ne connaissait cependant que des interprétations extrêmement anciennes sur l'état physique supposé de la matière céleste dense. Au milieu des années 1930, les pionniers de la discipline avaient en effet imaginé que dans la matière dense, le rapprochement des atomes contreviendrait au principe d'exclusion de Pauli dans la toute nouvelle mécanique quantique[1], et au titre de cette présomption de dégénérescence quantique, ils avaient alors imaginé une sorte de matière dégénérée très hypothétique, et sa non moins mystérieuse pression de dégénérescence. Or en 2019, la toute première photographie de l'environnement lumineux d'un trou noir avait été publiée par un grand projet international intitulé Event Horizon Telescope[2]. Et à la suite de la curiosité suscitée par le tapage médiatique autour de cet évènement, et donc complètement fortuitement, il se trouve que ces deux concepts historiques de l'astrophysique se sont retrouvés définitivement invalidés en 2021 par une science des matériaux bien postérieure[3][4][5], mais visiblement inconnue des astrophysiciens d'hier et d'aujourd'hui.

Pour les habitués d'une vulgarisation scientifique toujours très sure de ce qu'elle raconte, une telle bévue collective durable peut sans doute sembler surprenante, surtout quand elle est quasiment "historique". Mais pour les habitués de la recherche scientifique, et dans des domaines où la vérification est fort heureusement plus facile qu'en astrophysique, le phénomène est certes rare, mais il est néanmoins assez récurrent. Et pourtant pour le faire admettre à tous ceux qui avaient appris une telle bévue sur les bancs de l'école[6], il faut souvent le poids moral et tout le soutien de professeurs d'Université émérites, à tous les sens du terme[7][8].

Et comme il sera beaucoup question d'hydrogène et d'hydrogène métallique, on rappelle ainsi que de la même manière entre 1930 et 2000, tout le monde de la métallurgie physique avait très sincèrement cru que l'hydrogène en solution solide dans les aciers se trouvait sous la forme partout enseignée d'un "hydrogène atomique". Et en 1930, l'information expérimentale était bien que c'était une demie-molécule H2, soit pour l'époque, un atome H. Or en 2000, et à partir d'une expérience vraiment sans aucun rapport, car à finalité purement technologique, il a avait été finalement établi que conformément à sa position en haut à gauche dans le Tableau périodique des éléments, cet hydrogène dissous est en réalité dans le même état que n'importe quel autre élément d'alliage métallique, c'est à dire sous la forme dissociée d'un cation H+et d'un électron[9]. Ainsi pour une description moderne détaillée de son état physique, c'est un proton et un électron séparés, mais globalement pour la loi d'action de masse de l'équilibre de solubilité avec le gaz, c'est bien toujours une demie-molécule H2 . Ainsi au départ, cette bévue de l'hydrogène qualifié d'atomique était essentiellement un raccourci pédagogique, et elle n'a finalement pas empêché son inspirateur de finir à l'Académie des Sciences. En revanche, elle aura quand même perduré durant 70 ans avant d'être démasquée par le plus grand des hasards. Or sans le très classique phénomène d'imprégnation dû au fait que tout le monde de la métallurgie l'avait apprise "au berceau" durant ses études, cette fausse bonne idée aurait pourtant due être démasquée 30 ou 40 ans plus tôt.

Et pour une autre bévue collective seulement trentenaire sur le mécanisme de sa pénétration dans l'acier, ou dans tous les autres métaux[9], ceci n'a pas non plus empêché son autre inspirateur d'accéder au hit parade des Distinctions Internationales. Et donc en résumé, cet accident presque inévitable de la bévue collective n'épargne ni la notoriété ni les récipiendaires des plus grands honneurs. En revanche, elle est en général la conséquence d'un déficit de multidisciplinarité resté insoupçonné, car survenu au sein d'un groupe de spécialistes consanguins vivant en vase clos.

Au départ, en effet, de telles "bévues" ne sont jamais des "erreurs", au sens scolaire ou historique du terme, mais juste un manque de la bonne information, alors que celle-ci n'a été fournie (ou modifiée) que bien plus tard, mais dans une autre spécialité que celle des intéressés. Et avec la segmentation de plus en plus étanche entre des disciplines scientifiques de plus en plus spécialisées, lesdits intéressés n'étaient tout simplement pas au courant. Ainsi en 1930, cet "hydrogène atomique" était juste une bévue, mais il n'est devenu une erreur que bien plus tard, c'est à dire lorsque les nouvelles connaissances de la physique du solide sur la liaison métallique n'ont pas été prises en compte par les spécialistes de la métallurgie physique. Et comme dans toutes les communautés de spécialistes très sûrs d'eux, les métallurgistes n'avaient même pas imaginé qu'un concept aussi ancien puisse être invalidé, car leur vigilance individuelle était totalement paralysée par l'autre piège particulièrement redoutable qu'est la pensée de groupe. Mais ce conformisme rassurant devient également bien souvent un joli paravent pour du "wishful thinking".

Or une telle invalidation soudaine de ce que l'on croyait pourtant savoir dur comme fer peut en entrainer immédiatement bien d'autres en cascade, et la première invalidation peut ainsi faire tache d'huile. Mais à défaut d'invalidation formelle, il arrive aussi que l'on se retrouve brutalement avec deux explications alternatives possibles, soit clairement une de trop, et sans que l'on puisse trancher dans l'immédiat. Et dans les cas un peu compliqués, il peut même se passer un certain temps avant que l'on puisse trouver comment trancher. Ou encore bien plus simplement, la diffusion de l'information est toujours lente, et il peut aussi s'écouler un très long biseau avant que le nouvel archaïsme ne soit complètement éradiqué. Et donc pendant toutes ces situations transitoires qui peuvent parfois durer, il est important de bien comprendre à la fois les deux alternatives et l'origine de leur divergence.

Ainsi de nombreuses pages de Wikipedia se contredisent entre elles, mais sans que leurs auteurs ne soient même au courant, car si elles relèvent de disciplines scientifiques différentes, lesdits auteurs se se lisent pas entre eux. Et pourtant, ces pages contradictoires représentent bien un consensus dans leurs communautés respectives. Or la réalité du monde est un continuum qui n'a cure de la segmentation des disciplines académiques. Dès lors, le premier lecteur sans œillères qui signalera la contradiction sera minoritaire dans chaque communauté, c'est à dire dans l'une pour avoir importé une information extérieure que personne n'avait, et dans l'autre pour avoir lu un article sur un sujet extérieur qui n'intéresse personne. Et dans tous ces cas fort heureusement exceptionnels, le culte du consensus devient alors un simple conformisme, car sur le principe, un consensus communautaire n'est jamais un gage de vérité scientifique. Ainsi dans une communauté fermée coupée du reste du monde, le mécanisme de la conviction mutuelle est très exactement le même pour un supposé consensus scientifique que pour tous les phénomènes de rumeur chers à Edgar Morin, ou rebaptisés aujourd'hui, fake news.

Or l'astrophysique est à la fois une discipline très ancienne et par nature un milieu très fermé, et c'est justement ce même défaut de multidisciplinarité qui vient d'être révélé au grand jour dans la compréhension passée de cet étonnant phénomène des trous noirs. Et donc là aussi, revenons au tout début de la surprise.

Sur terre, en effet, la matière condensée de nos liquides et solides ordinaires est déjà bien assez dense pour pouvoir juger de ce faux problème quantique qui aurait été soulevé par le rapprochement des atomes dans la matière dense[1], et contrairement à toutes les théories strictement invérifiables sur cette supposée matière dégénérée, toute la physique de la matière condensée est expérimentalement validée. Par exemple, dans un simple clou de densité 7,7, il n'y a déjà plus la place pour empiler des atomes de fer isolés, tels qu'ils résultent de l'application du principe d'exclusion de Pauli en mécanique quantique. Et donc l'empilement est tout simplement constitué d'ions fer plus petits et d'électrons libres, et c'est alors l'extrême mobilité de ces électrons délocalisés dans le reste du volume disponible qui produit la très grande conductibilité électrique si caractéristique de l'état métallique, et justement appelée conduction électronique.

Du reste, tous les développements actuels de cette science des matériaux centenaire sont très largement exposés dans Wikipedia, mais jusqu'en 2021, et du fait de la segmentation précitée , ils n'avaient jamais été appliqués à des étoiles denses en fin de vie[3]. Or en matière de mécanique quantique, c'est à dire la justification avancée dans les années 1930 pour cette matière dégénérée, ceci concerne tout particulièrement la modélisation quantique tout à fait rigoureuse de la théorie de la fonctionnelle de la densité (ou DFT en anglais), car celle-ci n'a été introduite que dans les années 1960. Et dans cette approche mathématique exacte de la matière dense, on associe ainsi, d'une part un empilement de cations positifs porteurs de la masse, et d'autre part, le complément d'électrons négatifs, et dont on calcule ainsi la densité électronique dans le volume libre entre les ions.

Et sous cet angle, tout s'éclaire soudainement si l'on regarde en détail la chronologie du développement de la mécanique quantique[3]. Ainsi la célèbre équation de Schrödinger avait été conçue en 1925. Et simultanément, le principe d'exclusion avait été proposé par Pauli, et il a ainsi conduit au concept d'orbitales atomiques dans les atomes isolés du Tableau Périodique des Éléments. Puis en 1927, le concept de densité électronique avait été théorisé par Enrico Fermi, d'où le niveau de Fermi dans les métaux. Et ensuite en 1931, et dans le cas du recouvrement de seulement deux atomes, le concept de l'hybridation des orbitales atomiques avait été proposé par Linus Pauling, et il a ainsi permis le développement de toute la Chimie Physique. Et donc en 1932 lorsque la proposition de leur matière dégénérée a été faite pour la première fois par les pionniers de l'astrophysique[3], ce concept était déjà largement irréaliste, car sans aucun support concret, et surtout complètement infondé dans sa justification par le principe d'exclusion de Pauli. Mais sans Internet, ces pionniers ne le savaient pas. Ou alors, ils ne voulaient surtout pas le savoir, afin d'avoir eux-aussi "leur" concept. Et comme celui-ci est complètement invérifiable expérimentalement, il a ensuite été repris en chœur par leurs fidèles disciples, puis popularisé par les ouvrages de vulgarisation de célébrités[1], et en 2021, tous les astrophysiciens de la planète ne savaient toujours pas que ce concept nonagénaire appris à l'école n'a en réalité aucun sens[3]. Et symétriquement, tous les physiciens de la matière déjà dense ne savaient pas non plus que les astrophysiciens étaient à ce point en retard.

Pourtant dès 1935, il avait déjà été imaginé que sous très forte pression, et donc avec une compaction et une densité accrue, il y aurait alors une transition de phase entre un hydrogène solide bien connu, moléculaire et diélectrique, et un nouvel hydrogène métallique, et donc conducteur, car lui aussi à base d'atomes dissociés en protons et électrons indépendants. Et lorsqu'en 1980, les deux sondes spatiales Voyager avaient détecté un champ magnétique complètement inattendu autour des planètes géantes gazeuses Saturne et Jupiter, celui-ci pouvait effectivement s'expliquer par la présence d'un noyau d'hydrogène métallique, et ceci avait été confirmé par DFT en 1996, puis expérimentalement.

Densité électronique et genèse de la structure en bandes[10][11]

Toutefois en mécanique quantique sérieuse, cette densité électronique des métaux n'a vraiment rien à voir avec cette utopique matière "dégénérée", et elle correspond au contraire à une levée de la dégénérescence quantique des orbitales atomiques par la création d'un quasi continuum de niveaux d'énergie autour des niveaux originels des atomes[10][11]. Et cette structure en bande est même le fondement de l'état métallique.

De même, cette DFT permet d'expliquer une transition similaire entre un oxygène solide isolant et un oxygène métallique conducteur. Cette transition intervient expérimentalement au delà de 1,3 Mbar, ou 132 GPa, et si une telle pression est très élevée en laboratoire, elle est encore très faible par rapport à des pressions internes d'astres denses.

Or dans le Tableau Périodique des éléments, l'hydrogène est chimiquement un métal, et même le plus léger des métaux alcalins, et donc il peut sembler assez naturel qu'il puisse également devenir physiquement un métal. En revanche en chimie, l'oxygène est l'archétype des non-métaux, et pourtant sous une très forte compression, il devient lui-aussi un métal. Or ce comportement sous pression est extrêmement général, et il a été expérimentalement observé que sous "seulement" 3 Mbar en laboratoire, 95 % des éléments du Tableau Périodique sont déjà dans un état métallique[12]. Et la raison en est que cette liaison métallique généralisée est en effet la seule à être compatible avec des compressions extrêmes[3].

Et de la même manière, il a été montré que lorsque les étoiles en fin de vie deviennent de plus en plus denses sous l'effet d'un effondrement gravitationnel progressif, la matière qui les constitue ne peut être elle-aussi que dans un état métallique, et donc y compris pour leur évolution naturelle en astre central très dense d'un trou noir[3]. Dès lors, cela peut modifier radicalement notre compréhension de ce phénomène de trou noir, alors que l'on croyait pourtant bien le connaitre.

Et donc devant cette survenance complètement inattendue, il importe de bien comprendre cette explication alternative des trous noirs selon la physique usuelle, c'est à dire pas seulement en quoi, mais surtout pourquoi, et aussi qu'elles en seraient les conséquences potentielles, et donc comment on pourrait alors espérer trancher. Et il importe aussi d'initier une fertilisation croisée entre deux disciplines qui jusque-là s'ignoraient complètement, car tout reste à faire. Et pour cela, le cheminement un peu technique des publications scientifiques de 2021 [3][4][5] peut aussi s'expliquer très simplement avec les mots de tous les jours, de sorte que tout le monde puisse le refaire par lui-même.

Ainsi quand on œuvre au sein d'un grand projet international intitulé Event Horizon Telescope, comment pourrait-on seulement imaginer que ce concept quasi centenaire d'un horizon des évènements n'a sans doute jamais existé que dans l'imagination de mathématiciens. Et devant une si belle photo si difficilement obtenue, comment pourrait-on aussi imaginer de devoir s'assurer qu'il ne peut pas y avoir une autre explication que celle ayant justifié à la fois le financement et le titre du projet. Or ce n'est là que l'un des aspects de la survenance d'une explication alternative à celle de l'article traditionnel sur les trous noirs.

Genèse d'une explication alternative à la relativité générale modifier

Dans l'histoire générale du trou noir, l'idée était cependant bien antérieure à la relativité générale, et dès le XVIIIe siècle, on avait déjà imaginé qu'aucune matière ne pourrait s'échapper de l'attraction d'un astre suffisamment dense. Mais à l'époque, on n'avait pas trouvé d'exemple. De même à la suite de Newton, il avait aussi été imaginé que la lumière pourrait avoir une masse, et dans ce cas, on en avait aussi conclu que la lumière elle aussi ne pourrait pas s'éloigner d'un tel astre. Mais la théorie ondulatoire de Huygens avait tué la théorie corpusculaire de Newton, et cette seconde idée avait été elle-aussi abandonnée.

Mais depuis 2021, on peut à nouveau expliquer le phénomène de trou noir à partir de la seule physique usuelle, c’est-à-dire dans le cadre de la physique commune limitée à la relativité restreinte, et sans avoir recours à la relativité générale . En effet, et comme indiqué en introduction, la vision traditionnelle de l'astrophysique sur la matière céleste dense se résumait à cette presque séculaire matière dégénérée, mais cette hypothèse des années 1930 n'avait jamais été ni expérimentalement vérifiée, ni même mise à jour. Et comme déjà dit sur des densités bien connues sur terre, son principe de base de la "claustrophobie des particules"[1] est même contredit depuis des lustres par à la fois la chimie quantique de Linus Pauling, la statistique quantique de Enrico Fermi et toute la physique de la matière condensée. Et dès avant 1930, les développements de la mécanique quantique avaient déjà imaginé une tout autre manière de répondre à cet apparent dilemme du rapprochement des atomes et du principe d'exclusion de Pauli de 1925 .

Or précisément avec la DFT, les derniers développements de la science des matériaux permettent aujourd'hui de montrer que dans les étoiles en fin de vie de plus en plus denses, toute matière céleste fortement comprimée par la gravité bascule d'abord de son état de plasma vers un état métallique. Et tout comme dans la liaison métallique de nos métaux ordinaires, cet état bien plus dense associe dorénavant un empilement de particules massiques chargées positivement à un fluide d'électrons délocalisés, dit aussi électrons libres ou gaz de Fermi. Et sous des compressions croissantes, l'empilement devient de plus en plus dense, et les particules massiques s'adaptent alors pour être de plus en plus petites[3]. Dès lors, son stade de compaction ultime est une forme d'hydrogène métallique baptisée protonium, car constituée d'un empilement compact de protons baignant dans un continuum d'électrons délocalisés. Et à cette densité théorique complètement hors norme de 5 1014, et désormais constante, les astres massifs deviennent si petits que la luminosité d'une aussi petite surface émettrice devient indécelable de loin. Et en sens inverse, leur gravité de surface peut effectivement devenir tellement énorme que la matière ne peut plus s'en échapper, car la vitesse de libération devient inaccessible. D'ailleurs, la matière ne peut même plus en décoller, car toute vitesse orbitale en orbite rasante devient elle aussi inaccessible. Et donc trois siècles après les prémisses, la physique usuelle permet elle-aussi d'expliquer le phénomène de trou noir, et comme imaginé il y a bien longtemps, il n'y a pas besoin pour cela d'avoir recours à la relativité générale .

Propriétés modifier

Seuil de masse modifier

Dans un astre de masse M et de rayon R, la densité varie en M/R3, la gravité de surface en M/R2 et les deux vitesses en  . À cette densité jamais imaginée de 5 1014, il existe ainsi un seuil de masse pour engendrer un effet de trou noir, et dans un très élémentaire calcul ab initio associant juste la masse et la taille du proton, la cristallographie de l'empilement compact, la mécanique céleste et la vitesse de la lumière, ce seuil se situe vers 2,5 masses solaires (M) , et pour seulement 11 km de rayon, à comparer aux 700 000 km du Soleil[3]. Or ce seuil de masse calculé correspond étonnamment bien à la limite expérimentale actuelle de 2,7 M pour le plus léger trou noir observé (1A 0620-00) .

Et à l'inverse selon la relativité générale, il n'existe aucun seuil de masse pour cet effet de trou noir, et des exemples de toute masse ont été calculés par le célèbre Stephen Hawking. Et de la même manière, de petits trous noirs primordiaux ont été prédits en tant que "fossiles" du Big Bang. Or pour ces petites masses entre une planète et 10 μg, et dans le même calcul, les densités correspondantes dépassent complètement l'entendement. Mais dès lors qu'il n'y a plus aucune possibilité de vérification expérimentale, l'imagination des mathématiciens est sans limite, alors qu'à ce jour, la plus forte densité avérée s'arrête au 1022 de la densité locale d'un noyau atomique. Or en l'occurrence, il ne faut sans doute pas confondre l'effondrement gravitationnel d'une étoile en fin de vie, tel que calculé par exemple dans le seuil critique de la "masse de Chandrasekhar", et un très hypothétique collapse gravitationnel de particules ultimes sans dimensions, tel que postulé dans la gravité quantique. En tout cas, et malgré tous les efforts d'observation et détection des trous noirs, aucun de ces minitrous noirs théoriques n'a "encore" été observé, et mais on pourrait tout aussi bien dire, n'a "jamais" été observé. En d'autres termes, y a-t-il encore un espoir d'en observer, ou depuis le temps que l'on en rêve, est-ce vraiment sans espoir ?

Or en présence de deux explications aussi différentes d'un même phénomène, il n'est pas surprenant qu'elles aient aussi des conséquences extrêmement différentes, et d'autres permettront sans doute un jour de trancher formellement. Mais à défaut, il reste aussi un faisceau de présomptions, et cette comparaison avec le niveau actuel du seuil de masse expérimental en fait partie.

Enveloppe de vide absolu modifier

Au-dessus de ce seuil de masse de 2,5 M , aucune matière ne peut donc se maintenir à basse altitude. Dès lors, l'environnement immédiat de cet astre en protonium est une sphère de vide absolu, ce qui valide ainsi le calcul d'une orbite rasante dans le vide. Et cette enveloppe de vide s'étend ainsi jusqu'à une distance permettant à nouveau une vitesse orbitale, c'est à dire au moins jusqu'au rayon de Schwarzschild rS de la relativité générale. Et si l'on considère une limite de vitesse plus raisonnable à 80 % de la vitesse de la lumière, au lieu des 100 % théoriques, le rayon réel de l'enveloppe de vide passe alors à 1,5 rS , soit en relativité générale, celui de la sphère des photons à l'intérieur de la dernière orbite de photons. En d'autres termes, la sphère géométrique correspondant au fameux horizon des évènements en relativité générale correspond maintenant à une enveloppe de vide absolu.

Et à l'inverse en dessous de ce seuil de masse de 2.5 M , et a fortiori avec des densités inférieures à celle du protonium, tous les astres sont plus gros que le 1,5 rS correspondant à leur masse. Et donc ils peuvent être encore suffisamment petits pour rester invisibles de loin. Par contre, de la matière peut alors se maintenir à basse altitude, ou s'en échapper, et il ne peuvent donc plus être des trous noirs.

Par rapport à la relativité générale, la nouveauté majeure est ainsi qu'au centre de ce qui n'est plus du tout un horizon des évènements "retenant la lumière", un trou noir a maintenant un astre central. Sa densité est certes très élevée, car c'est le maximum permis en physique usuelle, mais elle reste néanmoins finie, et donc plus besoin de gravité quantique. Et entre les deux, il règne un vide absolu.

Or d'après la liste des trous noirs les plus massifs, la masse du plus gros trou noir jamais observé atteint déjà 66 109 M , et le diamètre de son enveloppe de vide est alors de 40 années-lumière. Ainsi vis à vis de tout ce qui peut croiser la route de cette immense sphère de vide, tout trou noir supermassif se comporte alors comme un gigantesque aspirateur cosmique (vacuum cleaner en anglais). Dans leurs pérégrinations, de tels "ogres spatiaux" ne peuvent donc que grossir indéfiniment, et en faisant alors de plus en plus de vide autour d'eux. Ainsi avec ses 20 109 M , le 9eme de la liste augmenterait en ce moment de 60 M par an. En revanche, ce flux annuel ne vient sans doute pas que de collisions, et il peut ainsi se répartir entre une capture directe d'astres compacts par leur immense section de capture, ou une aspiration de plasmas stellaires moins denses, ou encore une capture progressive par attraction gravitaire lors de la traversée d'un nuage de gaz encore plus grand.

Et juste au-delà de cette enveloppe de vide, la matière en cours de captage s'accumule d'abord dans une sphère d'accrétion. Et en se rapprochant petit à petit de l'astre central, elle est alors accélérée jusqu'à des vitesses de plasma, de sorte qu'elle devient progressivement lumineuse, et elle peut ainsi être observée. Et dans une telle sphère d'accrétion, le processus de capture devient ainsi continu. En effet, dès que la trajectoire elliptique d'une particule se met à empiéter au dessous de 1,5 rS , elle ne peut plus transformer la baisse de son énergie potentielle gravitaire en énergie cinétique supplémentaire, comme dans les lois de Kepler. Et donc elle ne pourra plus jamais ressortir de l'enveloppe de vide, et elle tombera très vite sur l'astre central. Ainsi avec juste de la mécanique céleste et la relativité simple, cette enveloppe de vide joue très exactement le même rôle que l'horizon des évènements en relativité générale.

Dans ces diverses sphères d'accrétion lumineuses, certaines sont encore transparentes, comme autour du trou noir supermassif M87* , et les plus denses ont l'apparence extérieure d'une étoile, comme les quasars et les blazars .

Vue d'artiste d'un disque d'accrétion (Nasa/JPL Caltech)

Mais très curieusement dans la tradition de la relativité générale, on ne parle jamais que de disque d'accrétion, y compris dans la publication de 2019 sur la toute première image de l'objet M87*, et cosignée par 287 auteurs de 143 laboratoires internationaux[2]. Et à l'image des anneaux de Saturne, les vues d'artiste représentent toujours une spirale convergente plane, et celle-ci est toujours accompagnée par un jet axial qui serait dû à un supposé champ magnétique induit par cette spirale ionisée.

Les enseignements de la photographie de l'objet M87* [2]

Or à travers les fausses couleurs de la photographie de M87*, l'effet Doppler dans le plasma montre pourtant très clairement qu'il s'agit là d'une sphère, et non pas d'un disque. En outre, la symétrie axiale permet d'identifier avec précision l'axe de la rotation, et l'antisymétrie axiale permet même de préciser le sens de la rotation.

Or apparemment, aucun membre du sérail n'a jamais remarqué le fossé qui sépare leur discours théorique de la réalité expérimentale, car ce n'est pas seulement une question de jargon communautaire.

Magnétisme modifier

Délocalisés ou pas, les électrons ont une masse, même si celle-ci est très faible. Dès lors, ils ont aussi une inertie, laquelle est utilisée en spectroscopie de masse pour mesurer leur rapport masse sur charge. Mais dans toute autre expérience, ces forces d'inertie sont toujours négligeables devant les forces électriques ou les forces électromagnétiques.

Schéma de la transformation d'un courant superficiel i0 en un courant circulaire iω[5]

Néanmoins dans toute grosse boule métallique tournante de dimensions astronomiques, à tous les sens du terme, une force axifuge s'exerce sur les électrons libres, et ses variations entre les pôles et l'équateur engendrent ainsi des courants superficiels en sens inverse du flux des électrons. Toutefois, la rotation de l'astre est beaucoup plus rapide que ces courants, et elle les transforme alors en courants circulaires, de sorte que l'astre devient ainsi un gigantesque solénoïde. Dès lors, tous les astres dotés d'un noyau métallique produisent un champ magnétique, mais avec les hétérogénéités des courants superficiels, son axe est plus ou moins aligné sur l'axe de rotation . C'est ainsi le cas de la Terre et du noyau terrestre en fer, ou encore des planètes géantes gazeuses avec leur noyau d'hydrogène métallique. Et c'est aussi le cas pour l'état métallique de toutes les étoiles denses en fin de vie, comme les naines blanches ou les pulsars, et donc également pour le protonium des trous noirs[5].

Et lorsque ces trous noirs sont entourés par une sphère d'accrétion lumineuse, et non pas par un disque, l'axe de ce champ magnétique déforme alors ces gaz chauds ionisés. Malgré la complexité de l'environnement, cela apparait ainsi sur une photographie de blazar, comme un objet BL Lacertae.

Photographie du blazar BL Lacertae 0323+022*

Et sur la précédente photographie de M87*, on voit cette fois très clairement en face des flèches jaunes que cet axe magnétique est différent de l'axe de rotation de la matière lumineuse. Et comme celle-ci a une symétrie de révolution, ce champ magnétique ne peut donc pas être induit par la rotation de la matière visible ionisée, mais uniquement par la rotation indépendante d'un astre central métallique. Du reste, la densité de charge de ce plasma lointain est insignifiante par rapport à la densité électronique du protonium de l'astre central, et dans la force magnétomotrice d'un solénoïde, le nombre d'ampères-tours ne dépend pas du diamètre de l'enroulement.

Très concrètement, ce champ magnétique obligatoire d'un astre central métallique est donc également à verser au dossier du faisceau de présomptions.

Conséquences modifier

Instabilité potentielle des trous noirs trop massifs modifier

Dans ce qui précède, l'incompressibilité du protonium n'est en réalité qu'un effet au premier ordre dans le modèle de sphères dures de la cristallographie. Dans le protonium, en effet, la répulsion entre protons connait un saut d'intensité considérable entre, d'une part, la précédente répulsion coulombienne "à grande distance" dans l'hydrogène métallique ordinaire, et d'autre part dans un empilement désormais compact, la très rapide croissance de la force nucléaire à très courte distance, à l'image du potentiel de Rydberg entre nucléons. Mais tout comme un plasma chaud présente un seuil de température où les chocs entre protons finissent déclencher la fusion nucléaire, et donc thermonucléaire, il y a forcément un seuil de compression où le rapprochement statique entre protons finira lui-aussi par faire la même chose, et donc une fusion "baronucléaire". Or à force de voir la masse d'un trou noir augmenter indéfiniment, l'espacement entre les protons du cœur continuera quand même à diminuer très lentement. Dès lors, un trou noir devenu trop massif peut finir par devenir instable, avec ainsi une énorme explosion nucléaire de tout son centre, et donc par analogie avec le Big Bang, un vrai Big Boom.[4] Et en physique usuelle, rien n'interdit une telle explosion, et la compression de la matière fusible est justement le processus d'amorçage de toute bombe H, ou de sa simulation expérimentale dans le laser Megajoule.

Big Bang ou Big Boom modifier

Par hypothèse, et pour un trou noir originel de la masse estimée de notre Univers, la taille de son enveloppe de vide serait également proche de la taille estimée de l'Univers[3]. Et à l'inverse, la taille de son astre central dense resterait plus petite que le système solaire. C'est donc très loin d'être un point, mais à cette échelle, ce n'est pas bien gros non plus. Or lors d'une explosion nucléaire de son centre, le reste des protons et des électrons serait alors éjecté à très grande vitesse, et avec forcément une isotropie imparfaite. Dès lors, l'état consécutif à un Big Boom originel serait très proche de celui décrit une seconde après le Big Bang dans le modèle standard de la cosmologie. Et le centre de gravité de l'astre explosé peut lui-aussi rendre compte d'une origine ponctuelle de toutes les trajectoires.

Et donc très paradoxalement, et en reprenant juste le modèle standard à partir de la première seconde, la physique usuelle peut elle-aussi rendre compte de l'expansion de l'Univers jusqu'à aujourd'hui, mais tout bêtement dans notre espace habituel à trois dimensions. Néanmoins, "bêtement" ne veut pas dire pour autant "simplement", car de par la définition des temps de parcours, l'interaction gravitaire met autant de temps pour parvenir à une galaxie lointaine que sa lumière en a mise pour nous parvenir. Et donc après troncature d'une seconde, le modèle standard demeure, mais entre un néant originel immédiatement suivi d'une densité infinie, puis une inflation cosmique à une vitesse supérieure à celle de la lumière, cette première seconde est vraiment le maillon faible de ce modèle. Or pour ne pas s'en apercevoir, il n'y a vraiment que des mathématiciens accrochés à un postulat devenu axiome.

Mais à  une seconde près, le fond diffus cosmologique reste bien dû à une explosion initiale, mais ce n'est plus tout à fait la même, et le domaine de validité des équations d'Einstein s'arrête ainsi aux densités permises par la physique expérimentale.

Quid de la réalité physique de l'espace-temps modifier

Jusqu'à présent, et tout comme pour l'effet de trou noir, la relativité générale était la seule hypothèse permettant d'expliquer toutes les observations expérimentales sur l'expansion continue de l'Univers, et dans les deux cas, cette absence d'alternative en faisait même un soutien expérimental indirect à une existence physique de l'espace-temps des équations. Mais en retour, de nombreuses difficultés de la cosmologie actuelle sont dues elles-aussi à ce cadre imposé de la relativité générale.

Or devant la combinaison nouvelle entre ces difficultés durables et cette apparition soudaine d'explications alternatives, on peut alors s'interroger légitimement sur la signification et le domaine de validité des fameuses équations d'Einstein, et donc sur le sens à donner à la relativité générale. En d'autres termes, l'espace-temps est-il un simple outil mathématique pour calculer une gravité devenue dynamique en 1915, ou a-t-il vraiment une réalité physique, et surtout, d'où tout cela vient‑il ?

L'espace-temps en deux temps modifier

La publication de 1915 modifier

Dans cet article séminal, l'espace-temps n'était encore qu'un concept purement mathématique dans un outil de calcul particulièrement compliqué, et donc très impressionnant, mais uniquement destiné à quantifier une gravitation présumée dynamique, c’est-à-dire avec une vitesse de propagation finie. Et expérimentalement, ces calculs ont été immédiatement validés sur l'orbite atypique de Mercure, puis bien plus tard par la détection des ondes gravitationnelles. Mais dans les deux cas, et conformément à la publication de 1915, il s'agit toujours là d'une interaction entre des masses.

La publication de 1917 modifier

Dans ce second article de Janvier 1917, et d'après la liste des publications scientifiques d'Albert Einstein, l'hypothèse d'une réalité physique de cet espace-temps a ensuite été avancée, et avec cette fois une possibilité de confirmation expérimentale à travers la prédiction de lentilles gravitationnelles. Et à peine 16 mois plus tard en Mai 1919, cette prédiction quantifiée a été officiellement "validée" par le Britannique Eddington lors d'une éclipse solaire, c'est à dire six mois seulement après l'Armistice de 1918, et par un militant de la réconciliation avec les savants allemands. Et depuis, et même si l'observation a été maintes fois confirmée, les photographies historiques de cette éclipse solaire du 29 Mai 1919 constituent de facto l'unique support expérimental direct à une existence physique de l'espace-temps.

Or on va voir que dans son 'Vive Einstein" enthousiaste, le tout aussi jeune Eddington avait largement abusé de ses propos. En outre, son enthousiasme quelque peu intéressé était également très loin de faire l'unanimité en Grande Bretagne. Ainsi le déjà Sir Joseph Larmor était alors un physicien chevronné, et mondialement réputé, et lui ne croyait pas du tout à l'existence physique d'un espace-temps. En effet, disait-il, et à l'image de la vitesse immuable de la lumière en 1905, son bon sens éprouvait le besoin que le temps soit lui aussi immuable.

Mais d'après l'histoire de la relativité générale, elle et ses lentilles n'intéressaient pas grand monde à cette époque, et des décennies plus tard, tout cela avait été hélas oublié, ou réarrangé. Et comme souvent," l'histoire est écrite par les vainqueurs ", mais avec le recul, le roman national résiste rarement à un examen plus attentif.

La saga des lentilles gravitationnelles modifier

L'éclipse solaire de 1919 modifier

Entre 1905 et 1915, la nouvelle relativité restreinte de 1905 remettait ainsi en question la biséculaire Mécanique Newtonienne, et surtout son hypothèse d'une propagation instantanée de l'interaction gravitaire, c'est à dire à une vitesse infinie incompatible avec une vitesse de la lumière indépassable. D'où une réflexion collective intense sur divers degrés de supposés principes d'équivalence entre inertie, gravitation et énergie. Or dans sa tout aussi vieille théorie corpusculaire de la lumière, et en postulant un "impetus" à ces corpuscules, c'est à dire une quantité de mouvement, Newton avait de fait attribué une masse à ce qui n'était pas encore un photon sans masse. Ainsi dans sa seconde publication de 1917, peut-être sous l'influence de ces discussions récentes, ou faute d'autres points de repère, Einstein avait alors pris cette théorie dépassée de Newton comme base de comparaison. Et il avait ainsi montré que par la malice des calculs, la déviation prédite par sa nouvelle relativité générale était exactement le double de celle de Newton, même si les deux restaient très faibles, car de l'ordre de la seconde d'arc. Or avec ces premières mesures imparfaites, Eddington avait simplement montré que la prédiction d'Einstein était juste plus proche que l'autre. Et donc le bon accord quantitatif revendiqué à grand bruit était pour beaucoup du wishful thinking, ou pensée désidérative, et d'ailleurs, même Stephen Hawking l'avait reconnu en 1988 (voir Tests expérimentaux de la relativité générale). Mais quelles que soient les meilleures précisions ultérieures, et comme la théorie Newtonienne n'a plus cours, l'existence d'un espace-temps est de facto la seule explication jamais proposée pour ces déviations de rayons lumineux au voisinage d'une étoile.

Mais comme tout le monde était alors aveuglé par cette "prédiction théorique", personne n'a jamais songé à montrer que c'était là la seule explication possible, et dans l'euphorie générale, personne n'a osé objecter qu'une déviation de la lumière qui n'avait jamais été recherchée auparavant pouvait tout aussi bien être due à un phénomène optique encore inconnu, et d'ailleurs toujours absent de la liste des phénomène optiques. Or concomitance ne signifie pas causalité, et une absence de preuve n'est pas non plus une preuve d'absence, de sorte que personne ne peut réellement affirmer que la réalité physique de l'espace-temps ait jamais été expérimentalement confirmée (Cf. "le chagrin fait pleurer, les oignons aussi"[13]).

Or il en en subsiste aujourd'hui deux postulats subliminaux, à savoir :

  • tout ce qui est invisible ne peut être qu'un trou noir, puisque dans le principe de la relativité générale, le mécanisme de la rétention est le même pour la matière et pour la lumière. Or juste avant le nouveau seuil de masse, les étoiles en fin de vie sont déjà très denses, et elles sont déjà bien trop petites pour être visibles de loin.
  • toute déviation de rayon lumineux ne peut être due qu'à une lentille gravitationnelle, puisque l'on n'a jamais recherché d'autres explications, ne serait-ce que pour les éliminer. Et donc "axiomatiquement", on utilise aujourd'hui les déviations pour détecter ou estimer des masses.

Mais comme déjà dit, relativité et lentilles n'intéressaient personne à l'époque, et c'est ainsi pour tout autre chose qu'Albert Einstein avait reçu le Prix Nobel de Physique en 1921.

La renaissance des lentilles modifier

En 1937, l'astronome Fritz Zwicky avait tout naturellement étendu ce concept de lentille gravitationnelle à des galaxies tout entières. Mais comme souvent, il a encore fallu attendre 40 ans pour que cela soit observé sous la forme de lentilles gravitationnelles fortes, car les effets observés autour de ces objets colossaux sont forcément bien plus forts. Par contre, avec des objets globaux comme les galaxies, quasars, blazars et autres nuages interstellaires compliqués, leur structure est éminemment composite, de sorte que l'origine réelle de l'effet y est impossible à prouver. En revanche, et autour d'objets individuels simples, les lentilles gravitationnelles faibles sont beaucoup plus difficiles à observer, et on oublie ainsi souvent de rappeler qu'elles n'ont été observées qu'autour des seules étoiles visibles, mais jamais autour des trous noirs invisibles pourtant beaucoup plus massifs.

Quant aux supposées microlentilles gravitationnelles sans déviation détectable, une simple variation de luminosité pendant un transit peut aussi avoir une multitude d'autres causes potentielles. Mais dans la même certitude apprise sur les bancs de l'école, et dans une publication de 2021, l'Université de Berkeley a officiellement identifié 1200 candidats pour traquer la matière noire au cœur des galaxies les plus lointaines.

En revanche, la masse est tellement au cœur de la relativité générale que personne ne s'est jamais interrogé pour savoir si cette déviation de la lumière est bien due à la masse.

Différence entre une étoile et un trou noir modifier

Une différence hors de portée de la relativité générale modifier

Hormis la charge électrique et le moment cinétique, la relativité générale ne connait en effet que la masse, et pour les trous noirs, elle l'a même mathématiquement démontré avec le théorème de calvitie. En conséquence, elle ne connait ni la densité ni la gravité de surface, alors que ce sont là les fondements de la nouvelle explication des trous noirs en physique usuelle.

Effacement du rôle de la masse modifier

Pour comparer avec les petits trous noirs stellaires ou les sensiblement plus gros trous noirs intermédiaires, et d'après la liste des étoiles les plus massives, la masse maximale observée à ce jour pour une étoile est de 315 M . Dès lors entre 2,5 et 315 M , ce qui différencie un trou noir d'une étoile visible de même masse est uniquement la température, la densité et la taille, et donc la gravité de surface. Or contrairement aux trous noirs, et à l'image des atmosphères planétaires, rien n'interdit à certaines étoiles d'avoir une atmosphère d'hydrogène qui soit à la fois plus ou moins froide, dense, épaisse et invisible. Pour autant, ce concept d'atmosphère froide invisible est certes classique en planétologie , mais il n'est en fait jamais considéré pour toutes les atmosphères stellaires. Néanmoins dans une telle atmosphère dense, la présence à la fois de gradients de densité et de gradients de température se traduiraient automatiquement par des gradients d'indice de réfraction. Et comme sur Terre, la présence de gradients d'indice tout au long d'immenses trajets optiques ne peut qu'engendrer des phénomènes de mirages, et donc en l'occurrence, des mirages stellaires . Or quoi de plus simple qu'un phénomène optique pour expliquer la déviation de rayons lumineux.

Un rôle de plus pour la gravité de surface modifier

Par référence à notre système solaire familier, le maintien de toute atmosphère résulte de la concurrence entre la gravité de surface et l'érosion du vent solaire. Et entre la Lune et Mars, le seuil de gravité nécessaire au maintien d'une atmosphère froide se situe ainsi entre 0,2 et 0,3 g.

Conséquences de la gravité de surface des étoiles, telle que déterminée à partir du temps caractéristique de la fonction d’autocorrélation[14][15]

Par ailleurs, la gravité de surface des étoiles varie sur une plage allant de 0,01 à 30 g, de sorte que la moitié de cette plage pourrait correspondre à une atmosphère complètement insoupçonnée, car froide et transparente. Et avec 28 g et son rayon R de 700 000 km, le Soleil se trouve être l'une des étoiles pour lesquelles un mirage stellaire est des plus probables. En effet, le seuil de gravité n'est atteint qu'à la distance de 10 R, et entre 1 R et 5 R, la gravité locale dépasse la gravité de surface sur la Terre. Et en 1919, tous les rayons déviés étaient passés entre 2 et 5 R

Or là aussi, les spécialistes des atmosphères planétaires ne se sont sans doute jamais penchés sur le cas du Soleil, et les divers spécialistes du Soleil n'ont sans doute jamais rien lu professionnellement sur le contenu de cette rubrique Wikipedia. Dès lors, chaque spécialité a qualifié ses propres observations d'atmosphère solaire, alors que ce n'en sont au plus que l'une des strates.

En effet, l'atmosphère de loin la mieux connue est l'atmosphère terrestre, et ses diverses strates aux régimes thermiques si différents. Or depuis l'allumage de l'étoile, et par définition, l'atmosphère solaire est une transition continue entre l'extrême dilution et les quelque K du nuage de gaz originel et la très grande densité et les millions de K du plasma chaud au centre. Et donc la même stratification opère forcément autour du Soleil, et elle passe nécessairement par une atmosphère gazeuse plus ou moins refroidie d'hydrogène moléculaire.

Domaine de stabilité potentielle pour une atmosphère dense froide autour du Soleil

1re strate : la photosphère modifier

Avec ~ 6 000 K, la photosphère est la surface visible du Soleil, et cette couche de gaz très chaud est à l'origine de la plupart des raies spectrales du rayonnement solaire, dites raies de Fraunhofer. Ces raies d'adsorption comporte les 4 raies caractéristiques de l'atome d'hydrogène, mais aussi celles d'éléments beaucoup plus lourds allant jusqu'au fer. Ceci montre ainsi à la fois qu'il y a encore du carburant hydrogène, mais aussi que toutes les phases successives de la fusion nucléaire ont déjà commencé au cœur du soleil.

Spectre d'émission de l'hydrogène et couleur de la lampe à hydrogène

2e strate : la chromosphère modifier

Avec ~ 4 000 K et ~ 2000 km, la chromosphère est une très mince couche de gaz déjà refroidie. Sa couleur rose caractéristique est celles des lampes à hydrogène, et celle-ci est due à la superposition du rouge et du bleu des deux raies d'émission principales de l'atome d'hydrogène. Ces raies d'émission visibles en coronographie restent ainsi compatibles avec la dominance des raies d'absorption dans le rayonnement global, et avec des strates extérieures d'hydrogène froid.

3e strate : la couronne lumineuse modifier

La couronne solaire s'étend officiellement sur plusieurs millions de km autour du Soleil, mais la partie lumineuse sur seulement 700 000 km, soit un rayon solaire. Et après une inversion inexpliquée du gradient de température, on rapporte aussi un maximum de température de 2 à 5 millions de K selon les rubriques Wikipedia, mais tout aussi inexpliqué.

Dans ces trois strates, les densités de particules rapportées sont extrêmement faibles, avec ainsi dans la couronne lumineuse, un milliardième de celle régnant à la surface terrestre. Par contre, ce ne sont sans doute là que des particules chaudes, car les physiciens des plasmas n'envisagent jamais de coexistence avec un milieu froid. Or c'est pourtant déjà le cas dans les lampes à décharge à haute pression, alors que la présence de ce gaz froid n'apparait pas dans le rayonnement de la lampe. D'où comme dans toute communauté fermée de spécialistes par trop spécialisés, un évident panurgisme induit par la consanguinité des acteurs.

4e strate : le chainon manquant d'une atmosphère d'hydrogène dense et invisible modifier

En effet, l'hydrogène est un gaz très bon conducteur de la chaleur (7 fois plus que l'air), et ce n'est pas un gaz à effet de serre, car comme tous les gaz diatomiques, il absorbe très peu le rayonnement infra-rouge. Dès lors, cette dernière strate se trouve être très peu chauffée par l'intérieur et très bien refroidie par l'extérieur. Et comme la gravité y varie entre 1 et 7 g entre 5 R et 1 R, sa pression pourrait y atteindre de un à plusieurs bars. Or il ne peut pas y avoir de discontinuité dans un gaz, et ce même gaz invisible est forcément déjà présent dans les 2e et 3e  strates.

En particulier, cette comparaison brute entre deux densités de particules n'a strictement aucun sens en thermodynamique. Ainsi pour des particules diluées assimilables à un gaz parfait relevant de la loi de Boyle-Mariotte (N/V =P/RT), cette densité à chaud correspond en réalité à une pression de 0,1 millibar, soit tout juste le vide primaire des laboratoires. De même, une pression partielle de 0,1 mbar de gaz chaud n'empêche pas la présence parallèle d'une pression totale très supérieure d'un gaz froid. Simplement, un tel mélange n'est pas stable, car le gaz chaud se refroidira très vite et le gaz froid se réchauffera à l'avenant. Et donc un tel état stationnaire implique juste le renouvellement permanent du gaz chaud à partir du Soleil, ainsi que l'évacuation permanente de sa chaleur vers l'espace.

Or qui dit conduction thermique dit aussi gradient de température. Ainsi, cela pourrait déjà expliquer une perte moyenne de 2000 K dans la chromosphère, même si avec l'inversion, cela ne fait guère que ~ 0.5 K/km. En apparence, ceci pourrait sembler très peu en regard des 6,4 K/km de notre troposphère familière sur Terre, mais compte tenu de la conduction thermique accrue, la densité de flux thermique ne serait pas si différente.

Par ailleurs, et par définition, le vent solaire qui s'échappe a traversé cette atmosphère d'hydrogène sans y être absorbé. Mais non moins par définition, une partie des particules émises par le Soleil y a été entièrement absorbée. Dès lors, l'échauffement provoqué par un début de freinage pourrait expliquer tout à la fois la couleur rose de la chromosphère, un gradient de température anormalement faible, puis une inversion de son sens de variation.

Enfin dans le pouvoir d'arrêt des rayonnements ionisants, l'intensité du freinage augmente toujours avec le ralentissement, jusqu'à l'arrêt final. Et donc à l'image d'une chambre à bulles, le freinage de ces particules échauffe de plus en plus les molécules d'hydrogène se trouvant sur leur trajectoire. D'où d'abord l'inversion de température, puis le pic à quelques millions de K, puis la disparition progressive de toute luminosité. Et donc la densité mentionnée pour la couronne est juste une densité de particules du vent solaire, et non pas une densité de l'atmosphère. Et d'ailleurs sur la photo de la couronne lumineuse, on observe un très net maximum de luminosité à mie-épaisseur. Et donc en présence d'un inévitable spectre d'énergie dans les particules émises par le soleil, ceci serait ainsi la signature soit d'un pic d'échauffement dans la zone des ralentissements les plus intenses, soit la traduction directe d'une distribution d'énergie en une distribution de distances d'arrêt. Et dans toutes les photos de profil, la couronne solaire présente justement une texture de fourrure, et dont les poils radiaux seraient autant de traces de freinage des faisceaux de particules stoppées.

Lentille gravitationnelle ou mirage stellaire modifier

Au total, la vraie atmosphère solaire de la figure est constituée d'une seule phase d'hydrogène gazeux allant de 5000 K à quelques K en température, et de 1 à 10 R en extension. De 1 à 2 R, les phénomènes lumineux sont dus à l'absorption de rayonnements ionisants, et entre 2 et 5 R en 1919, l'épaisseur et la densité du gaz traversé ne pouvait qu'engendrer des phénomènes de mirages.

Or entre lentille gravitationnelle et mirage stellaire, les variations radiales de la déviation des rayons lumineux sont nécessairement différentes, mais en dessous de deux secondes d'arc, est-ce mesurable, voire vérifiable rétroactivement ?

Et pour mémoire, galaxies, quasars, blazars et nuages interstellaires complexes contiennent également d'énormes épaisseurs de gaz à traverser, et elles-aussi particulièrement hétérogènes. Et donc l'alternative d'un mirage stellaire n'est pas réservée aux seules étoiles.

En particulier, l'apparence d'une ombre centrale dans l'image de M87* peut également s'expliquer par un effet de loupe à travers l'inévitable partie transparente invisible de toute sphère d'accrétion[4]. Et là, on parle de gradients de densité sur des épaisseurs de gaz en centaines de milliards de km, alors qu'avec un diamètre de seulement 38 000 km, son astre central ne peut clairement pas faire d'ombre, et pas plus le vide absolu qui l'entoure sur une épaisseur de 20 milliards de km.

Possibilités de validation modifier

Tout d'abord, on peut noter que dans cette possibilité nouvelle de deux explications alternatives, chacune est exclusive de l'autre. Dès lors, la validation ou l'invalidation de l'explication des trous noirs selon la physique usuelle invalidera ou validera symétriquement leur précédente explication selon la relativité générale. Et donc l'enjeu n'est pas mince.

Validation par l'observation modifier

La détection de l'atmosphère des exoplanètes utilise la spectroscopie d'adsorption du rayonnement de l'arrière-plan lors d'un transit devant leur étoile, et la même méthode peut donc être utilisée pour le Soleil et les étoiles candidates. Or jusqu'à présent, personne ne s'était jamais posé la question, et donc personne ne l'a sans doute jamais fait.

Dans la classification des étoiles par type spectral, le rayonnement des étoiles oranges et rouges est cependant le seul à ne pas déjà comporter des raies d'absorption de l'hydrogène, et il peut alors être utilisé pour tester la présence d'une atmosphère transparente d'hydrogène autour du Soleil, ou de toute autre étoile naine jaune. Et dans les deux cas, l'exceptionnelle luminosité des géantes rouges en fait l'arrière-plan idéal.

Validation par la modélisation modifier

En optique, l'indice de réfraction n d'un milieu transparent est le résultat de l'interaction de l'onde électromagnétique avec la quantité cumulée d'électrons rencontrée dans la matière traversée, et c'est ainsi le rapport entre la vitesse de la lumière c dans le vide et sa vitesse v dans le milieu transparent, soit n = c/v et n > 1. En laboratoire, n dépend ainsi très directement de la densité du milieu et de la configuration électronique des entités rencontrées. Et donc même à pression atmosphérique, le n-1 des gaz est très faible, ~ 3 10-4 pour l'air, et encore 8 fois moins pour l'hydrogène. Or dans un contexte spatial, la densité peut encore diminuer, mais les épaisseurs traversées augmentent considérablement, de sorte qu'il existe nécessairement une relation densité-épaisseur séparant du quasi vide et un milieu optiquement actif.

Et aujourd'hui les progrès de la photonique permettraient certainement de modéliser l'indice de réfraction d'une atmosphère d'hydrogène à différentes P et T, et même de déterminer ce seuil d'activité optique. De même, la modélisation des lentilles à gradient d'indice peut facilement être étendue à la quantification de la capacité de déviation d'un mirage stellaire. Et donc la chainage des deux permettrait de quantifier différents scénarios de profils P et T, à l'image des formules de nivellement barométrique sur terre.

Enjeu modifier

Si une atmosphère solaire invisible arrive à être positivement identifiée, ou une première atmosphère stellaire, alors le concept de lentille gravitationnelle cessera immédiatement d'être expérimentalement validé faute de mieux par les éclipses solaires. Et si la capacité de déviation d'un mirage stellaire est positivement établie, alors il deviendra même expérimentalement contredit par l'absence de déviation autour des trous noirs simples.

Dès lors, la relativité générale redeviendrait ce qu'elle était en 1915, à savoir la quantification d'une gravitation à vitesse de propagation finie, mais c'est surement beaucoup moins exaltant que la relativité générale généralisée de la publication de 1917. En particulier, adieu espace-temps physique, Big Bang, multivers, constante cosmologique, problème de la platitude, densité critique, etc, etc

Mais à l'inverse, cela absoudrait aussitôt tous ceux qui n'ont jamais pu trouver une gravité quantique qui n'existait pas, ou encore un univers chiffonné qui n'existait pas plus.

Et cela ouvrira également d'immenses champs de recherche vierges pour reprendre à zéro toutes les précédentes difficultés de la cosmologie selon la relativité générale, et à commencer par les deux mystères récurrents de la matière noire et de la masse manquante. . En particulier, la cinétique de l'expansion ne concerne que des masses, et le mouvement de ces masses reste donc régi par un espace-temps mathématique. Et avec une telle multitude d'énormes masses dispersées, celui-ci ne serait plus "chiffonné", mais complètement "cabossé" de partout. Et donc la disparition des lentilles gravitationnelles et du Big Bang changerait certes les outils, mais pas le problème

Or en attendant une validation plus formelle, cette nouvelle explication des trous noirs selon la simple physique usuelle ne souffre à ce jour d'aucune contradiction expérimentale, et sur plusieurs points jusque-là pudiquement occultés, elle a même une capacité explicative bien supérieure à celle en vigueur jusque-là. Et dans l'habituelle approche holiste des systèmes complexes, elle est même la seule à pouvoir tout expliquer d'un coup.

Et donc wait and see ...

  1. a b c et d (en) Kip Thorne, Black Holes and Time Warps: Einstein's Outrageous Legacy, W.W. Norton, , 619 p. (ISBN 978-0-393-31276-8), Chap. 4 - The Mystery of the White Dwarfs
  2. a b et c (en) EHT Collaboration, « First M87 Event Horizon Telescope Results. I. The Shadow of the Supermassive Black Hole », The Astrophysical Journal Letters, vol. 875, no L1,‎ (DOI 10.3847/2041-8213/ab0ec7)
  3. a b c d e f g h i j et k (en) Jean-Louis Crolet, Bijan Kermani et Jean-Louis Benoit-Guyod, « Application of materials science to celestial matter, I : End-of-life stars and black holes », Exploratory Materials Science Research, vol. 2, no 2,‎ , p. 77-107 (DOI 10.47204/EMSR.2.2.2021.077-107)
  4. a b c et d (en) Jean-Louis Crolet, « Application of materials science to celestial matter, II : Gravitational lensing, event horizon and Big Bang », Exploratory Materials Science Research, vol. 2, no 2,‎ , p. 108-130 (DOI 10.47204/EMSR.2.2.2021.108-130)
  5. a b c et d (en) Jean-Louis Crolet, Bijan Kermani et Jean-Louis Benoit-Guyod, « Application of materials science to celestial matter, III : Geomagnetism, astromagnetism and Earth's internal heat source », Exploratory Materials Science Research, vol. 2, no 2,‎ , p. 131-156 (DOI 10.47204/EMSR.2.2.2021.131-156)
  6. J.-L. Crolet, « Du bon usage de l'électrochimie en corrosion », Revue de Métallurgie, vol. 92, no 12,‎ , p. 1341-1346 (DOI 10.1051/metal/199592121341)
  7. Jean-Louis Crolet et Gérard Béranger, « Corrosion en milieu aqueux des métaux et alliages », Techniques de l'Ingénieur,‎ , § 0.2 L'incontournable électrochimie, article no M150 (DOI 10.51257/a-v2-m150)
  8. J.-L. Crolet, S. Audisio et J. Lédion, « Électrochimie de la corrosion en milieu corrosif épuisé », Matériaux & Techniques, vol. 103,‎ , § 1.1 Encore et toujours le rôle du temps, article no 106 (DOI 10.1051/mattech/2015004)
  9. a et b J.-L. Crolet, « Vers un mécanisme unifié des diverses manifestations de l'hydrogène en corrosion aqueuse des aciers », Revue de Métallurgie, vol. 101, no 12,‎ , p. 1053-1086 (DOI 10.1051/metal:2004111)
  10. a et b M. Gerl et J.-P. Sissi, Traité des Matériaux, t. Tome 8 - Physique des Matériaux, Lausanne, Presses Polytechniques et Universitaires Romandes,
  11. a et b J.-L. Crolet, « Gonflement des aciers sous l’effet de l’hydrogène dissous en solution solide », Matériaux & Techniques, vol. 103,‎ , page 4 Figure 3, article no 505 (DOI 10.1051/mattech/2015043)
  12. (en) P. P. Edwards, F. Hensel, « Metallic Oxygen », ChemPhysChem, vol. 3,‎ , article no 53 (DOI doi/10.1002/1439-7641)
  13. Steven Pinker, Comment fonctionne l'esprit, Paris, Odile Jacob, , 680 p. (ISBN 978-2-7381-8359-0), p. 87 , La computation naturelle
  14. (en) T. Kallinger, S. Hekker, R.A. Garcia, D. Huber et J.M. Matthews, « Precise stellar surface gravities from the time scales of convectively driven brightness variations », Sci. Adv., vol. 2,‎ , article no e1500654 (DOI 10.1126/sciadv.1500654)
  15. CEA - Irfu, « The measure of the star surface gravity », (consulté le )