Critiques des fondements de la physique contemporaine
L’erreur réside dans la supposition fondamentale qu’il est possible d’expliquer tous les événements de la nature du point de vue mécanique.
Albert Einstein
« La théorie des supercordes est si ambitieuse qu’elle ne peut être que parfaitement exacte ou complètement fausse. Le seul problème est que les mathématiques sur lesquelles elle repose sont si nouvelles et si difficiles que l’on ne sait pas combien de décennies cela va prendre.«
Sheldon Glashow.
La physique est la science qui décrit le réel en tant qu’il est et se donne pour objet de savoir à l’esprit. Consécutivement, elle appréhende la totalité des objets du monde en leur existence, elle en analyse les lois d’émergence, de constitution, de persistance et de disparition. La physique se construit comme représentation d’une totalité cohérente dont chaque étant obéit à des lois générales qui sont celles par lesquelles l’Univers s’assure, est et subsiste.
Ces lois commandent les modalités de surgissement et d’être de ces éléments, de leurs quantité et masse, de leurs mouvements, interactions, associations et disparition. Leur découverte et mise en cohérence constitue la tache de la science physique qui tend à élaborer une représentation unifiée de l’Univers en sa totalité.
Ces lois et principes constituent des contraintes qui s’imposent aux phénomènes et sans le respect desquelles l’Univers ne serait pas compréhensible, ne pourrait fonctionner et être, tendrait vers l’illusoire et l’irréel.
Il en est ainsi des principes de causalité, de conservation de l’énergie, de l’irréversibilité du temps, de celui d’identité, des lois du mouvement et de sa transmission etc.
L’étude de ces lois et principes, les contraintes logiques qu’ils imposent, les nouveaux qui peuvent en être déduits ou s’accorder, représente le travail même d’élaboration théorique. Dés lors, l’objet de la mesure, la mathématique, sera de contribuer à renforcer et valider cet édifice théorique de sorte que la formule mathématique trouve à chaque fois sa traduction en termes de lois ou principes.
Ainsi, s’il est utile de disposer d’une équation de la gravitation, cela ne doit pas interdire la compréhension des phénomènes physiques qui autorisent son fonctionnement tel qu’il soit possible d’attribuer l’attraction gravitationnelle à une cause parfaitement explicable en raison.
La science physique devra rendre compte des propriétés de ses objets d’expérience sans se satisfaire de la prédiction qu’assure une preuve mathématique. Si la relativité inscrit son formalisme dans le cadre d’une géométrie non euclidienne d’un espace courbe, il ne s’agira pas d’accepter que » la formule fasse l’objet « , mais de se demander quelles sont les propriétés réelles de l’espace qui lui permettent effectivement de courber la trajectoire de photons.
Ici doit être faite une distinction : ce n’est pas parce que nous parvenons à formuler une loi mathématique d’un phénomène que nous le comprenons. Il faut différencier deux temps dans la démarche scientifique : celui de la mesure et de l’écriture mathématique du phénomène et celui de son intelligibilité, de la compréhension de l’ensemble des causes qui le déterminent, de la découverte des lois plus générales qui le gouvernent et le rattachent à la totalité des autres objets existants qui constituent le système du monde.
Si Galilée a affirmé que la nature parle essentiellement le langage de la mathématique, il ne constitue pour autant qu’une première approximation, un mode provisoire d’accès à la vérité scientifique.
Le souci d’objectivité pouvant s’ériger en système de vérités incontestables a constitué, depuis la naissance de la science moderne, une orientation méthodologique inflexible qui, en permettant de circonscrite un domaine de certitudes, en délimitant celui des sciences exactes, en érigeant la mathématique comme une langue universelle, a pu échapper aux incertitudes et confrontations de savoirs divergents et contribuer ainsi pour un temps au progrès de l’esprit.
Mais, cette exigence épistémologique nécessaire a également contribuer à s’éloigner toujours un peu plus des contraintes axiomatiques des lois et principes de bases de la physique, à se détacher du soucis d’avoir à représenter la mécanique et l’être des phénomènes au point que le langage mathématique n’a pas craint d’afficher son autonomie et son intraduisibilité dans l’espace de la raison représentative.
La physique quantique, en séparant les principes applicables à son propre domaine et ceux relevant de la physique classique a ainsi rendu irréductible l’un à l’autre ces deux univers (alors que par essence les objets du monde sont unis), supposant un espace de savoirs autonomes, intraduisibles dans le langage de la sensibilité quotidienne.
Pour cette physique idéaliste et formelle, on peut tolérer plusieurs représentations du phénomène puisque seule importe la vérification expérimentale et la cohérence mathématique. Celle-ci devient la vérité objective qui facilite l’accord de toutes les subjectivités. Le rêve d’un positivisme universel qui échapperait à tout anthropomorphisme constitue l’idéal scientifique par excellence. Dés lors, l’orientation choisie par cette physique formelle sera de se libérer de toutes les représentations pour traduire le monde en un système global d’équations, d’atteindre l’univers platonicien des pures idéalités.
2 – Raison mathématique et raison conceptuelle
La physique quantique s’est construite sur un principe de sagesse et d’acceptation de son incapacité à comprendre les causes et mécanismes des phénomènes pour ne fournir surtout un cadre formel destiné à comprendre les résultats des expériences et assurer leur mise en cohérence. L’équation d’onde par exemple est incompréhensible même par son auteur. Cette équation dite de Schrödinger fut trouvée hasardeusement, par tâtonnements, et n’a fait l’objet d’aucune démonstration sous forme de développement de prémisses. Elle n’est opératoire que pour l’atome d’hydrogène et n’admet pas de solution satisfaisante pour les atomes plus complexes. La grande force de cette équation, c’est qu’elle permet d’associer résultats expérimentaux et théorie mathématique et ceci avec un très un haut degré de précision. Celle-ci est complètement incompréhensible « dans le réel », mais elle est toujours d’une très haute efficience pratique. Dés lors, malgré son domaine d’application limité, elle joue un rôle idéologique de premier plan puisqu’elle a permis à la physique atomique de ne plus s’embarrasser de questionnements sur les modalités de fonctionnement de l’atome. En désintégrant la notion de trajectoire au moyen d’une mathématique probabiliste et en justifiant ce coup de force par la justesse et la moisson des résultats expérimentaux, l’équation d’onde a donc déplacé le lieu du débat vers des espaces où il ne devient ni intéressant ni utile désormais de s’interroger davantage. Mais à vrai dire si la physique quantique nous apparaît excessive dans son usage de l’instrumentation mathématique au détriment de l’intelligibilité du phénomène, il ne s’agit pas d’une très attitude nouvelle. Il faut se rappeler que depuis Newton la physique classique fonctionne avec une loi mathématique de la gravitation qui n’a jamais reçu jusqu’à ce jour le moindre début d’explication sur ses causes. Newton lui-même s’est refusé à se prononcer sur la nature du phénomène pour se contenter d’en assurer la transcription mathématique. Tel est le statut de l’équation différentielle sur la gravitation. Elle laisse ouverte l’interrogation et appelle à percer le mystère sur les causes effectives de l’effet gravitationnel. Il en va différemment pour la physique quantique qui a fermé d’entrée le jeu le champ de la recherche en affirmant dans bien des cas l’autosuffisance du formalisme mathématique. La cohérence formelle prend alors le pas sur l’intelligible et cela se traduit par une désorganisation complète du système des concepts. Ainsi, Heisenberg pensait-il pouvoir remplacer la notion de particule par celui de symétrie fondamentale. La matière cesse d’avoir une réalité pour être entièrement recouverte – et comprise – dans les concepts mathématiques et géométriques. Cette conception supposerait une sorte d’autonomie de la raison mathématique échappant à la raison conceptuelle, ayant ses lois et sa logique propres, sans comptes à rendre au réel. Si l’on s’accorde à penser que la logique conceptuelle est celle qui structure notre entendement, qui construit une image du monde et donne une cohérence à ses lois, une telle déclaration de principe d’autonomie signifierait que la physique mathématique s’autorise des constructions pouvant échapper aux contraintes du réel. Or c’est effectivement ce qui s’est produit, le relâchement des contraintes a conduit à une prolifération de théories imaginaires, d’espaces au nombre insensé de dimensions, à une théorie de la grande unification, par cordes interposées, ayant très tôt perdu tout contact avec la réalité des phénomènes (elle prévoit l’unification des trois interactions à des températures telles qu’il n’existera plus ni liaisons ni particules, mais un magma indistinct !!). Selon G. Lochak ( la géométrisationde la physique/ Flammarion P. 251) « On assisté, lors des derniers siècles, à la floraison de géométries de plus en plus générales qui, plus qu’un langage, sont devenues la structure même de la physique théorique, comme l’avait été jadis la géométrie d’Euclide. Or cette structure se développe maintenant de façon presque autonome comme si, au lieu de n’être qu’un élément d’organisation de la théorie, elle en était l’unique source de progrès…..Toute théorie à un champ d’action plus limité qu’on voudrait le croire. Si on la projette sur de nouveaux territoires, tôt ou tard, elle s’adapte mal et l’extrapolation des procédés formels qu’elle inspire ne la renouvelle qu’en apparence, en l’enfermant dans une complexité croissante au dessus de laquelle plane inexorablement le spectre du « syndrome de Beauvais » – la cathédrale si haute qu’elle finit par s’effondrer » Ainsi, résultat après résultat, expérience après expérience, les physiciens quantiques élaborent des modèles de plus en plus complexes et précis qui donnent satisfaction dans » le réel » . Mais le forcing et la réussite expérimentale tiennent lieu de modèle explicatif. Les relations d’incertitude de Heisenberg viennent conforter cet esprit des limites de l’esprit : on ne peut à la fois connaître la position et la vitesse d’une particule. Il existerait une « boite noire » à jamais inaccessible à la connaissance et l’homme doit accepter son ignorance comme un fait de sa nature. Mais pouvons-nous poser cet interdit comme définitif sans savoir si l’avenir ne garde pas en réserve la technique – et la théorie - qui pourra permettre les mesures simultanées de la vitesse et de la position d’une particule ? On comprend l’affolement d’Einstein devant cette mise en pièce du réel, la destruction des catégories fondamentales que sont les notions de trajectoires et de mouvement, de position, d’objet physique. Mais n’a-t-il pas déclaré : l’erreur réside dans la supposition fondamentale qu’il est possible d’expliquer tous les événements de la nature du point de vue mécanique. Il a lui-même ouvert la voie à ce décrochage par sa mathématisation du champ gravitationnel, comportant l’idée saugrenue d’une « courbure de l’espace » qui n ‘est jamais qu’une courbure mathématique. Cette image fut le support de la représentation : l’ambiguïté est constamment entretenue ici aussi entre la construction mathématique chargée de transcrire le réel et la physique du phénomène Avec le développement de l’étude des objets microscopiques la physique a perdu son unité et l’on peut dire que la construction de la physique quantique s’est faite par décrochages successifs à partir des concepts classiques. De nombreuses lois de la physique microscopique ne trouvèrent pas d’équivalents pour les objets macroscopiques. Il nous apparaît que cette dématérialisation du réel, ce refus consécutif d’asseoir la physique sur une base mécanique, va entraîner une succession de décrochages, de dérives et d’errances dans de nombreux domaines qu’il importe de passer en revue. 1 – Le modèle de l’atome Le modèle initial de l’atome de Rutherford qui s’appuyait sur les lois classiques ne parvenait pas à rendre compte de la stabilité de l’atome. On s’est donc habitué à imaginer des lois, des systèmes d’explication adaptés à chaque objet particulier sans plus se préoccuper de la cohérence de ces nouveaux principes avec un tout, en acceptant l’approfondissement de la scission comme allant de soi et nécessaire aux progrès de la recherche. Mais chemin faisant, on s’éloignait chaque fois davantage du réel, de la nécessité de représenter le phénomène. Ceux qui prirent conscience des dangers que faisaient courir ces nouvelles pratiques ne purent s’y opposer avec des arguments et des théories convaincants. Ce conflit d’orientation est tout entier contenu dans l’opposition Bohr-Einstein. La physique idéaliste, formaliste et « productiviste » de Bohr paraissait en contradiction avec la conception d’Einstein d’une physique logique et claire, de grande simplicité formelle, réaliste, faisant appel à la représentation et à l’intuition. Ce débat eu lieu sur un fond d’incompréhension de la nature même des faits étudiés de sorte que nous avons assisté à une victoire » par défaut » de la philosophie idéaliste et formaliste. En effet, ni Einstein ni De Broglie par exemple, ne purent élaborer un modèle alternatif qui, tout en englobant les acquis de la physique quantique, aurait permis de réinsérer celle-ci dans le cadre unitaire plus vaste d’une mécanique générale où les lois du mouvement seraient applicables à tous les objets. Ce que l’on peut reprocher à «l’idéalisme» de l’école de Copenhague, ce n’est pas l’abandon de la notion de trajectoire de l’électron mais de n’avoir proposé aucun modèle mécanique alternatif de fonctionnement de l’atome. En effet, que les lois statistiques soient seulement aptes à nous donner une probabilité de présence de l’électron au détriment des certitudes « classiques », que la trajectoire et avec elle toute représentation du mouvement réel disparaissent, cela importerait finalement bien peu si nous pouvions au moins comprendre le mécanisme qui assure la stabilité de l’atome. Nous voulons savoir comment l’électron se maintient sur son orbite, quel est le procédé de transformation réversible de l’énergie de masse en énergie de liaison et en définitive pourquoi la « catastrophe électrodynamique» ne se produit pas qui aurait pour conséquence la destruction de l’électron aspiré par le noyau. Sur ces questions capitales, la mécanique quantique fait discrètement l’impasse, se contentant de constater un niveau stable d’énergie fondamentale. Elle est parvenue à entraîner critiques et adversaires à se battre sur des positions bien peu stratégiques. Il ne faut pas oublier que la découverte de l’onde de probabilité découle directement de l’échec du modèle classique de l’atome planétaire; Dés lors, le débat entre les adeptes de l’école de Copenhague et ses adversaires « matérialistes » a permis de dissimuler la véritable faiblesse de la physique: l’incompréhension du mécanisme de liaison atomique. Or, il est évident que si on admet un niveau d’énergie fondamental, on doit également accepter l’idée d’une orbite stable puisque l’électron se trouve obligatoirement à une distance précise du proton. La question peut donc être facilement résolue sur la base d’une argumentation logique et rationnelle issue des principes fondamentaux de la physique. L’orbite est stable car dans le cas contraire, l’édifice universel se trouverait ébranlé. Nous sommes donc assurés que l’électron suit très exactement la trajectoire circonscrite par cette orbite sans incertitude aucune et même supposer un léger mouvement elliptique. Cependant il peut se trouver un conflit entre la certitude théorique et l’inexactitude de la mesure consécutive aux relations d’Heisenberg. Mais cela suppose qu’il n’existe qu’une seule méthode pour déterminer simultanément vitesse et la position: celle de la mesure directe. Or, en astronomie il est possible de déterminer indirectement la masse et la trajectoire d’une étoile invisible, par l’influence qu’elle exerce sur le mouvement d’un autre astre. Pour ce qui concerne le rayon et la vitesse de l’électron dans l’atome d’hydrogène, on peut également les déterminer à partir de la fixation de la valeur de la FEM, de la mesure de l’énergie de liaison et de la masse des particules. En définitive, la querelle sur la trajectoire de l’électron aurait pu facilement être tranchée si elle n’avait pas servi à manifester une véritable inquiétude : celle de la perte du réel ressenti par les physiciens matérialistes avec l’évanouissement du modèle mécanique de fonctionnement de l’atome. C’est donc sur terrain essentiel qu’il faut recentrer notre questionnement. 3 – La « mer » de Fermi et les imaginaires de la physique quantique L’une des plus grandes malchances qui s’abattit sur la physique du milieu du XXième siècle fut la découverte du positron sur les fondements de la théorie loufoque de Dirac d’une mer infinie de particules invisibles d’énergie négative et qui découlait d’une équation admettant une solution négative. Malchance, car ce succès expérimental retentissant devait creuser un peu plus le fossé qui séparait la physique réaliste de la physique mathématique. Preuve était apportée que des postulats ahurissants accolés à une mathématique efficiente pouvaient conduire à des découvertes d’importance. Les physiciens se sont donc habitués aux constructions les plus folles, de plus en plus détachées du souci phénoménologique. Le modèle réaliste prenait statut de modèle heuristique devant simplement aider au développement mathématique, sachant qu’au fond seul importait la prédiction du phénomène, sa maîtrise et sa reproductibilité. Aucun physicien sensé ne soutiendra l’existence de cette mer d’énergie négative qui devrait avoir une densité inouïe (alors même que l’espace est vide et sans action sur les corps), mais cette représentation aide à comprendre, donne un semblant de justification à une mathématique qui pourrait tout aussi bien s’en passer. Ceci a conduit à l’abandon du principe de cohérence mathématique. Il « existe » désormais une mer d’énergie négative qui va jusqu’à écranter la charge d’un électron. Cette énergie négative est par définition de nature infinie et cela apparaît naturellement dans les calculs. Il faut donc « renormaliser » la charge, c’est-à-dire faire disparaître les infinis. Il ne s’est manifesté une quelconque opposition pour attribuer le recours à cet expédient formel à une carence fondamentale de la théorie. Ainsi sans être retenu par les contraintes du réel, on peut fonder une théorie générale des interactions sur la notion de particule virtuelle dont la validité épistémologique ne repose sur aucune base. La physique quantique abandonne jusqu’au principe d’observabilité et la possibilité même d’effectuer des expériences sur les objets qu’elle a définis. Il « existe » ainsi des particules virtuelles statutairement indécelables. 4 – Abandon du principe de conservation de l’énergie Pour justifier la théorie des interactions, on n’hésite plus à briser les tabous du principe de conservation de l’énergie, en « empruntant » de l’énergie dans un système qui par ailleurs n’en perd aucunement, pour ensuite la restituer. L’énergie des photons virtuels est « puisée » selon un mode mystérieux dans le champ magnétique environnant les particules. La théorie des photons et particules virtuelles est en contradiction flagrante avec les lois de conservation de l’énergie. Pourtant elle constitue l’ossature interprétative des interactions forte, faible gravitationnelle et électromagnétique. Cette entorse aux principes communs est autorisée par les relations d’Heisenberg qui prévoient la possibilité d’incertitudes portant sur l’énergie ou sur la position des particules. Or ces particules virtuelles bénéficient du privilège de la double incertitude : ne pouvant jamais les observer, on n’aura pas à choisir entre la précision sur leur position ou leur énergie. Les physiciens quantiques ont donc usé d’un procédé étrange consistant à transporter un fait d’expérience portant sur des objets réels et observables, vers des objets virtuels donnés comme inobservables afin de leur attribuer un semblant de réalité et justifier ainsi leur construction théorique. Pour donner une cohérence à la théorie des interactions, sans plus approfondir les propriétés qui distinguent gravitation, FEM, forces fortes et faibles, on a construit un modèle à partir de la généralisation des caractéristiques de la FEM. C’est ainsi que fut « découvert » le graviton comme agent de l’interaction gravitationnel. Un champ de gravitation est constitué par un nombre infini de gravitons. La terre et la lune échangent ces gravitons et ces échanges forment un champ gravitationnel. En toute rigueur, un proton frappé par un graviton devrait subir un certain recul, mais ce recul est si infime que nous ne le percevrons jamais! Il est donc impossible de mesurer un jour un quelconque graviton : la physique moderne multiplie ainsi les objets à jamais indécelables. Le champ gravitationnel, dont Einstein avait bien heureusement « pompé » tout l’éther, est à nouveau empli cette fois de gravitons. Par ailleurs, une particule chargée émet dans le même temps des ondes électromagnétiques et des gravitons : comment pouvons nous les distinguer ? De même, sans se demander ce que peuvent être réellement des sous-constituants d’une particule et en quoi ils peuvent différer de leur matière constitutive, les physiciens ont accepté sans broncher les quarks pour fournir un habillage conceptuel à certains résultats d’expériences sur les nucléons. Ici aussi, le cadre explicatif est parfaitement délirant mais il présente l’insigne vertu de faciliter la mise en cohérence et la reproductibilité d’un grand nombre d’expériences. Apparaissent au grand jour les procédés les méthodes, et l’idéologie de la physique contemporaine : la construction mathématique ne saurait avoir de traduction dans le réel. Dès lors, toute critique des quarks se brise sur le roc des formules qui n’ont d’existence et de validité qu’en elles-mêmes à l’intérieur d’un système formel. La nature parle effectivement le langage de la mathématique mais aux mathématiciens seuls : se découvre un territoire autonome définitivement retranché de la représentation qui permet aux physiciens toutes les fantaisies logiques. La physique quantique est devenue une nouvelle République bananière gouvernée pas ses propres lois, dont celle de s’auto-valider, sans autre contrainte philosophique pour se justifier que l’efficacité de ses résultats. Les scientifiques n’hésitent pas à pousser un peu plus loin leur avantage : c’est la certitude mathématique qui contraint maintenant l’objet à l’existence. Les quarks n’étaient que le produit d’une construction mathématique, mais on se demande s’ils n’existent pas tout de même un peu, d’autant qu’ils sont le résultat de mesures d’angles de diffusion de particules. Ils seraient même collés entre eux à l’intérieur de la particule par des gluons. Cette dernière hypothèse supposerait de distinguer à l’intérieur d’une particule la matière d’une autre substance constituants les quarks et qui serait comme enserrés dans la matière. Mais plus étonnant encore : les gluons apparaissent tout à la fois constituer le champ de l’interaction forte qui relie entre eux les nucléons ET une sorte de substance qui lie entre eux les quarks. Puisque les gluons internes aux nucléons doivent avoir une grande densité qui les empêche de les séparer (d’autant plus élevée que les quarks sont proches) il faut attribuer cette densité aux gluons constitutifs du champ de l’interaction forte (nommés aussi bosons d’hypercharge ). Ainsi la masse du boson X est-elle de 10E15 Gev. Nous pénétrons ici dans le domaine de l’inouï, de la fable quantique, d’une véritable science-fiction! Par ailleurs, comme ce champ est supporté par le vide quantique, il faut attribuer à ce vide une densité incroyablement élevée. Il faut dire que la science quantique a inventé une catégorie ontologique dont l’originalité lui est exclusive : celle d’une réalité hybride – un semi-réel – qui sans exister totalement existe quand même un peu, une zone intermédiaire entre le monde et le néant qui lui permet de jouer sur les deux tableaux du représentable et de l’indicible en fonction de ses besoins théoriques. Ce qui est remarquable avec la chromodynamique quantique, c’est qu’elle se donne pour absolument non criticable dans le réel. Les objets sont définis avec leurs propriétés (par exemple les quarks) et leur mode de liaison (gluons) mais il s’agit d’une sorte de description d’un mythe n’ayant aucune espèce de réalité possible. Cette systématisation a dû se faire en fragilisant davantage l’une des quelques grandes certitudes demeurées encore en place : l’unité de la charge E.M. Alors même qu’aucun physicien n’est en mesure d’expliquer pourquoi une charge uniforme est attachée à certaines masses malgré leur différence de poids, et encore moins ce qu’est réellement une charge au regard de l’énergie interne d’une masse, les théoriciens des quarks n’ont pas hésité à créer des charges fractionnelles qui pourraient à la limite – on ne sait plus très bien – participer à l’agglomération des quarks en particules tout en interagissant au moyen de gluons. La charge électromagnétique reste aujourd’hui toujours aussi mystérieuse. Certains l’attribuent à un «nuage électromagnétique » entourant la particule, d’autres affirment que la charge est portée par la masse. Selon Lorentz : les particules de matière portent des charges électriques qui participent à leur mouvement. Entre proton et neutron par exemple «existerait» un nuage de mesons virtuels dont certains portent une charge électrique et cet essaim tourbillonnant de charges électriques créerait un champ magnétique. On ne voit pas très bien comment une particule peut porter une charge, laquelle serait constituée d’une «substance » particulière (des nuages ?) au statut bien étrange. Ce nuage serait indépendant et séparé de la particule, mais on ne saisit pas le lien existant avec cette propriété des particules de produire une force électromagnétique, c’est-à-dire justement ce nuage EM. Comme on le constate, cet imaginaire fantaisiste ne résulte pas d’un principe naturel d’intraduisibilité des phénomènes dans l’univers du concept, mais reflète plutôt une réelle difficulté de compréhension. Trop souvent les physiciens prennent prétexte de l’insuffisance d’une métaphore ( ici le nuage, la charge «portée » par la masse ) pour justifier leurs insuffisantes analyses phénoménologiques. Ils doivent recourir à la seule mathématique pour combler le déficit prétendument naturel de l’explication. 9 – Incompréhension de la nature des forces et l’unification de celles-ci Pour poser le principe de l’unification de la Force électrofaible (FEF) avec la force électromagnétique et la force forte encore faut-il savoir si la spécificité de ces interactions autorise leur rapprochement. Avec les forces gravitationnelles, électromagnétique (FEM) et forte, nous avons affaire à une liaison permanente qui maintient l’intégrité physique des particules. La physique quantique, n’ayant pas élucidé le mystère de ces » liens « , a présupposé que ces forces se maintenaient par l’échange de pseudo-particules construites sur le modèle du photon et intégrées sous le vocable générique de « bosons d’échanges » (gravitons, gluons, photons). Pour réaliser l’unification FEM/FEF, on doit faire véhiculer l’interaction faible par des bosons intermédiaires massifs et égaliser les constantes de couplage courant faible-boson intermédiaire et courant électromagnétique-photon. Le problème phénoménologique est alors le suivant : la constance de couplage électromagnétique manifeste l’état d’une » force de composition » permanente maintenant le lien proton-électron, la force électrofaible est celle d’une » force de décomposition » aboutissant, par la destruction du neutron ( réaction bêta ), à la création p+, e- et neutrino. La force initiale ayant déclenché sa décomposition est celle produite pour effectuer son arrachement de l’atome. La FEF est donc celle qui est mise en œuvre pour assurer la décomposition du neutron pendant toute la durée du processus. De quelque côté que nous nous tournions, nous ne parvenons pas à saisir la moindre identité avec les processus gravitationnel, électromagnétique et nucléaire. L’unification dont il s’était agi n’a pu être que purement mathématique. La théorie de la grande unification prévoit qu’à la température inouïe de 10E12°K, toutes les trois forces (sauf la gravitation!) seront unifiées puisque les courbes respectives de ces forces se rejoignent en un point. Les mathématiques ont ici encore raison sur le réel, et il importe peu que cela soit physiquement impossible. La physique quantique a en effet besoin d’une théorie unifiée des forces, à n’importe quel prix. Selon cette théorie, l’échange de bosons X ne pourra se faire que lorsque les quarks seront à la distance d’unification L = 10E-31 m ce qui donne une masse du boson égale à 10E 15 Gev ! On ne peut donc observer ce genre de particule. Il est possible cependant avec beaucoup d’imagination de considérer que le processus d’échange se produit à l’intérieur même d’un proton provoquant sa décomposition en un positon et un meson pie neutre. Mais cette décomposition spontanée est très rare car on estime à 10 E 31 ans la durée de vie d’un proton. Pour vérifier cette hypothèse, une expérience est toujours en cours au fond d’une mine où on attend la désintégration de ce pauvre proton. Il aurait été plus judicieux de s’interroger sur les modalités physiques d’annihilation des protons plutôt que de recourir à une explication spontanéiste pour expliquer certains phénomènes naturels. Ainsi par exemple, la longue portée de la FEM contraignit les théoriciens à imaginer que les bosons Z et W devaient avoir une masse au repos très élevée. Cette masse provient d’une transition de phase. Quelle est la cause de ce changement de phase ? Elle est provoquée par une brisure SPONTANEE de symétrie. Ce qui est intéressant dans la théorie spontanéiste, c’est qu’un phénomène n’a plus de cause puisqu’il se déclenche spontanément, ce qui nous dispense de questionnements. C’est un concept fort pratique auquel nous devrions avoir plus souvent recours lorsqu’on peine à comprendre. Ce phénomène a été théorisé en 1963 par Peter Higgs. Nous attendons impatiemment avec tous les physiciens la découverte de ce fameux boson d’échange de Higgs. Selon Lochack ( géométrisation de la physique, flammarion P. 252) : « De nos jours la théorie des jauges ( que la théorie des épicycles de ptolémée) lorsqu’elles essaient de reconstruire le monde en combinant toujours les mêmes éléments de symétrie unitaire qu’aucune loi générale ni aucun fait physique n’impose. Cette méthode est digne de la théorie des épicycles et non d’une méthode moderne qui se donne des équations sur lesquelles on ne revient pas…La théorie des particules ne possède pas de telles équations, n’a jamais formulé de prévisions vraiment précises et n’est pas parvenue à simplifier sa structure…les idées nouvelles, comme les supercordes ou d’autres, ne fournissent ni prévision ni progrès conceptuel ; d’origine mathématique, elles ne peuvent que changer une marge de manœuvre au prix d’une nouvelle complications » et P.253 « Mais il est difficile de voir dans une théorie comme celle de l’électrofaible une synthèse entre l’électromagnétisme et les interactions faibles qui serait du même ordre que celle réalisée par Maxwell entre l’électricité et le magnétisme. C’est plutôt l’accolement de deux schémas formels, la réunion de deux groupes d’invariants dont l’un SU(2) vient d’on ne sait où, car rien ne l’impose. La théorie…offre aussi peu une synthèse que le Louvre et la pyramide du Louvre… » 10 – Absence de compréhension de la neutralité L’un des problèmes les plus mal compris encore aujourd’hui est celui de la neutralité. Il s’agit de savoir pourquoi une particule neutre ne possède pas de charge électrique, pourquoi son passage n’est pas détectable dans une chambre à bulles et reste insensible à l’action d’un champ magnétique. Il faut donc bien qu’il s’agisse de propriétés matérielles, d’une quelconque singularité attachée à sa matière, à sa substance, à des caractères dépendant de la nature de son mouvement, bref, il faut bien qu’il y ait une cause physique qui distingue les particules neutres des particules chargées. Pour la physique actuelle, le neutron ne se distingue pas du proton dans l’atome, les deux particules sont interchangeables comme deux états d’un même objet : le nucléon. La charge électrique ne joue plus qu’un rôle d’étiquette qui distingue les deux états possibles P et N. Le plus étrange est alors l’indépendance de l’interaction forte par rapport à la charge électrique. On est tenté de poser une question : mais où donc est passée la charge du proton ? Comment la F.N. transforme-t-elle la charge E.M. en charge nucléaire lors de l’association d’un proton / neutron alors que persiste la liaison E.M proton / électron par exemple dans l’hélium ? La question est de savoir quel est le phénomène physique de transformation d’une charge électromagnétique en charge nucléaire. Dans le noyau, le neutron est-il vraiment neutre ? Le neutron dans l’atome n’est pas le même que ce celui-ci à l’état libre. Il n’est pas neutre au sens où il se trouve à l’origine d’une force : la force nucléaire. Celle-ci n’existe que lors de la mise en relation d’un proton avec un neutron. Le neutron est simplement neutre électromagnétiquement, mais il n’est pas non réactif : il réagit «autrement ». Jusqu’à présent nous avons constaté que la neutralité électronique du neutron n’est effective que lorsqu’il se trouve en état de transition, après avoir été arraché à un atome. Quel rapport pouvons-nous établir entre cet état de décomposition et le constat de sa non-réactivité E.M. ? Quelle est donc cause physique, matérielle, qui différencie l’état de charge E.M et nucléaire de l’état neutre ? Par ailleurs, qu’en est-il de l’action du neutron dans l’atome car si les deux particules étaient aussi interchangeables qu’on le dit, on ne voit pas pourquoi il serait nécessaire de distinguer – surtout par leur masse – proton, et neutron. Autre problème d’importance : comment se fait-il que le nombre de protons, neutrons et électrons ne soit pas compensé par une quantité équivalente d’antiparticules quand on sait que la création s’effectue par paires ? Nous nous trouvons là devant une dissymétrie fondamentale qui n’a pas reçu le moindre début d’explication. S’il y avait autant de particules que de particules opposées, il n’y aurait plus rien, toute la matière se serait annihilée. Le principe de parité se trouverait, dés l’origine, gravement remis en cause. Il paraîtrait étonnant que le Maître de la Création, qui a prévu un mécanisme d’émergence par paires de la matière, n’ait pas également prévu un moyen d’éviter son autodestruction. Quelle pourrait alors être l’antiparticule du proton ? Il y a fort à parier que proton et neutron ont été crées dans le même temps, aussi le neutron pourrait bien postuler au statut d’antiparticule du proton. Mais à quelles conditions, selon quel processus ? Ce principe de la parité (selon lequel pour toute particule créée, il existe une particule qui est son image dans un miroir) est constaté par l’expérimentation, mais nous n’avons aucune théorie qui le fonde dans son principe et sa nécessité. L’image du miroir est certes belle et pédagogique mais elle a l’inconvénient de ne rien expliquer. Par exemple, existe-t-il des contraintes qui obligent à cette parité ? Qu’est-ce qui interdit la naissance solitaire des particules et pourquoi la gémellité serait-elle un fait de nature ? Y a-il un agent extérieur qui oblige le photon à se scinder en deux particules de spin opposé ? Et pourquoi, par quel procédé mécanique, passe-t-on du mouvement rectiligne du photon à deux mouvements de rotation de direction opposée? On ne peut que regretter ici la disparition du réflexe métaphysique qui auraient conduit, en d’autres temps, les physiciens à décrire plus avant la mécanique des phénomènes et à s’interroger davantage sur leurs causes. 11- La question de la vitesse limite Einstein constate, à la suite des expériences de Michelson et Morley, l’impossibilité d’appliquer le théorème de l’addition des vitesses à celle de la lumière. Il pose le principe d’une vitesse limite mais ne nous dit pas quelle en est la cause. Et s’il conclut qu’aucun corps de matière ne peut atteindre cette vitesse, on ne comprend pas pourquoi celui-ci serait doté d’une sorte d’auto inertie qui l’alourdirait. D’après la relativité, en effet, l’augmentation de la masse est proportionnelle à celle de l’énergie (selon l’équation de Lorentz ). Aucune particule de matière ne peut donc atteindre la vitesse de la lumière sans que sa masse tende vers l’infini. La question est de savoir d’où provient cette matière supplémentaire qui s’agglutinerait et comment s’effectue cette transformation d’énergie en masse ? La confusion entretenue dès l’origine entre la masse-matière et la masse-cinétique pourrait bien avoir facilité cette assimilation rapide entre la masse et l’énergie alors que nous savons que la création de matière ne peut s’effectuer qu’à des conditions de vitesse et d’énergie précises. Il est curieux en effet qu’un corps, sur son chemin, s’adjoigne un volume de matière, par un procédé permanent de transformation de l’énergie en masse, et ceci à n’importe quelle vitesse. Avec la relativité, une particule ne possède plus une masse invariable qui signerait son identité, mais celle-ci devient fluctuante. Or, avec l’émission de rayonnements de freinage aux vitesses proches de C, nous en sommes presque à nous demander s’il n’y a pas plutôt perte que gain en masse ! On constate que la théorie de la relativité, pour fonder l’existence d’une vitesse limite, repose sur des bases bien fragiles. Par ailleurs, rien interdit au photon, qui n’a pas de masse-matière, de dépasser la vitesse limite puisqu’il n’y a aucun empêchement dans son cas. Le photon, comme corpuscule, existe à différents niveaux d’énergie. Or il ne peut être accéléré et, lorsqu’il accroît son énergie, quelque chose de sa substance doit augmenter de volume. Mais cette élévation «de masse » est sans importance sur sa vitesse qui demeure invariable. Il peut donc augmenter le volume «substance » à l’infini. Cela ne se produit pas puisqu’on rencontre cette fois une énergie limite sous forme d’une rupture d’état qui donne naissance à la matière. Quelle est la cause de ce phénomène ? Il ne peut s’agir que d’une cause externe car si aucun effet extérieur n’intervient pour limiter son élévation de volume et le scinder en deux particules, il est parfaitement autorisé à s’accroître à l’infini. Ainsi en raisonnant avec la relativité on se trouve dans l’incapacité de dire pourquoi le photon ne peut se déplacer plus vite que la vitesse de la lumière, ni quelle est la cause de cette limitation. L’expérience seule prouve qu’il en est ainsi, qu’il existe une limite aux vitesses. Mais, quelle en est l’origine ? Cette origine ne peut être interne, comme obéissant à un nouveau principe aux fondements plus qu’incertains : celui d’une inertie propre, interne, à la matière 12- Une zone des rendements décroissants Les exemples abondent donc qui tendent à démontrer le radical décrochage du réel qui nous semble devoir constituer une formidable révolution négative passée remarquablement sous silence : on ne trouble pas les équipes de physiciens qui gagnent. Or depuis l’époque des grands découvreurs ( Einstein, Bohr, Shrodinger, de Broglie, Fermi etc ) on peut dire que la physique théorique a stoppé sa progression pour accumuler les résultats de façon désordonnée et incohérente. Les seuls progrès réels sont venus de la physique des particules, mais nous sommes désormais rentrés dans la zone des rendements décroissants : des accélérateurs de plus en plus puissants, des équipes de chercheurs toujours plus nombreux pour des résultats de plus en plus maigres. Il semble bien au stade actuel de son développement – et après le bond gigantesque effectué depuis le début du siècle – que toute la physique se trouve aujourd’hui dans la situation de la cosmologie ptolémaïque avant le héliocentrisme : le formalisme devient de plus en plus complexe, arbitraire et ésotérique à mesure que les physiciens se saisissent moins bien de leur objet, comme si chacun ajoutait ombre sur ombre, en dissimulant pour s’en éloigner les vérités les plus simples qui devraient constituer le socle de toute physique. |