BookPDF Available

A travers le miroir - Au delà de la "mémoire de l'eau"

Authors:
  • Scientific and Medical Writing

Abstract and Figures

Cet ouvrage fait suite à "L’ Âme des Molécules - Une histoire de la mémoire de l'eau" du même auteur. Après la description détaillée et documentée de la polémique scientifique connue dorénavant sous le nom de "l’affaire de la mémoire de l’eau", une grille de lecture des expériences réalisées par Jacques Benveniste et ses collaborateurs nous est proposée
Content may be subject to copyright.
Dessins couverture et corps du texte : illustrations de John Tenniel pour Alice in
Wonderland (1866)
Du même auteur :
L’Âme des Molécules Une histoire de la « mémoire de l’eau »
Collection Mille Mondes (2007)
ISBN : 978-1-4116-6875-1
www.mille-mondes.fr
Ouvrages disponibles sur Lulu.com
© 2012 Francis Beauvais
beauvais@mille-mondes.fr
4ème trimestre 2012
(Edition 2023 revue et corrigée)
Tous droits réservés
ISBN : 978-2-7466-2859-5
Le code de la propriété intellectuelle interdit les copies ou reproductions destinées à une
utilisation collective sans consentement de l'auteur (articles L.335-2 et suivants).
Francis BEAUVAIS
A TRAVERS LE MIROIR
Au-delà de la « mémoire de l’eau »
Ξ Collection Mille Mondes Ξ
5
________________________________________________
Avant-propos
e livre fait suite à l’ouvrage intitulé « L’Âme des Molécules » dans lequel
nous avions relaté la polémique scientifique connue dorénavant sous le
nom d’ « affaire de la mémoire de l’eau ».
Ayant terminé la lecture de ce précédent texte, le lecteur pouvait à bon droit
se sentir insatisfait. En effet restait l’interrogation principale : l’eau avait-elle
réellement une « mémoire » comme semblaient le suggérer certaines
expériences ? Que fallait-il penser des « discordances cohérentes » que nous
avions relevées tout au long du récit ?
Conscient que la conclusion de l’ouvrage ne répondait pas au besoin de
catharsis du lecteur, nous avions tenu néanmoins à ne pas dissiper la tension
générée. Ce procédé permettait en effet de souligner que « l’affaire de la
mémoire de l’eau » était une « histoire vraie » qui contrairement à ce que
pourrait laisser penser la lecture de certains comptes-rendus relatant cette
polémique n’avait toujours pas trouvé d’issue satisfaisante.
De plus, nous tenions également à séparer ce qui relevait de la description et
ce qui était du ressort de l’interprétation. En effet, si on peut être d’accord sur
les événements rapportés et sur l’absence d’une explication triviale qui
permettrait d’en rendre compte, on peut à partir des mêmes matériaux tenter
d’autres interprétations. Le lecteur peut en effet ne pas partager la grille de
lecture proposée dans le présent ouvrage. Nous avons donc souhaité que cette
possible différence de vue n’empiète pas sur le récit des événements rapportés
antérieurement. Même si des interprétations différentes de la nôtre restent bien
entendu possibles, il convient toutefois d’accepter que l’ensemble des faits
avérés devra être pris en compte. Et, comme nous aurons l’occasion de le
développer, donner une « explication » à ces expérimentations singulières exige
de s’écarter des catégories habituelles des sciences biologiques.
La thèse centrale de ce texte postule en effet que les « phénomènes de
Clamart » ne relèvent pas d’une hypothétique « mémoire de l’eau ». Afin de
rendre compte néanmoins des phénomènes observés, une modélisation
probabiliste est proposée.
C
6
L’un des principaux mérites de cette grille de lecture est qu’elle permet de
rendre compte de ces phénomènes avec un minimum d’hypothèses et de pallier
l'insuffisance des interprétations passées. En particulier, l’aspect le plus délicat
de cette page de l’histoire de sciences à savoir la difficulté à faire reproduire
ces expériences de façon indépendante et l’existence de « discordantes
cohérentes » en découle simplement.
7
« L’univers est non seulement plus étrange que nous ne
l’imaginons mais encore plus étrange que nous ne pouvons
l’imaginer. »
John Haldane. Possible Worlds (1927)
« Nous sommes arrivés au seuil d’un monde dont nous ne
soupçonnons rien ; et toutes nos préconceptions doivent être
reformulées. »
D’Arcy Thompson. On Growth and Form (1942)
« Pas de panique »
Douglas Adams. Le guide du voyageur galactique (1979)
9
Première Partie
Les faits
10
11
1.1
________________________________________________
Introduction
l existe une statue dans les locaux universitaires de la rue de l’Ecole de
médecine à Paris dont le socle porte l’inscription « La Nature se dévoilant à la
Science » 1. Cette œuvre représente une jeune femme qui écarte le voile qui la
couvre, offrant ainsi son buste inévitablement généreux aux regards de ses
admirateurs. Cette allégorie fixe dans la pierre l’essence du réalisme scientifique
qui considère que l’observation d’un phénomène naturel ne fait que dévoiler un
« objet » dont l’état préexiste à l’observation. Cette idée d’une réalité « déjà »
persiste encore de nos jours dans la plupart des esprits, y compris ceux des
scientifiques. Comme le promeneur « découvre » des crabes en soulevant des
pierres sur la plage, le chercheur selon cette perspective ne fait que révéler
l’objet étudié tel qu’il était avant de l’exposer au jour. Force est de reconnaître le
caractère opérationnel de cette conception naïve qui consiste à confondre la
construction d’un discours sur la réalité avec la réalité elle-même. De plus, ce qui
a fait le succès de cette conception ne peut être que renforcé dans un
environnement social la production technologique et la fabrication d’objets
sont valorisées.
Sans adopter le point de vue extrême difficilement tenable de certains
sociologues des sciences pour lesquels toute production scientifique n’est rien
d’autre qu’une construction sociale, l’idée que le chercheur fait partie intégrante
de l’expérience fait petit à petit son chemin dans la démarche scientifique. Si
cette notion a été bien intégrée dans les sciences humaines en particulier en
psychologie expérimentale avec le fameux effet Pygmalion 2 les sciences plus
1 Il s’agit d’une statue datant de 1899 due à Louis-Ernest Barrias (18411905) ; un
exemplaire en est également visible au musée d’Orsay.
2 L’effet Pygmalion (appelé parfois aussi prophétie auto-réalisatrice) a été découvert par
le psychologue américain Rosenthal qui avait réalisé une expérience il confiait des
rats à des étudiants qui devaient soumettre les rongeurs à un test de labyrinthe. A un
premier groupe d’étudiant, Rosenthal expliquait que les rats étaient particulièrement
doués pour ce test pour des raisons génétiques. A un deuxième groupe d’étudiants, il
attribuait d’autres rats qui selon lui avaient des performances médiocres. Les rats avaient
été attribués selon le hasard aux deux groupes d’étudiants et si les mesures étaient
I
A travers le miroir
12
« dures » non seulement répugnent à intégrer cette perspective mais surtout elles
n’en perçoivent pas même l’intérêt.
Pourtant la physique modèle de « scientificité » s’il en est a depuis la
révolution de la physique quantique attribué un rôle central à l’ « observateur ».
Et, si nous souhaitons progresser dans la compréhension de ce que nous
appellerons dorénavant les « phénomènes liés à la mémoire de l’eau », nous
devrons nous affranchir d’une conception classique de la « réalité » car, comme
nous l’avons dit, les résultats des expériences censées rendre compte d’une
supposée « mémoire de l’eau » résistent aux catégories habituelles. L’exercice en
sera d’autant plus délicat que les sciences biologiques dans leur pratique
quotidienne n’ont absolument pas intégré ces données concernant la place de
l’observateur dans toute mesure ou observation. En particulier, les biologistes
continuent de pratiquer une démarche expérimentale qui a pour cadre une
physique qui se satisfait de concepts et d’une vision du monde qui remontent à
Newton, Laplace et Maxwell.
Sans qu’il soit question de renier ses succès, l’avènement de la biologie
moléculaire par son approche réductionniste et mécanistique a contribué à
renforcer ces conceptions. L’étape ultime de la description du Vivant repose
alors sur l’inventaire des molécules qui composent les organismes et sur le
recensement des interactions de ces composants élémentaires entre eux. Les
molécules biologiques y sont assimilées à de minuscules fragments de
« matière » soumis aux lois de la mécanique newtonienne ; tout « mécanisme »
s’explique alors par un « contact » immédiat entre molécules adjacentes. Ces
contacts sont réalisés par l’établissement de « liaisons » de nature chimique dont
la « solidité » et la durée peuvent varier. Les liaisons ne se font pas au hasard
mais sont autorisées par les « spécificités » des molécules en présence, la
spécificité d’une liaison résultant d’une complémentarité des structures
moléculaires. C’est ainsi que l’on explique la fixation d’une molécule biologique
sur un « récepteur ». Faire le catalogue de ces interactions est le programme de
la biologie d’aujourd’hui. Il s’agit donc d’une vision totalement « horlogère » du
monde vivant reposant avant tout sur la description de « rouages ». C’est la
somme des événements « locaux » qui est censée expliquer le comportement global des
édifices biologiques ; chaque niveau de description doit s’expliquer par le niveau
sous-jacent.
réalisées sans biais et sans être influencées par le dispositif expérimental on devait
s’attendre à ce que les performances des deux groupes soient en moyenne identiques.
En fait les performances des deux groupes furent conformes aux a priori sur les
prétendues aptitudes des rats qui avaient été volontairement communiquées aux
étudiants ! Les résultats de cette expérience ont été confirmés dans d’autres situations
expérimentales.
Introduction
13
Les tenants de cette vision du monde vivant c'est-à-dire la plupart des
biologistes avaient été heurtés frontalement par les interprétations que
J. Benveniste proposait de ses expériences. Pourtant nous verrons dans cet
ouvrage que ce qui va nous faire abandonner l’idée d’une « mémoire de l’eau »
ne réside pas dans les arguments des « adversaires » des travaux de J. Benveniste,
mais est la conséquence de certaines étrangetés inhérentes à ces expériences
« scandaleuses ». Ces anomalies n’ont jusqu’à présent jamais été pointées comme
telles et n’ont par conséquent jamais été analysées.1 Elles font selon nous
s’effondrer l’interprétation habituelle des résultats des « hautes dilutions » et de
la « biologie numérique » qui imaginait une structuration de l’eau permettant de
mimer l’action de molécules biologiques. L’interprétation « hydromnésique »
ayant été abandonnée, restent néanmoins des résultats expérimentaux orphelins
d’une explication.2
Le but de ce texte est donc de proposer une grille de lecture originale
permettant d’interpréter ces phénomènes. Arri au terme de cet ouvrage, le
lecteur saisira alors pourquoi fascinés qu’ils étaient par l’eau – les observateurs
de cette « mémoire » n’avaient pas compris que ce qu’ils scrutaient à travers
leurs instruments de mesure était le reflet dans le miroir liquide de leur propre
pensée en action.
1 Peut-être ces anomalies auraient-elles été mises en évidence plus tôt si un débat
« normal » avait eu lieu. La course à l’expérience « définitive », d’une part, et le refus
d’envisager ces expériences avec un minimum de bienveillance, d’autre part, ont
empêché une approche scientifique sereine et dénuée de tout a priori.
2 Comme nous l’avons déjà souligné dans notre précédent ouvrage (chap. 25 de la
première partie), J. Benveniste lui-même avait une vision de la biologie qui restait
« moléculariste » même s’il dénonçait le « tout moléculaire » de la recherche en biologie.
Ses recherches sur la « mémoire de l’eau » ne faisaient que compléter selon lui l’univers
des interactions biochimiques. En ce sens, sa vision globale de la biologie et sa
conception de la « mémoire de l’eau » restaient dans un cadre classique.
14
1.2
________________________________________________
En guise de résumé des phénomènes liés à la « mémoire de
l’eau »
« J'ai déjà vu un chat sans sourire,
mais jamais un sourire sans chat ! »
Lewis Carroll, Alice au pays des merveilles
e lecteur qui aborde cet ouvrage est censé connaître l’histoire de la
« mémoire de l’eau ». Dans ce chapitre nous rappellerons néanmoins les
événements saillants du point de vue scientifique qui ont structuré cette
histoire en laissant de côté l’aspect de l’ « affaire » qui relève davantage de la
sociologie des sciences et qui concerne l’acceptation des nouvelles idées
scientifiques, les stratégies de publication, les luttes d’influence, la relation des
événements par la presse, etc. Nous abrégerons par ADM 1 et ADM 2 les
références aux deux parties de « L’Âme des Molécules ».
A l’origine étaient les « hautes dilutions » et les basophiles (19831991)
Au début il y eut donc les fameuses expériences avec les « basophiles » (ADM 1
chapitres 3 à 6). Nous avons vu comment les expériences avec ces cellules
sanguines qui paraissaient réagir en présence de dilutions « extrêmes » de
substances biologiques diverses avaient déconcerté la communauté scientifique
et même au-delà de cette dernière. Ce qui paraissait le plus étrange était la
persistance d’un effet biologique dans ces dilutions en série alors que la limite
calculée grâce au nombre d’Avogadro était largement dépassée. En d’autres
termes, plus aucune des molécules initiales n’était présente et on ne diluait plus
que de l’eau dans de l’eau. Tout se passait comme si une « activité biologique »
persistait alors que la « matière » qui lui était en principe nécessairement associée
avait depuis longtemps disparu. Comme le Chat du Cheshire d’Alice au pays des
merveilles, un « sourire » persistait après la disparition du corps. L’idée que le
solvant l’eau puisse garder une trace de l’ « information » correspondant à la
molécule initialement dissoute fut alors défendue. L’idée d’une mémoire s’ancra
L
En guise de résumé des phénomènes liés à la « mémoire de l’eau »
15
d’autant plus facilement qu’il apparut que certains traitements physiques (dont le
chauffage était le plus simple) permettaient d’effacer cette hypothétique « trace
mnésique ». L’eau paraissait se comporter comme une bande magnétique.
Le contre-argument d’une contamination fut toutefois abondamment
exploité pour expliquer ces résultats inattendus qui, de surcroît, paraissaient
conforter la pratique de l’homéopathie dont les bases scientifiques étaient c’est
une litote également questionnées. Nous avons vu cependant en quoi l’idée
que des traces infinitésimales d’anticorps dues à une contamination mais non
détectables par les méthodes classiques pourraient suffire à expliquer les
résultats controversés n’était pas tenable (ADM 1 Chapitre 15). Nous avons vu
également que cet effet avait toutes les apparences de la spécificité.
Tout ceci restait néanmoins très intrigant, en particulier pour les
macromolécules telles que les anticorps. Garder la « mémoire » d’édifices aussi
complexes était problématique. De plus, lorsque les substances dissoutes étaient
des « soupes » biologiques (l’abeille écrasée d’Apis mellifica par exemple), les
structures aqueuses permettant de garder le souvenir de l’ensemble des
constituants était difficilement concevable. Mais l’argument du « pourtant ça
marche » avait pour lui la force de l’évidence.
Une autre des caractéristiques des effets à hautes dilutions qui perturbait
beaucoup les commentateurs était leur aspect en « vagues » selon la hauteur des
dilutions. Cet argument était toutefois moins crucial et nous avons vu comment
un nombre limité d’hypothèses permettait de rendre compte de tels
comportements oscillatoires (ADM 1 Chapitre 3).
Surtout, s’il y eut polémique, ce fut parce que la reproductibilité des
expériences fut mise en cause. Nous ne reprendrons pas l’ensemble des
arguments échangés, mais nous insisterons sur ce qui constitue à notre sens la
leçon essentielle de cette première partie de l’histoire.
En effet, lorsque des « démonstrations » destinées à convaincre les
sceptiques de la réalité du phénomène furent entreprises, elles confirmèrent que
d’un point de vue statistique les hautes dilutions « actives » paraissaient se
comporter de façon différente de hautes dilutions « inactives » ou de solutions
« contrôles ». Mais curieusement les fameuses vagues avaient disparu dans la
brume des analyses statistiques (ADM 1 chapitres 17 et 23). En conséquence, un
effet « chat du Cheshire » se manifestait : le félin disparaissait mais un « sourire »
moqueur persistait
… puis vinrent les intermittences du cœur isolé (19901998)
Le modèle des basophiles restait peu commode pour des démonstrations
destinées à convaincre les autres scientifiques de la réalité des effets des hautes
A travers le miroir
16
dilutions. J. Benveniste et son équipe utilisèrent alors un système expérimental
qui s’était avéré réagir lui aussi aux hautes dilutions de différentes molécules. Ce
dispositif permettait de garder en survie un cœur de rat ou de cobaye (système
de Langendorff). Le résultat essentiel de ces expériences de physiologie était une
variation significative du débit des artères coronaires qui irriguent le muscle
cardiaque en présence de hautes dilutions de diverses substances
pharmacologiques (ADM 2 Chapitre 3).
Puis un pas décisif fut franchi. J. Benveniste qui avait des indications
indirectes sur la nature électromagnétique de la supposée « empreinte » dans
l’eau, utilisa un amplificateur électronique muni de bobines électriques (ADM 2
chapitres 1 et 2). Dans ces nouvelles expériences tout se passait comme s’il était
possible de recueillir l’ « activité biologique » de substances pharmacologiques
en solution et de la transférer à un échantillon d’eau « naïve ». Les résultats
étaient très prometteurs et ils permettaient de planter le décor d’une future
biologie « électromagnétique ». De plus, ce nouveau modèle avait l’intérêt,
contrairement au modèle des basophiles, de permettre des démonstrations « en
direct » devant un public d’observateurs.
Mais, après des débuts prometteurs, il s’avéra que très souvent le système
« se prenait les pieds dans le tapis » au cours d’expériences à l’aveugle réalisées
avec la collaboration d’ « observateurs » extérieurs à l’équipe de J. Benveniste
(ADM 2 Chapitre 4). Pourtant les résultats étaient conformes aux attentes pour
la partie de l’expérience « en ouvert ». De nombreuses explications (« transferts
sauvages », environnement électromagnétique, effet « rémanent ») furent
avancées pour expliquer ces bizarreries perturbantes.
Nous avons alors utilisé le terme de « discordance cohérente » pour
caractériser les résultats de ces expériences. Tout se passait en effet comme si les
expérimentateurs ne retrouvaient dans les résultats de ces expériences que les
informations qu’ils connaissaient déjà (ADM 2 Chapitre 9).
Enfin J. Benveniste « inventa » la « biologie numérique » qui n’était rien
d’autre que le transfert de la « mémoire de l’eau » à celle d’un l’ordinateur (en
quelque sorte de la mémoire in aquo à la mémoire in silico) (ADM 2 Chapitre 12).
Ce pas conceptuel et expérimental demandait une certaine audace que
J. Benveniste osa franchir d’autant plus facilement qu’il pensait se débarrasser
dans le même temps des « transferts sauvages » et autres étrangetés. Le succès
fut au rendez-vous et on ne pouvait que se rendre à l’évidence : « ça marchait ».
Comparée au « transfert électromagnétique », la « numérisation » n’était somme
toute qu’un enregistrement avec reproduction différée. Le parallèle avec
l’industrie musicale était immédiat et J. Benveniste usera de la métaphore à
l’envi.
En guise de résumé des phénomènes liés à la « mémoire de l’eau »
17
Mais à nouveau, en dépit des perfectionnements progressifs du système de
« captation » de l’hypothétique rayonnement censé être émis par les substances
en solution, des « inversions » et autres « transferts sauvages » perturbèrent les
conclusions des démonstrations publiques (ADM 1 Chapitre 16). Pourtant un
grand nombre des artefacts qui avaient été suggérés antérieurement avaient été
écartés par ces nouveaux dispositifs.
Un ultime perfectionnement permit alors de transmettre le
« signal électromagnétique » directement à la colonne d’eau qui perfusait le cœur
isolé sans passer par un échantillon d’eau intermédiaire. On se trouvait alors
face à un dispositif expérimental extrêmement épuré. Mais à nouveau les
performances « chutaient » de façon étonnante et déstabilisante dès lors que l’on
cherchait à utiliser ce dispositif pour transmettre des informations selon un code
convenu.
Exit donc le chat du Cheshire, restait une fois de plus le sourire narquois…
Pourtant les résultats n’étaient pas « n’importe quoi » et une cohérence dans les
résultats persistait, difficile à expliquer.
Enfin le chant du cygne avec la coagulation plasmatique partir de
1999)
Le système de Langendorff, pour spectaculaire qu’il t, s’avéra lui aussi peu
commode à « exporter » vers d’autres laboratoires. Un nouveau système
biologique émergea fort à propos, étonnamment facile à mettre en œuvre
(ADM 2 Chapitre 21). Il s’agissait d’une expérimentation basée sur la coagulation
plasmatique. A nouveau les divers procédés, que ce soit les hautes dilutions ou
les « transmissions électromagnétiques », se révélèrent capables de « moduler »
ce système biologique, relançant ainsi l’enthousiasme et faisant une fois de plus
naître l’espoir d’aboutir rapidement. Le chat du Cheshire redevenait visible dans
ses moindres détails.
C’est alors qu’un phénomène inédit tout aussi imprévu que déconcertant
dans sa simplicité apparut : avec certains expérimentateurs le « phénomène »
refusait de se manifester. Selon la logique en vigueur dans le laboratoire de
J. Benveniste, tout se passait comme si certaines personnes « effaçaient le
signal » (ADM 2 Chapitre 22). Afin de minimiser cet « effet effaceur », le système
fut automatisé grâce à un robot de façon à ce que l’expérimentateur n’ait plus
qu’un rôle de presse-bouton.
La perplexité fut à son comble avec les expériences réalisées dans le cadre
d’une expertise mandatée par la DARPA, une agence liée au département de la
Défense US. Les experts qui se penchèrent avec attention sur le robot
automatique qui réalisait l’expérience restèrent perplexes : le système
fonctionnait bien comme prévu mais seulement lorsque l’un des membres de
A travers le miroir
18
l’équipe de Clamart manifestement plus « doué » pour appuyer sur le bouton
de départ était présent (ADM 2 Chapitres 23 et 24). Publiés en 2006, les
résultats de l’expertise montraient que le chat du Cheshire s’était évanoui
comme à son habitude. Mais cette fois son sourire s’était crispé définitivement.
Pour en finir avec les sourires sans leur chat…
Si nous souhaitons pouvoir rendre compte de ces phénomènes et si possible
généraliser notre grille de lecture, nous devrons être capables de rendre compte
de l’ensemble des « bizarreries » constatées : réussite fréquente des expériences
« en interne » mais « discordances cohérentes » dans d’autres circonstances,
présence nécessaire d’un expérimentateur donné (et parfois maintien à distance
d’un autre…), etc.
Mais peut-être le lecteur se dit-il qu’une explication triviale liée à la
connivence entre les membres de l’équipe reste encore l’explication la plus
probable et la plus « raisonnable ». Revenons une dernière fois sur ce type
d’argument. Certes, les facteurs qui conduisaient à l’échec des expériences à
l’aveugle avec un observateur externe paraissaient être en premier lieu liées à
l’éloignement physique entre l’expérimentateur et cet observateur. Dit de cette
façon, cet argument pourrait sembler de mauvais augure quant à la
« scientificité » des résultats rapportés, pour ne pas dire plus. Ceci évoque en
effet plus une affaire de compérage qu’une recension objective de faits
scientifiques. J’ai toutefois sur le lecteur un avantage pour écarter cette
hypothèse : si compères il y eut, il faut me ranger parmi ces derniers.
L’ « explication » des phénomènes de Clamart par « au mieux »
l’incompétence et au pire la tricherie ne tient donc pas et nous n’y ferons
plus référence dans la suite de cette analyse.
On pourrait également imaginer de dédouaner les différents acteurs d’une
volonté consciente d’obtenir les résultats souhais, mais suggérer que de façon
inconsciente les expérimentateurs usaient d’un stratagème permettant de faire
« bouger » le système. Ceci expliquerait pourquoi on ne retrouvait dans les
expériences que les connaissances que l’équipe possédait déjà sur le protocole
expérimental.
On pourrait suggérer par exemple que les « compteurs » de basophiles
s’autosuggestionnaient au point de voir des cellules colorées qui n’existaient pas
ou au contraire avaient des taches aveugles inconscientes qui les empêchaient de
voir d’autres cellules colorées. Ceci pourrait en effet expliquer pourquoi
certaines des expériences à l’aveugle étaient moins « spectaculaires » mais cette
explication ne rend pas compte de la différence statistique qui persistait
néanmoins.
En guise de résumé des phénomènes liés à la « mémoire de l’eau »
19
Pour le système de cœur isolé, le même type d’explication est plus délicat car
les effets étaient directement visibles par des observateurs. On pourrait imaginer
néanmoins qu’une « manœuvre » inconsciente provoque une réaction du
système biologique. Il faudrait toutefois expliquer comment était « extraite »
l’information lorsque les échantillons étaient présentés masqués à
l’expérimentateur sous forme codée par un membre de l’équipe. Surtout les
expériences réalisées avec le robot automatique n’autorisent plus l’explication
des phénomènes observés par un artefact de cet ordre. En effet, tous les
échantillons étaient testés au cours de la même séance avec une sélection au
hasard des conditions expérimentales « actives » et « inactives » par le logiciel qui
pilotait le robot.
Les explications triviales ayant été écartées, la tâche n’est assurément pas
simple et exigera des solutions ou du moins des pistes de recherche non
classiques. Afin de parvenir à mettre sur pied une explication cohérente de ces
phénomènes nous devrons avancer pas à pas avec le souci de faire le moins
possible d’hypothèses ad hoc.
20
1.3
_______________________________________________
« Mémoire de l’eau » : une hypothèse inutile ?
« Une explication pourrait être que les données ont
été fabriquées par un mystificateur dans le
laboratoire [de Benveniste]. »
John Maddox (1988) 1
Boites noires et Cie : quel est le bon contrôle ?
ous avons vu au cours de l’histoire de la « mémoire de l’eau » que
certains dispositifs que nous avons qualifiés de « boîtes noires »
étaient capables de « produire » les mêmes résultats que ceux obtenus
grâce aux appareils élaborés par J. Benveniste qui étaient quant à eux sous-
tendus par une explication plus rationnelle (ADM 2 Chapitres 25 et 26). En effet
ces « boîtes noires » qui ne permettaient a priori que des « simulacres »
d’expériences conduisaient à des résultats tout à fait semblables à ceux issus des
« vraies expériences » avec les hautes dilutions, transmissions et autres
numérisations. Les « boites noires » se comportaient par conséquent comme
l’équivalent expérimental d’un placebo. Et si le « placebo » et le dispositif
expérimental censé être « spécifique » produisaient les mêmes résultats alors on
aurait pu en conclure que ces derniers n’étaient qu’une fiction et que par
conséquent l’idée que quelque chose avait été « transmis » par le dispositif devait
être abandonnée.2
1 Waves caused by extreme dilutions. Nature 1988; 335:760.
2 D’autres arguments viennent conforter l’idée que les dispositifs expérimentaux se
comportaient en dernière analyse comme des « boites noires » à l’insu des
expérimentateurs. Nous n’en citerons que quelques uns. Ainsi on se souvient que les
fichiers numérisés correspondant à quelques secondes d’enregistrement étaient
« joués » en boucle afin d’ « imprégner » l’eau. J. Benveniste tenta de déterminer quelle
était la taille minimale d’un fichier pour provoquer un effet biologique. Il parvint à une
taille de quelques kilo-octets correspondant à une durée de 15 millisecondes. L’examen
visuel à l’aide d’un logiciel approprié du « spectre » d’un tel « fichier son » comparé à
un fichier inactif ayant subi le même traitement provoque la perplexité :
l’ « information » correspondant à une molécule complexe peut-elle se nicher dans un
N
« Mémoire de l’eau » : une hypothèse inutile ?
21
La question est toutefois un peu plus complexe. Comme nous l’avons dit, ce
qui nous interdit de jeter aux oubliettes de l’histoire des sciences l’ensemble des
résultats liés à la « mémoire de l’eau » est au fait que des dispositifs
expérimentaux ont « bougé » de façon cohérente. Et, si on souhaite à tout prix
sauver l’idée d’une « mémoire de l’eau », on peut néanmoins considérer : 1) que
la « mémoire de leau » et les phénomènes de transmission électromagnétique
sont une réalité et 2) que les effets rapportés avec les boites noires sont eux
aussi une réalité mais indépendante de la « biologie numérique ». On peut
imaginer par exemple que les effets observés sont une preuve du bien-fondé de
certaines conceptions dites « bioénergétiques » (ADM 2 Chapitre 26). Pour dire
les choses autrement, deux causes indépendantes peuvent conduire à des effets
comparables.
Dans le paragraphe suivant nous envisagerons toutefois un argument
décisif selon nous qui permet de conclure que les dispositifs expérimentaux
qui ont soutenu l’hypothèse de la « mémoire de l’eau » se sont comportés
comme des « placebos » et qu’il s’agissait bien par conséquent de
« simulacres d’expériences ».
Un cœur d’humeur égale
Pour illustrer notre argumentation nous nous baserons essentiellement sur les
expériences réalisées avec le système de Langendorff. Le même raisonnement
peut être appliqué aux autres systèmes biologiques mis en œuvre (basophiles,
coagulation plasmatique), mais c’est le système de cœur isolé qui est le plus
démonstratif sous cet aspect et c’est avec ce système qu’ont été réalisées le plus
de démonstrations considérées comme autant de « preuves de concept ». Point
important, ces démonstrations ont fait l’objet de protocoles expérimentaux et de
comptes-rendus précis et circonstanciés.
Le raisonnement est le suivant. Si l’on considère les expériences réalisées sur
le système de Langendorff, l’effet obtenu était toujours du même ordre de grandeur
quel que soit le procédé utilisé qui était censé « structurer » l’eau. En effet, nombreux
ont été les procédés utilisés au cours de cette recherche qui devaient permettre
de transmettre à l’eau une « activité » capable de modifier le système biologique.
Nous avons vu ainsi à l’œuvre les hautes dilutions de diverses substances, le
transfert électromagnétique, la numérisation, les granules homéopathiques
dissous dans l’eau, les « faibles dilutions » (de l’ordre de 10-12 mol/L) actives
fichier comportant un nombre aussi ridiculement faible de « bits » ? De même, dans les
premiers temps des expériences de « numérisation », l’amplification appliquée au
« signal » était considérable, bien au-delà des capacités du système électronique. Le
« signal » en sortait terriblement « écrêté ». En dépit de cette distorsion importante du
signal, « ça marchait »…
A travers le miroir
22
après agitation, etc. De façon anecdotique, les transmissions d’information de
tube à tube par faisceau laser ou par l’intermédiaire de l’effet piézo-électrique
furent également des « succès ». Par ailleurs, au cours des années, différents
types de dispositifs électroniques avec des caractéristiques très différentes sur le
plan électrotechnique conduisirent à des résultats qui, au fond, étaient très
voisins. Et nous avons insisté également au cours du récit pour dire que les
différentes améliorations du système denregistrement et de restitution du
« signal » n’avaient guère d’impact sur les caractéristiques de l’effet biologique
observé.1 Ce fut le cas en particulier avec le « perfectionnement » qui consista à
administrer le « signal électromagnétique » directement à la colonne de liquide
physiologique qui perfusait le cœur sans passer par un échantillon d’eau
intermédiaire (ADM 2, Chapitre 17). Là aussi cette modification importante dans
le dispositif de transmission impliquait a priori certains réglages. On aurait pu
s’attendre à une période plus ou moins longue de mise au point prenant en
compte, entre autres, la nouvelle bobine aux caractéristiques physiques
différentes et le fait d’ « irradier » du liquide en mouvement. Il n’en fut rien. A
peine la nouvelle bobine était-elle fixée sur l’appareil que les profils habituels de
variation du débit coronaire étaient observés.
Et pourtant, en dépit de ces nombreux moyens très différents d’un point de
vue physique, l’effet biologique observé était toujours dans la me gamme de
variation (de l’ordre de 20–30% de variation de l’effet de base). De façon
étonnante on était donc toujours dans la bonne « gamme de sensibilité » du
système expérimental. On pourrait penser que le « signal » nécessite dans
certains cas d’être plus ou moins « amplifié » (ou même pourquoi pas atténué)
selon son « intensité » d’origine. En effet, quoi de commun entre des granules
que l’on dissout dans de l’eau ou un « signal » que l’on a enregistré sur une
disquette et que l’on restitue à de l’eau « naïve » ou encore une haute dilution ?
De plus les signaux utilisés dans les transmissions électromagnétiques
correspondaient à des substances variées (acétylcholine, histamine, etc.) à
diverses concentrations. Pourtant, ça « marchait » toujours et avec des effets
d’amplitudes comparables (Figure 1).2
1 Sauf peut-être dans les premiers temps les nouveaux procédés censés apporter
une solution définitive étaient d’une amplitude inhabituelle. Puis passée la phase
d’enthousiasme, les amplitudes de l’effet observé rejoignaient la moyenne habituelle.
2 Précisons pourtant que ce type de système ne réagit pas obligatoirement en « tout ou
rien » ; on peut en effet réaliser ce que les pharmacologues appellent des « doses-
réponse » où la réponse du système est fonction de l’intensité du stimulus.
« Mémoire de l’eau » : une hypothèse inutile ?
23
Effet ~20-30%
Figure 1. Un sujet d’étonnement. De nombreux procédés et dispositifs destinés à
« informer l’eau » ont été utilisés transmission-numérisation », hautes dilutions,
« transmission électromagnétiques », transmission « directe », granules homéopathiques
dissous). L’eau ainsi « traitée » était ensuite testée sur un système biologique. Comment
un appareil de mesure peut-il avoir une gamme de sensibilité aussi large ? Comment des
conditions expérimentales et des « stimuli » aussi variés peuvent-ils conduire à des effets
mesurés aussi monotones ?
Pour le lecteur qui n’est pas accoutumé à l’expérimentation scientifique,
prenons plusieurs exemples dans différents domaines pour bien faire
comprendre les raisons de cet étonnement. Supposons un électricien face à des
fils électriques sous différentes tensions qu’il doit évaluer. Comme il n’a aucune
idée des tensions réelles, il commence par placer son appareil de mesure sur le
calibre le plus élevé et s’il voit que l’aiguille ne bouge pas ou peu, il utilise un
calibre plus faible jusqu’à obtenir une déflexion de l’aiguille permettant de lire
une valeur.
Prenons un autre exemple plus biologique. On sait mesurer la quantité de
matériel génétique de certains virus pour évaluer le nombre de virus hébergés
par un individu. Les quantités de virus sont insuffisantes le plus souvent pour
les méthodes de détection usuelles. Il existe toutefois des techniques qui
permettent d’ « amplifier » au préalable le matériel génétique en le « dupliquant »
en un grand nombre d’exemplaires. Le matériel génétique est alors
suffisamment abondant pour être mesuré.
De même, pour prendre un dernier exemple, le courant qui oscille dans une
antenne de réception doit lui aussi être amplifiée afin d’être audible dans un
A travers le miroir
24
haut-parleur. Trop faible, le signal ne peut être détecté ; trop intense, l’appareil
de mesure est saturé.
Ces quelques exemples sont destinés à montrer qu’il est souvent nécessaire
d’ajuster le « signal » que l’on souhaite détecter en l’amplifiant ou en l’atténuant.
On parle ainsi de la « gamme de sensibilité » d’un appareil de mesure qui est la
gamme des signaux pour lesquels l’appareil fonctionne correctement. Dans le
cas des « phénomènes de Clamart », nous sommes face à un « appareil de
mesure » dont la gamme de sensibilité est étonnamment large et qui donne
imperturbablement une réponse uniforme quels que soient les mécanismes mis en jeu.
On peut certes avoir parfois de la chance dans le domaine de l’expérimentation
scientifique. Que cette chance soit systématiquement au rendez-vous a de quoi
laisser perplexe. Nous avons ainsi signalé à plusieurs reprises que la nouveauté
était presque toujours un gage de réussite pour les expériences liées à la
« mémoire de l’eau », sans mises au point particulièrement longues. Et il faut ici
encore garder à l’esprit les diverses « boites noires » qui se manifestèrent avec
plus ou moins de bonheur (ADM 2 Chapitres 25 et 26). Ce qui étonne est donc la
faculté de réaction du système à des « stimuli » qui mettent en jeu des processus
physiques extrêmement différents (tant en énergie, fréquences, etc.) et de surcroît avec
une réponse univoque du système. Afin d’illustrer cette idée nous reprenons dans le
Tableau 1 les communications à des congrès faites par l’équipe de J. Benveniste
de 1991 à 1999, c'est-à-dire au cours de la période d’utilisation du système de
Langendorff.
Sur la Figure 2, les résultats du Tableau 1 sont résumés sous forme
d’histogramme. Nous constatons donc, comme nous l’avions déjà signalé, que
les différents procédés donnent des résultats centrés sur 2030%. Si, quel que
soit le procédé mis en œuvre, des résultats aussi voisins sont obtenus, c’est peut-
être que ces procédés censés provoquer une structuration de l’eau, c'est-à-dire
imprimer une trace, une mémoire ne sont qu’apparemment la cause de l’effet
biologique observé. Ceci suggère donc fortement qu’une autre « cause »
unique et par conséquent plus monotone dans ses effets se manifestait lors de
ces diverses expériences (Figure 2).
En résumé, l’observateur tout à la fois bienveillant et impartial qui analyse
ces résultats est surpris de constater que les mesures se font toujours dans la
bonne « gamme de sensibilité » sans réglage particulier de l « appareil de
mesure ». Et sa perplexité s’accroît lorsqu’il constate une distribution unimodale
des résultats des mesures en dépit de conditions expérimentales extrêmement
différentes.
« Mémoire de l’eau » : une hypothèse inutile ?
25
Titre de la communication Procédé utilisé pour
« informer » l’eau
Variation du débit
coronaire des
échantillons « actifs »
Hadji L, Arnoux B, Benveniste J. Effect of dilute
histamine on coronary flow of guinea-pig isolated heart.
Inhibition by a magnetic field. Faseb J 1991; 5: A1583.
Hautes dilutions 33 %
Effects on the isolated heart of water preexposed to a
permanent magnetic field. Benveniste J, Aïssa J, Jurgens
P and Pham D. Faseb J 1992; 6: A425.
Eau « magnétisée » 25 % - 24 %
Benveniste J, Arnoux B, Hadji L. Highly dilute antigen
increases coronary flow of isolated heart from
immunized guinea-pigs. Faseb J 1992; 6: A1610.
Hautes dilutions 21 %
Litime MH, Aissa J, Benveniste J. Antigen signaling at
high dilution. Faseb J 1993; 7: A602. Hautes dilutions 31 % - 24 %
Aïssa J, Litime MH, Attias E, Allal A, Benveniste J.
Transfer of molecular signals via electronic circuitry.
Faseb J 1993; 7: A602.
Transfert
électromagnétique 34 % - 34 % 40 %
Benveniste J, Aïssa J, Litime MH, Tsangaris G, Thomas
Y. Transfer of the molecular signal by electronic
amplification. Faseb J 1994; 8: A398.
Transfert
électromagnétique
27 % - 26 %
22 % - 23 %
Aïssa J, Jurgens P, Litime MH, Béhar I, Benveniste J.
Electronic transmission of the cholinergic signal. Faseb J
1995; 9: A683.
Transfert
électromagnétique 17 % - 23 %
Benveniste J, Jurgens P, Aïssa J. Digital
recording/transmission of the cholinergic signal. Faseb J
1996; 10: A1479.
Numérisation 16 % - 20 %
Benveniste J, Jurgens P, Hsueh W, Aïssa J. Transatlantic
transfer of digitized antigen signal by telephone link. J
Allergy Clin Immunol 1997; 99: S175.
Numérisation 24 %
Benveniste J, Aïssa J and Guillonnet D. Digital biology:
specificity of the digitized molecular signal. Faseb J 1998;
12: A412.
Numérisation 22 % - 15 %
Benveniste J, Aïssa J, Guillonnet D. The molecular signal
is not functional in the absence of "informed" water.
Faseb J 1999; 13: A163.
Agitation des
faibles
concentrations 23 % - 18 %
Tableau 1. Ce tableau résume 11 communications présentées par l’équipe de
J. Benveniste à différents congrès de 1991 à 1999 concernant le système de cœur isolé
de Langendorff. Seules ont été reportées dans la dernière colonne les valeurs moyennes
des échantillons « actifs » extraites de chacune de ces communications. Le propos de ce
tableau est de montrer que quel que soit le procédé qui permettait d’ « informer » l’eau, les
valeurs des échantillons « actifs » étaient toujours en moyenne du même ordre de grandeur (voir
Figure 2).
A travers le miroir
26
Figure 2. Ampleur de l’effet biologique mesuré dans différentes conditions
expérimentales. Les valeurs de la dernière colonne du tableau précédent effet
biologique ») sont présentées ici de façon synthétique. On constate que les
variations du système biologique (variation du débit coronaire du système de
Langendorff), sont du même ordre de grandeur autour de 2030 %. Pourtant les
systèmes mis en œuvre ont des caractéristiques extrêmement différentes mettant en jeu
des énergies, des fréquences, des processus physiques très disparates. Tout se passe
comme si les « causes » supposées n’étaient pas en définitive les véritables causes et
que la focalisation sur ces dernières masquait en fait une cause alternative unique.
Imaginons que nous voulions donner rendez-vous à un ami. Plusieurs
possibilités s’offrent à nous. Nous pouvons le faire en lui léphonant, en lui
envoyant un courrier électronique, en lui adressant une lettre par la poste, en
demandant à un ami commun de transmettre l’invitation de vive voix, etc. Ces
modalités de transmission d’un message sont très différentes, ne sont pas
réductibles les unes aux autres ; les énergies, les fréquences, les supports
matériels, les techniques mis en jeu en sont extrêmement différents. Il est même
probable que les termes exacts du message initial soient modifiés tout en
préservant son sens. Par exemple, si un ou plusieurs intermédiaires humains sont
intercalés dans la chaîne qui conduit le message jusqu’au cerveau de notre ami, il
y a de grandes chances que le message initial soit reformulé. Malgré tous ces
obstacles potentiels et c’est en cela que réside la puissance et la magie du
langage notre ami sera bien présent au rendez-vous.
Des dispositifs ventriloques ?
Un parallèle peut être tracé avec les expériences de J. Benveniste. Tout se passe
apparemment comme s’il existait une corrélation entre un message initial et l’état
final du système biologique. Le support du message semble toutefois n’avoir
que peu d’importance. Comme si la dimension physique qu’elle soit
énergétique ou fréquentielle des causes présumées était au fond sans
0
5
10
15
20
0 à 10% 10 à 20% 20 à 30% 30 à 40% 40 à 50%
Variations du débit coronaires (échantillons "actifs")
Effectifs
« Mémoire de l’eau » : une hypothèse inutile ?
27
importance. Les « phénomènes liés à la mémoire de l’eau » ne paraissent pas être
influencés par le substrat physique est censé résider le message ni par les
mécanismes physiques mis en jeu pour le transmettre. Les résultats semblent
s’articuler entre eux plus comme un langage que comme les indices objectifs d’un
phénomène physique sous-jacent. Car si bien entendu les lois de la physique
sous-tendent les effets biologiques observés, ce qui est évalué et qui constitue
l’enjeu de l’expérimentation ne paraît pas dépendant des procédures expérimentales
(hautes dilutions, granules, « transmission électromagnétique du signal »,
« numérisation du signal », etc.) Ce « langage » fonctionne de façon binaire : « ça
bouge » ou « ça ne bouge pas » (parfois ternaire : rien, plus, moins ; ADM 2
Chapitre 20).
Pourtant, pourrait-on argumenter, certaines expériences où une « spécificité »
se manifestait étaient particulièrement impressionnantes et sont donc en faveur
d’une « structuration » d’un substrat physique. Ainsi de l’atropine a bloqué l’effet
d’un « signal acétylcholine » ou encore un « signal ovalbumine » a provoqué une
réaction biologique chez des animaux immunisés vis-à-vis de cette molécule et
ce même signal n’avait pas d’effet chez les animaux non immunisés. On peut
également citer les expériences étonnantes le « signal caféine » diminuait le
débit coronaire alors que le « signal ionophore » l’augmentait (le « signal eau »
étant quant à lui sans effet). L’argument de la spécificité n’est-il pas essentiel ?
En fait non, car la « spécificité » en biologie n’est jamais directement « visible ».
C’est toujours une construction intellectuelle et c’est par déduction que l’on y
parvient. Seul l’ « effet » ou l’absence d’effet est mesuré. Et si ce dernier est
sous la dépendance d’une « cause » qui nous est inconnue et se comporte de
façon cohérente, l’argument de la « spécificité » perd bien entendu de sa
consistance.
Pour résumer, il semble que les résultats concernant la « transmission du
signal biologique » faisaient peu de cas des lois physiques mais paraissaient
plutôt obéir à l'idée que l'on se faisait de ce que « devaient » être les résultats de
l’expérience (tout en restant bien entendu dans les limites physiologiques
permises). En effet, comme nous l’avons vu, l’amplitude des effets mesurés
censés être la conséquence d’une « mémoire de l’eau » ont la même valeur
moyenne quel que soit le procédé utilisé pour « informer » l’eau. Nous avons vu
également au cours du récit que les perfectionnements techniques successifs
semblaient n’avoir que peu d’impact sur la fiabilité du système au cours de
démonstrations destinées à établir une « preuve ».
On ne peut s’empêcher de faire un parallèle qui a priori n’a que peu de
rapport avec les phénomènes liés à la « mémoire de l’eau ». Il s’agit des cas de
paralysie ou de perte de sensibilité cutanée observés chez des patients souffrant
de névrose hystérique. Ainsi la paralysie ou l’insensibilité du « bras » ou de la
A travers le miroir
28
« jambe » parfois observées chez ces derniers correspond à l’idée que l’on se fait
du membre correspondant dans le langage courant et qui ne reflète pas
forcément le trajet des filets nerveux tel que nous l’apprend l’anatomie. Comme
le constata Freud lorsqu’il examina les patients de Charcot, « l’hystérie ignore
l’anatomie ». Il en déduisit que les « causes » du désordre observé n’avaient pas
un substrat anatomique mais devaient être recherchées au niveau du langage.
On pourrait donc, en paraphrasant Freud, dire à propos de ces phénomènes que
nous tentons d’expliquer qu’ils ignoraient la physique (même si bien entendu ils
y étaient soumis). Les dispositifs expérimentaux qui produisaient ces
phénomènes devenaient en quelque sorte ventriloques. Les résultats des
phénomènes de Clamart apparaissent par conséquent structurés comme un langage.
Toutefois, même si nous renonçons à l’idée d’une « mémoire de l’eau »,
conséquence d’une « organisation » de l’élément liquide, nous n’en sommes pas
quittes. Il nous faut en effet expliquer pourquoi des « placebos » ont avec
constance perturbé les comptes de basophiles, modifié le débit coronaire ou
inhibé la coagulation plasmatique ; et ceci au cours d’expériences ayant été
réalisées par différents expérimentateurs qui se sont succédé pendant près de
vingt ans. Ayant décidé d'effacer la « mémoire de l’eau » de la liste des
explications possibles des phénomènes observés par J. Benveniste et son équipe,
nous allons devoir rebâtir une autre histoire à partir du matériel expérimental
qui persiste néanmoins après cette « déconstruction » drastique.
En particulier, si ces dispositifs expérimentaux étaient « ventriloques », il
nous faudra préciser qui « parlait ».
29
1.4
________________________________________________
Corrélations des mesures et causalité
« Correlations cry out for explanations »
John S. Bell (1987) 1
Ce qui reste de la « mémoire »
ême si nous effaçons la « mémoire de l’eau » de nos propres
mémoires, il reste que les phénomènes observés n’étaient pas triviaux
et que en dépit de leur caractère improbable des variations
cohérentes ont été enregistrées par des appareils de mesures dans plusieurs
systèmes expérimentaux successifs. Par conséquent, consacrons-nous
maintenant à reconstruire ce qui peut l’être à partir des éléments qui demeurent.
Pour cela, nous renonçons dans un premier temps à établir des relations de
causalité ; nous cherchons simplement à établir des corrélations entre des
événements.
Comme nous l’avons signalé à plusieurs reprises (ADM 2 Chapitre 1), deux
systèmes de Langendorff permettant d’étudier la physiologie du cœur isolé de
rat ou de cobaye ont fonctionné en parallèle dans le laboratoire de Clamart de
1992 à 1996. Disposer d’un appareillage en double permettait de conforter les
résultats et d’écarter la possibilité d’une contamination liée par exemple à une
« rémanence » dans le système expérimental. En effet au cours d’une même
séance de travail plusieurs échantillons d’eau « informée » étaient testés sur une
même préparation physiologique de cœur isolé. C’est pourquoi le plus souvent
les échantillons étaient mesurés avec l’un des appareils dans l’ordre croissant (1,
2, 3…) et dans le sens décroissant (…3, 2, 1) avec l’autre appareil. 2 Notons au
passage que ce type de précautions utiliser un système expérimental en double
1 Speakable and Unspeakable in Quantum Mechanics, Cambridge University Press, p.152.
2 Même lorsque les échantillons étaient mesurés dans le même ordre pour les deux
appareils, il existait un décalage de quelques minutes pour un même échantillon. Il est
donc inutile d’évoquer un phénomène de résonance tel qu’il se produit entre deux
cordes vibrantes !
M
A travers le miroir
30
est très rare dans la recherche « normale ». Sur la Figure 3 nous avons
représenté 574 couples de mesures recueillis dans des expériences dont la plupart
ont été décrites dans « L’Âme des Molécules ». Cette analyse globale des résultats
n’avait jamais été réalisée jusqu’à présent (les expériences prises en compte sont
indiquées en note).1
Cette figure met en évidence la corrélation des mesures obtenues au cours
des expériences faites en parallèle sur les appareils A et B : plus l’effet observé
avec l’appareil A était élevé et plus il avait de chances de l’être également avec
l’appareil B. Si nous procédons à une transformation logarithmique des valeurs
des abscisses et des ordonnées de la Figure 3, nous constatons sur la Figure 4
que les points se disposent avec une plus grande régularité rendant ainsi les
points du nuage plus visibles. Nous allons voir que l’intérêt de cette
transformation n’est pas qu’esthétique.
En effet, sur la Figure 4, la corrélation entre les mesures des deux
appareils est encore plus évidente : si un point mesuré avec l’appareil A est
<10 %, il a une probabilité importante d'être associé à une valeur <10 % avec
l’appareil B ; de même pour les valeurs >10 %. Si pour le lecteur cette idée de
corrélation directement visible sur la figure n’est pas évidente, il peut comparer
avec la Figure 5 pour laquelle la corrélation des couples de points a été « brisée »
pour les besoins de la démonstration.
1 Les expériences de 1992 à 1996 qui ont permis de tracer cette figure n’ont pas été
« sélectionnées ». Nous avons inclus dans l’analyse l’ensemble des expériences dont nous
avons eu connaissance dès lors que des mesures avaient été réalisées en parallèle sur les
deux appareils. Les chapitres indiqués ci-après correspondent à la deuxième partie de
l’Âme des Molécules. Ces expériences sont les suivantes : Démonstration du 9 juillet 1992
(Chapitre 1) ; Expériences à l’aveugle de début décembre 1992 avec le sérum
physiologique « contaminé » (Chapitre 5) ; Expérience de transmission du 21 avril 1993
(Chapitre 6) ; Expériences de transmissions « Charpak » de mars à juillet 1994 (Chapitre
10) ; Expériences de transmission de février à juillet 1995 (Chapitre 11) ; Expériences
avec granules homéopathiques de 1995 et 1996 (résultats non rapportés dans ADM) ;
Démonstration de numérisation-transmission du 7 mai 1996 (Chapitre 14) ;
Démonstration de numérisation-transmission du 12 juin 1996 (Chapitre 14) ;
Démonstration de numérisation-transmission du 27 février 1996 (Chapitre 13) ;
Expériences de numérisation-transmission « Chicago » d’avril à septembre 1996 (Chapitre
15) ; Démonstration de numérisation-transmission du 30 septembre 1996 (Chapitre 16) ;
Expérience de numérisation-transmission du 13 novembre 1996 (Chapitre 16).
Corrélations des mesures et causalité
31
0
10
20
30
40
50
010 20 30 40 50
Mesure appareil A
Mesure appareil B
Figure 3. Corrélation des mesures réalisées sur les deux appareils de Langendorff.
Cette figure représente 574 couples de mesures obtenus avec les deux appareils A et
B entre 1992 et 1996. Abscisse et ordonnée sont exprimées en pourcentage maximal
de variation du débit coronaire (les valeurs supérieures à 50% n’ont pas été
représentées pour des raisons de lisibilité). Une transformation mathématique
simple (logarithmique) conduit à la représentation de la Figure 4.
A travers le miroir
32
1
10
100
110 100
Mesure appareil A
Mesure appareil B
574 couples de mesures
Figure 4. Corrélation entre les mesures des appareils de Langendorff A et B
(échelle logarithmique). Cette figure représente 574 couples de mesures obtenus
avec les deux appareils A et B de 1992 à 1996. La limite empirique à 10 % permet
de séparer l’ensemble des résultats en deux nuages statistiques dans le quadrant
supérieur droit (effet > 10 %) et dans le quadrant inférieur gauche (effet <10 %). Si
une mesure réalisée pour un échantillon donné est > 10 % alors la probabilité qu’il
en soit de même avec l’appareil B est importante (de même avec une valeur <10 %).
En d’autres termes les résultats obtenus avec les appareils A et B sont corrélés. La
significativité statistique de cette corrélation, quelle que soit la méthode utilisée, est
extrêmement élevée.
Bruit de fond
Signal
Corrélations des mesures et causalité
33
Rappelons qu’à ce stade de l’analyse nous ne nous préoccupons pas de savoir
si les points représentés étaient censés être « actifs » ou « inactifs ». Seule nous
importe la corrélation entre les mesures appariées obtenues avec l’appareil A et
l’appareil B. Tout au long de cette histoire nous avons constaté en effet que la
relation de cause à effet posait un problème. Nous avions alors parlé de
« discordance cohérente ». C’est pourquoi nous en restons pour le moment au
niveau des corrélations sans chercher de relation causale. Nous cherchons simplement
à établir quels événements ou états étaient observés ensemble. C’est certes une
gression par rapport à l’ambition initiale qui fut à l’origine de ces expériences
mais comme nous l’avons dit c’est un premier pas en direction d’une possible
reconstruction.
1
10
100
110 100
Mesure appareil A
Mesure appareil B
574 couples de mesures
Figure 5. Dans un but didactique nous avons repris les données des 574 couples de
mesures. Toutefois, pour chaque couple (x, y) la valeur de x a été couplée avec la
valeur de y du couple suivant dans la liste. On constate alors que la corrélation
s’effondre. En effet, que la mesure sur l’appareil soit <10 % ou >10 %, il y a autant
de chances qu’elle soit >10 % (ou <10 %) avec l’appareil B. Les quadrants avec des
valeurs « discordantes » (quadrant supérieur gauche et inférieur droit sont
maintenant occupés par de nombreux points).
Ceci est simplement destiné à montrer au lecteur qui n’aurait pas l’habitude des
représentations statistiques quels aspects présentent une absence de corrélation
(cette figure) et une corrélation significative (la figure précédente).
Cet aspect des expériences c'est-à-dire l’existence de corrélations entre les
deux appareils n’a pas été mis exergue par J. Benveniste car l’enjeu pour
convaincre les sceptiques a toujours porté sur l’attribution correcte de séquences
« actifs/inactifs » au cours des expériences de démonstration.
A travers le miroir
34
La corrélation entre l’appareil A et l’appareil B (Figure 4) est un résultat
essentiel : il signifie que les variations enregistrées par l’appareil A et par l’appareil B ont
une origine commune. Le but de cette analyse est de tenter de préciser la source des
corrélations.
Deux populations d’effets biologiques
Calculons maintenant la valeur moyenne de chaque couple de mesures de la
Figure 4 et étudions la distribution de ces mesures. La représentation en est faite
Figures 6 et 7. Cette figure appelle plusieurs remarques. Nous constatons tout
d’abord l’existence de deux populations d’effets biologiques bien individualisées ayant
chacune son mode. Nous observons également que la transformation
logarithmique a permis de donner à chacune des populations un aspect
symétrique (de type gaussien).
L’explication de cette symétrie réside probablement dans le fait que ce qui
est mesuré est un débit qui pour un conduit de section approximativement
circulaire est de la forme K π R2R est le rayon et K une constante. Après
transformation logarithmique la variable mesurée est linéarisée car elle est alors
de la forme K’ π R. Les variations de la variable aléatoire qui est ainsi
indirectement mesurée est une longueur, à savoir le rayon de l’artère coronaire.
Figure 6. Distribution des points de la Figure 4. Les moyennes de chacun des 574
couples de mesure ont été calculées et la distribution des 574 évaluations est représentée
sur cette figure. On constate qu’il existe deux « populations » de mesures : la population
1 dont le pic est à 6,3 % et la population 2 dont le pic est à 21,5 % ; Le point d’inflexion
3 est à 11,7 % (rappelons que 10 % était la limite empirique séparant un effet significatif
sur le débit coronaire et une absence d’effet).
Corrélations des mesures et causalité
35
Si la mesure avec l’appareil A est < 10%, alors : Si la mesure avec l’appareil A est > 10%, alors :
0
5
10
15
20
25
30
35
110 100
Mesure appareil B
Pourcentages
0
5
10
15
20
25
30
35
110 100
Mesure appareil B
Pourcentages
Figure 7. Ces deux graphiques sont construits à partir des résultats de la Figure 3.2. Ils
illustrent sous la forme de distributions l’idée de corrélation entre les mesures de
l’appareil A et de l’appareil B. Lorsque la mesure sur l’appareil A est inférieure à 10%,
alors la mesure sur l’appareil est (le plus souvent) elle aussi inférieure à 10% (graphique
gauche). De même si la mesure A était supérieure à 10%, la mesure B était en moyenne
supérieure à 10% (graphique droit).
La transformation logarithmique des variations du système biologique n’a
pas été utilisée par J. Benveniste et ses collaborateurs. L’aspect symétrique de la
distribution des résultats expérimentaux après cette transformation faite a
posteriori est donc un argument très fort concernant la « sincérité » de ces mesures. Il
permet de valider ces résultats. Il serait très difficile n’ayant pas conscience de
la nécessité de cette transformation d’ « inventer » ces données.
On pourrait reprocher à cette analyse de mélanger des expériences réalisées
dans des conditions expérimentales très variées (hautes dilutions, granules
homéopathiques, transmissions électromagnétique, numérisation du signal
électromagnétiques, etc.) ainsi que des substances biologiques différentes
(histamine, ovalbumine, acétylcholine, etc.) Et le lecteur sait depuis son jeune
âge que l’on ne doit pas additionner des choux et des carottes. Mais, on l’a
compris, seule nous importe maintenant la corrélation des effets des
échantillons testés quel que soit le procédé mis en jeu. Par conséquent, l'argument se
retourne de lui-même : c'est précisément du fait de cette hétérogénéité des
« causes » supposées (les « choux » et les « carottes ») que la robustesse de cette
« double bosse » n'en est que plus remarquable.
Nous retrouvons ici l’idée que nous avions avancée dans le chapitre
précédent : lorsqu’une variation du débit coronaire est observée, elle est
A travers le miroir
36
toujours en moyenne de l’ordre de 20–30 %, et ceci quel que soit le processus
qui a permis de l’obtenir. L’aspect bimodal (« ça bouge ; ça ne bouge pas ») mis
en évidence par cette distribution ne fait que renforcer cette idée. Nous
retrouvons également le seuil à 10 % entre « inactifs » et « actifs » qui avait été
fixé empiriquement.
L’effet noté « 1 » sur la Figure 6 est l’effet de base ; c’est ce que l’on observe
lorsque le système est « au repos » ou lorsque le produit testé se révèle
« inefficace ». C’est le « bruit de fond ». L’effet noté « 2 », à ce stade de l’analyse, a
une origine inconnue (puisque nous avons renoncé à l’idée de chercher une
réponse « dans l’eau »).
Afin de poursuivre l’analyse, nous suspendons pour le moment notre jugement quant
à l’origine du signal biologique qui émerge du bruit de fond. Son existence est
néanmoins avérée : en effet si un « effet » est observé sur le premier appareil alors il
a toutes les chances d’être observé sur le deuxième appareil.
Dans le chapitre suivant nous présentons les résultats obtenus (avec le
système de Langendorff) dans les différents contextes expérimentaux
permettant ou non le maintien des corrélations décrites dans le présent chapitre.
37
1.5
________________________________________________
Données expérimentales et contextualité
« Ma conviction est qu'il reste à démontrer qu'il
existe un phénomène à expliquer » F
John Maddox (1988) 1
ous partons donc du fait établi qu’il existe deux états possibles du système
biologique étudié (Figure 8). Soit le système est « au repos » (noté ↓)
avec une variation du paramètre biologique mesuré qui reste dans les
limites du bruit de fond (< 10 %), soit nous observons une variation (> 10 %)
de ce paramètre (notée ↑). Comme nous l’avons dit, nous suspendons
provisoirement notre jugement concernant l’origine de l’état qui émerge du
bruit de fond.
Afin de progresser dans la compréhension de ce système expérimental,
faisons en quelque sorte un état des lieux. Pour cela, nous regroupons les
expériences en deux grands groupes de situations expérimentales.
Le premier groupe d’expériences est constitué par les différents cas des
corrélations sont obtenues : les expériences sont réalisées en ouvert ou à
l’aveugle avec la participation d’un observateur « interne » (appelé observateur
de type 2). Les corrélations obtenues sont statistiquement significatives.
Dans le deuxième groupe d’expériences, les expériences sont réalisées à
l’aveugle avec la participation d’un observateur « externe » (appelé observateur
de type 1). On observe alors une distribution des mesures au hasard entre les
deux « états » possibles du système : les corrélations ne sont plus statistiquement
significatives. Il est important de noter toutefois la persistance du signal.
1 Waves caused by extreme dilution. Nature 1988; 335:7603.
N
A travers le miroir
38
Figure 8. Ces deux figures ont déjà été décrites dans le chapitre précédent. C’est du fait
de l’existence de la « population » entourée par des pointillés que nous concluons « qu’il
se passe quelque chose ». La question de la non correspondance entre les effets attendus
et les effets observées qui apparaît dans certaines circonstances (ce que nous avons
nommé la « discordance cohérente ») est à ce stade une autre question. Sur les « causes »
pouvant expliquer la présence de la « population » entourée par des pointillés, nous
suspendons notre jugement dans un premier temps.
Premier groupe d’expériences :
établissement de corrélations
Il existe trois situations expérimentales avec établissement de corrélations.
Situation 1 : Corrélation des mesures des appareils A et B (expériences en ouvert)
(Figure 9)
Nous en avons déjà parlé. Il s’agit des deux appareils de Langendorff qui
fonctionnaient en parallèle. Nous avons néanmoins à nouveau représenté ces
résultats dans la Figure 9 afin de permettre une comparaison avec les autres
situations expérimentales. Au cours de ces expériences, il n’y avait pas d’aveugle
entre la mesure A et la mesure B. L’échantillon initial pouvait néanmoins avoir
été mis sous un nouveau code au préalable avant d’être confié à
l’expérimentateur pour la réalisation des deux mesures, mais ce qui nous
importe ici est uniquement la corrélation entre mesure A et mesure B.
Les expériences (574 couples de mesures) qui ont servi à établir cette figure
ont été indiquées en note dans le Chapitre 4.
1
10
100
110 100
Mesure appareil A
Mesure appareil B
574 couples de mesures
0
5
10
15
20
25
30
35
110 100
Mesure appareil B
Pourcentages
Si la mesure avec lappareil A est > 10%, alors :
?
Données expérimentales et contextualité
39
Situation n°2 : Première vs. deuxième mesure du même échantillon (aveugle par un
observateur de type 2) (Figure 10)
Dans le cas précédent, les mesures A et B n’étaient pas réalisées à l’aveugle.
Dans cette situation n°2, afin de conforter les résultats de démonstrations
publiques et de s’assurer que l’expérience n’était pas biaisée d’une façon ou
d’une autre par l’expérimentateur, les échantillons étaient recodés par un autre
membre de l’équipe (observateur de type 2) : après une première série de
mesures, les mêmes échantillons étaient donnés à nouveau à l’expérimentateur
pour de nouveaux tests mais sous un nouveau nom.
Les expériences correspondantes sont indiquées p. 44 (78 mesures).
Situation n°3 : Echantillons “inactifs” vs. échantillons “actifs” (aveugle par un observateur de
type 2) (Figure 11)
Dans ces expériences, l’aveugle était réalisé par un ou plusieurs membres de
l’équipe (observateur de type 2).
Les expériences correspondantes sont indiquées p. 44 (126 mesures).
Dans les situations 1 à 3, nous constatons donc une corrélation entre les
effets observés et effets « attendus ».
Deuxième groupe d’expériences : effondrement des corrélations
Situation n°4 : Echantillons “inactifs” vs. échantillons “actifs” (aveugle par un observateur de
type 1) (Figure 12)
Pour ces expériences dont l’aveugle a été réalisé par un observateur de type 1, le
signal observé (↑ ou ↓) se produit au hasard.
Les expériences correspondantes sont indiquées p. 44 (108 mesures).
L’ensemble des résultats (situations 1 à 4) et les pourcentages observés sont
résumés dans le Tableau 2.
A travers le miroir
40
Figure 9. Corrélation des mesures des appareils A et B :
Cette figure a déjà été présentée ; nous la présentons à nouveau pour faciliter la
comparaison avec les suivantes. Elle représente les résultats de mesures réalisées en
parallèle sur l’appareil A (abscisses de la figure centrale) et l’appareil B (ordonnées).
Il n’y a pas d’aveugle entre la mesure A et la mesure B. Comme nous l’avons déjà
dit, nous ne nous préoccupons pas de savoir si le résultat obtenu est conforme à ce
qui était attendu (échantillon supposé actif ou inactif). Ce que nous souhaitons
mettre en évidence est la corrélation des mesures entre les deux appareils.
Données expérimentales et contextualité
41
Figure 10. Première vs. deuxième mesure du même échantillon (aveugle par observateur de
type 2) :
Cette figure correspond à des expériences à l’aveugle « en interne ») : une première
série de mesure avait lieu, puis un (ou plusieurs) membre(s) de l’équipe de
J. Benveniste redonnait à l’expérimentateur les mêmes échantillons mais sous un
nouveau nom afin que l’expérimentateur ne puisse relier les résultats de la première
série de mesures (abscisses de la figure centrale : <10% ou > 10%) avec ceux de la
deuxième mesure (ordonnées). Ici encore nous ne nous préoccupons pas de savoir
si les résultats obtenus sont conformes à l’ « étiquette » de l’échantillon initial. Nous
constatons simplement la corrélation des mesures.
A travers le miroir
42
Figure 11. Echantillons « inactifs » vs. échantillons « actifs » (aveugle par observateur de
type 2) :
Au cours de ces expériences, un (ou plusieurs) membres(s) de l’équipe de J.
Benveniste aveuglait les échantillons censés être « inactifs » ou « actifs » avant de les
donner à l’expérimentateur. On constate que le résultat était corrélé avec l’étiquette
de l’échantillon (même s’il existait des « erreurs » d’attribution, globalement la
corrélation était significative).
Données expérimentales et contextualité
43
Figure 12. Echantillons « inactifs » vs. échantillons « actifs » (aveugle par observateur de
type 1) :
Au cours de ces expériences, un observateur extérieur (observateur de type 1)
aveuglait les échantillons qui étaient ensuite confiées aux membres de l’équipe de J.
Benveniste afin qu’ils réalisent les mesures. L’observateur de type 1 n’assistait pas
aux expériences et n’avait connaissance des résultats obtenus qu’après la fin des
mesures. On constate dans ce cas que la corrélation est brisée ; néanmoins les deux pics
correspondant au bruit de fond et au signal sont toujours présents.
A travers le miroir
44
Sources des données expérimentales qui ont servi à construire les
Figures 9 à 12 :
Figure 9. Les données de cette figure ont été déjà mentionnées (cf.
note Chapitre 4)
Figure 10. Expériences du 13 mai 1993 (Chapitre 8 de la deuxième partie de
L’Âme des Molécules), 27 février 1996 (Chapitre 13), 7 mai 1996 (Chapitre 14),
12 juin 1996 (Chapitre 14), 4 décembre 1996 (Chapitre 16), 25 septembre
1997 (Chapitre 18).
Figure 11. Expériences des 21 et 23 mai 1996 faisant suite à celle du 7 mai
1996 (Chapitre 14 de la deuxième partie de L’Âme des Molécules), 25 et 26
juillet 1996 faisant suite à celle du 12 juin 1996 (Chapitre 14), 22 octobre
1996 (Chapitre 16), 25 octobre 1997 (Chapitre 16), 13 novembre 1996
faisant suite à celle du 4 novembre 1996 (Chapitre 16), expériences de
février-juillet 1997 (Chapitre 17).
Figure 12. Expériences du 9 juillet 1992 (Chapitre 1 de la deuxième partie de
L’Âme des Molécules), 28 septembre 1992 (Chapitre 4), 27 février 1996
(Chapitre 13), 7 mai 1996 (Chapitre 14), 30 septembre 1996 (Chapitre 16), 4
novembre 1996 (Chapitre 16), 4 décembre 1996 (Chapitre 16), 27 septembre
1997 (Chapitre 18).
Données expérimentales et contextualité
45
Tableau 2. Résumé des Figures 912 : résultats concordants ou discordants
selon le contexte expérimental.
Nombre de
points
expérimentaux
% de points
expérimentaux
< 10%
% de points
expérimentaux
> 10%
p*
Expériences en ouvert
Situation #1 : Appareil A vs.
appareil B (
Figure 9
)
< 10% avec appareil A N=372 93%
(appareil B)
7%
(appareil B) < 1 x 10-83
> 10% avec appareil A N=202 11%
(appareil B)
89%
(appareil B)
Expériences à l’aveugle
avec observateur de type 2
Situation #2 : Première vs.
seconde mesure du même
échantillon (
Figure 10
)
< 10% après première
mesure N=50 96%
(2nde mesure)
4%
(2nde mesure) < 1 x 10-13
> 10% après première
mesure N=28 7%
(2nde mesure)
93%
(2nde mesure)
Situation #3 : Echantillons
« inactifs » vs. « actifs »
(
Figure 11
)
Etiquette « inactif » N=68 88% 12%
< 1 x 10-13
Etiquette « actif » N=58 19% 81%
Expériences à l’aveugle
avec observateur de type 1
Situation #4 : Echantillons
« inactifs » vs. « actifs »
(
Figure 12
)
Etiquette « inactif » N=54 57% 43%
0.25
Etiquette « actif » N=54 44% 56%
Les pourcentages des paires concordantes statistiquement significatifs sont indiqués en caractères gras.
* Test du Chi-carré.
46
Pourquoi J. Benveniste n’est-il pas parvenu à convaincre ses « pairs » ?
Les expériences réalisées par l’équipe de J. Benveniste confirmaient les
hypothèses de la « mémoire de l’eau » et de la « biologie numérique »… mais
seulement jusqu’à un certain point.
En effet, J. Benveniste s’est heurté à un écueil expérimental. Cet « écueil » a été
retrouvé dans les différents modèles expérimentaux successifs que son équipe a
élaborés. C’est, selon nous, le fait scientifique qui émerge de « l’affaire de la
mémoire de l’eau ».F
1
Dans certaines conditions expérimentales, les effets observés étaient reliés au
hasard aux « causes » supposées :
D’une façon générale, les expériences qui conduisaient à un « succès »
étaient essentiellement 1) les expériences faites sans masquer sous un code les
échantillons à tester (expériences en ouvert) ; 2) les expériences faites « en
interne », y compris les expériences avec des échantillons « à l’aveugle » pour
l’expérimentateur et codées par un membre de l’équipe (ou par un dispositif
automatique de codage). Les expériences qui conduisaient à l’échec étaient tout
particulièrement les expériences destinées à prouver la réalité des effets en
impliquant des observateurs extérieurs qui prenaient en charge le masquage des
échantillons à tester. Ces dernières expériences étaient réalisées en deux temps :
des échantillons expérimentaux étaient étiquetées sous un code dans un
laboratoire extérieur par des scientifiques « étrangers » (hors du « cercle
expérimental » habituel) puis testés au laboratoire (avec un éventuel recodage
interne). A noter que les échantillons « en ouvert » réalisés dans ces conditions
donnaient les résultats « attendus ».
Afin de vaincre cet obstacle expérimental, l’équipe de J. Benveniste était
1 En effet, aucune « signature » physique n’a jamais été mise en évidence sur les supports
mis en jeu (par exemple une modification de la « structure » de l’eau ou des spectres des
« signaux » informatiques). La confirmation des hypothèses passait toujours par la
mesure d’un paramètre biologique.
Données expérimentales et contextualité
47
parvenue à un degré poussé de sophistication des expériences. Ainsi, dans sa
dernière version, l’expérience sur le cœur isolé de cobaye pouvait être « pilotée »
à distance directement depuis un ordinateur (sans échantillon d’eau
intermédiaire, ni « contact » quel qu’il soit). L’idée d’une contamination ne
pouvait être invoquée. Les seules différences apparentes entre les signaux
réputés « actifs » ou « inactifs » résidaient dans des fichiers informatiques. De
plus, l’effet observé avait toutes les apparences de la spécificité.
De même, dans sa dernière version, l’expérience de coagulation plasmatique
était réalisée par un robot qui réalisait de façon automatique l’ensemble des
opérations, depuis le choix aléatoire des « signaux » informatiques jusqu’à
l’impression des résultats (le choix des « signaux » restait inconnu de l’opérateur
jusqu’à la fin de l’expérience).
A ce stade on pourrait considérer que les hypothèses liées à une « mémoire
de l’eau » ou à une « biologie numérique » ont été « falsifiées » (dans le sens que
Karl Popper a donné à ce terme). Il reste à expliquer toutefois se trouve la
source de variation du paramètre biologique (effets A et B décrits ci-dessus) et à
préciser les conditions physiques du « succès » et de l’ « échec ».
48
1.6
________________________________________________
Corrélations et transmission d’informations
« Les observations inexplicables ne sont pas
toujours des preuves du surnaturel »
John Maddox (1988) 1
Ce système expérimental pourrait-il transmettre des informations ?
evenons un instant à l’hypothèse initiale qui fut à la source de ces
expériences et supposons à titre d’hypothèse de travail que « quelque
chose » constitutif de l’eau avait bien été modifié. Si l’ « information
biologique » est bien là où elle est supposée être c'est-à-dire dans l’eau, on devrait
alors raisonnablement pouvoir imaginer un dispositif qui permettrait de
discriminer les échantillons « actifs » et « inactifs », même lorsque ces
échantillons sont délivrés à l’expérimentateur sous forme « codée ».
Imaginons donc que l’on associe la signification « 0 » à « inactif » et « 1 » à
« actif ». Ce système devrait alors être capable de transmettre des informations.
Certes, ce ne serait pas très pratique et il faut reconnaître quil existe des moyens
de communiquer beaucoup plus efficaces et plus commodes.
Prenons anmoins un cas simple une information de type chimique
permet de transmettre une information. Dans une série de verres numérotés
contenant de l’eau, certains sont laissés en l’état (information « 0 ») et dans
d’autres nous ajoutons du sucre (information « 1 »). En utilisant ce code binaire
(et si nous prenons soin de maintenir l’ordre des verres) nous pourrions
communiquer avec un interlocuteur. Nous pourrions par exemple transmettre
des messages à un prisonnier en lui faisant parvenir chaque jour un « bit »
d’information (0 ou 1). Il lui suffirait de goûter l’eau, puis de traduire
l’information selon le code convenu. Ceci peut paraître trivial mais cet exemple
permet de comprendre l’idée de la transmission d’un message dont chaque
information élémentaire bit ») est localisée dans un échantillon d’eau.
1 When to believe the unbelievable. Nature 1988; 333:787.
R
Corrélations et transmission d’informations
49
Revenons aux expériences en rapport avec la « mémoire de l’eau ».
Supposons que de la même façon on se serve déchantillons d’eau pour envoyer
des messages secrets : eau « structurée » pour transmettre l’information « 1 » et
« eau non structurée » pour l’information « 0 » ou encore « eau structurée A »
pour transmettre « 0 » et « eau structurée B » pour transmettre « 1 ». Un système
de cryptographie aurait pu être ainsi élaboré et les fichiers informatiques issus de
la « biologie numérique » auraient pu constituer un support idéal. En effet, si
l’on suppose valides les principes de la « biologie numérique », il aurait é
impossible de distinguer, dans l’état actuel des connaissances, l’information « 0 »
de l’information « 1 ». Seul un système biologique spécifique des molécules
« enregistrées » aurait été capable de distinguer les « activités » de ces fichiers.
Cela aurait été un moyen de cryptographie tout à fait original.
En fait, sans le savoir, c’est ce que J. Benveniste et son équipe ont fait
lorsque les fichiers informatiques (ou les échantillons d’eau) ont été utilisés dans
des expériences à l’aveugle. Mais comme on l’a vu ce système s’est révélé très
fragile lorsqu’on l’a inclus dans un dispositif qui aurait pu autoriser la transmission
d’un message.
Le fait scientifique qui émerge de l’histoire de la « mémoire de l’eau » serait
donc celui-ci : les expériences « marchaient » tant qu’on ne cherchait pas à les
utiliser dans un dispositif qui aurait permis de transmettre une information. Certes
des corrélations existaient. Mais elles ne persistaient qu’à condition que le
« message » à décoder ne transite qu’au sein du laboratoire. Il faut une fois de
plus insister sur le fait que cette discordance apparente n’est pas liée à un
problème expérimental trivial car les échantillons maintenus « en ouvert »
donnaient les résultats attendus.
Par conséquent, si nous souhaitons décrire de façon formelle les expériences
de J. Benveniste, nous devrons comprendre le rôle joué par le contexte
expérimental.
Cette impossibilité à localiser « l’information » dans les échantillons d’eau est
à nouveau un argument qui nous oblige à renoncer aux idées liées à la
« mémoire de l’eau » ou aux hypothèses de la biologie numérique. En effet, si les
conditions de l’aveugle (observateurs de type 1 vs. type 2) ont de telles
conséquences, peut-on encore faire appel aux catégories expérimentales
habituelles pour décrire ces résultats ?
A travers le miroir
50
Un message chimique. Si la « mémoire de l’eau » était réellement une
modification physico-chimique spécifique d’une « information » localisée
dans chacun des échantillons « mesurés », alors on devrait pouvoir
l’utiliser pour transmettre un message. De même, imaginons que nous
souhaitions transmettre un message en utilisant des verres contenant de
l’eau sucrée (bit « 1 ») ou non sucrée (bit « 0 »). Le destinataire goûterait le
contenu de chacun des verres (en respectant l’ordre). Puis il
« décoderait » : sucré = 1 et non sucré = 0. La « localisation » dans
chacun des verres d’une « information » chimique permettrait donc la
transmission d’un message.
Sucre
1 1 0 1 0 1 1 0
Une piste ?
Revenons quelques instants sur l’expertise de la DARPA mentionnée plus haut
(Chapitre 2). Rappelons brièvement que l’expertise réalisée par cette agence
dépendante du Département de la défense US était destinée à évaluer les effets
de la « biologie numérique » (ADM 2 Chapitres 23 et 24).
Les résultats de cette expertise ont été publiés en 2006 par les universitaires
et chercheurs de l’équipe dans une revue scientifique tout à fait
« conventionnelle » :
(2006) 20:23-8
Corrélations et transmission d’informations
51
Comme nous l’avons dit dans le Chapitre 2, les auteurs de cet article
concluent sur l’échec de la reproduction indépendante des résultats liés à la
« biologie numérique ». Cette conclusion qui pourrait sembler clore la question
de la « mémoire de l’eau » et de la « biologie numérique », pose néanmoins des
jalons assez inattendus pour de futures recherches :
« Bien qu’il soit possible que
d’autres facteurs inconnus
liés à l’expérimentateur
puissent être une explication à ces observations, tels que l’influence de composés chimiques
ou d’émanations énergétiques ou encore
lintentionnalité des expérimentateurs
, nous
n’avons pas testé ces hypothèses, ni tenté de développer un cadre conceptuel qui nous
permettrait de contrôler de tels facteurs. Sans ce cadre, continuer à étudier la biologie
numérique en gardant la même approche serait au pire une recherche sans fin et au mieux
serait prématuré. »
Nous ne pouvons que souscrire à cette conclusion et c’est précisément afin
de définir un nouveau cadre conceptuel pour ces recherches que le présent
ouvrage a été écrit. Notons que ce nouveau cadre de recherche devrait selon les
experts avoir les expérimentateurs pour objet d’étude.
52
1.7
________________________________________________
A l’impossible nul n’est tenu
« Inutile d'essayer, dit Alice, il est impossible de croire
aux choses impossibles.
À mon avis vous manquez de pratique, répliqua la
Reine. Moi, à votre âge, je m'y appliquais une demi-heure
tous les jours. Il m'est arrivé alors de croire jusqu'à six
choses impossibles avant le petit déjeuner ».
Lewis Carroll, De l’autre côté du miroir.
outenir la thèse de la « mémoire de l’eau sans eau » n’est pas une simple
posture intellectuelle et n’est en aucune manière une concession aux
adversaires des expériences de J. Benveniste pour lesquels il ne saurait y
avoir de « mémoire de l’eau » car ce serait, selon eux, impossible dans l’état
actuel des connaissances. Nous souhaitons avoir convaincu le lecteur que
l’hypothèse de la « mémoire » de l’eau n’est pas tenable, non pas parce cela nous
déplait, mais tout simplement parce que c’est ce que nous enseignent les
expériences elles-mêmes pour qui sait les regarder dans leur ensemble et selon le
bon angle. Dans ce chapitre, nous formaliserons cette impossibilité en termes
mathématiques. Par ailleurs, ce chapitre nous permettra de préparer la
modélisation des expériences décrite dans la troisième partie.
Présentation d’Alice, Bob et Eve
Dans le chapitre 4, nous avons classé les expériences selon le contexte
expérimental et, afin de rendre compte des différents résultats, nous allons bâtir
un modèle simple basé sur une approche dite personnaliste des probabilités.
Nous devons tout d’abord définir certaines conventions et règles.
Il est habituel dans ce type de problème, en cryptologie en particulier, de
personnifier les différents protagonistes qui cherchent à échanger (Alice et Bob)
ou à intercepter (Eve) des informations. Pour ce qui nous préoccupe, Alice a le
rôle de l’expérimentateur tandis que Eve et Bob correspondent respectivement
S
A l’impossible nul n’est tenu
53
aux observateurs de type 1 et type 2 que nous avions définis dans le chapitre 4.
Le rôle de chacun de ces personnages est décrit dans la Figure 13.
Figure 13. finition des rôles des différents protagonistes dans une situation
expérimentale. Eve est hors des locaux se déroule l’expérience et n’a pas
d’informations « directes » ; elle supervise l’expérience à distance en évaluant le taux de
succès des expériences faites à l’aveugle (pour Alice/Bob). Dans un premier temps, Eve
a remplacé l’étiquette initiale de chaque échantillon expérimental par un code. Quand
tous les échantillons ont été testés, les résultats obtenus par Alice sont envoyés à Eve
qui peut alors évaluer le taux de succès en comparant terme à terme les deux listes:
effets « attendus » (étiquettes « inactives » (IN) et actives” (AC) des échantillons sous
code) et effets observés (état de repos ou état « acti »). Bob qui observe Alice
réalisant une expérience et il peut aussi réaliser localement une expérience à l’aveugle
pout Alice.
Les termes « local » et « à distance » ne doivent pas induire en erreur, même
si, en pratique, Alice et Eve étaient dans des laboratoires plus ou moins éloignés,
tandis qu’Alice et Bob étaient proches physiquement. C’est en termes
d’informations sur l’expérience que la question se pose. Imaginons qu’Alice joue
à pile ou face. Lorsque la pièce est retombée, le résultat de l’expérience est, par
exemple, pile pour Alice et Bob. Pour Eve, qui sait que l’expérience a été
réalisée, le résultat est néanmoins toujours pile ou face jusqu’au moment
Alice l’informe du résultat. On voit ici que les probabilités, même classiques,
recèlent un aspect subjectif : le passage de la probabilité 1/2 (incertitude) à 1 ou
0 (certitude) dépend de l’information dont l’observateur dispose sur
l’expérience. Les probabilités sont donc une mesure de notre ignorance et
peuvent être différentes selon l’observateur. Elles sont donc liées
subjectivement à l’observateur et ne décrivent pas un état objectif du monde.
A travers le miroir
54
Le but des expériences que nous décrivons était de démontrer une relation
de cause à effet entre la modification de ces échantillons (grâce à la « mémoire
de l’eau ») et leur impact sur un dispositif biologique.
Dans ces expériences, l’événement « succès » était défini comme :
1) L’observation d’un échantillon « inactif » (IN) associé à l’état de repos du
système expérimental (↓)
ou
2) L’observation d’un échantillon « actif » (AC) associé à l’état « activé » du
système expérimental (↑).
Nous devons à nouveau insister qu’il est bien entendu (et c’est que side
l’aspect « non classique » de cette description) que les échantillons sont tous
physiquement équivalents. Seules les « étiquettes » (qui ne sont en fait que les
résultats « attendus » pour chacun des échantillons) permettent de les
différencier.
Expériences sur la « mémoire de l’eau » et loi des probabilités totales
Nous allons montrer dans un premier temps qu’une description selon la logique
« classique » ne peut expliquer ces expériences car l’un des piliers des
probabilités classiques, la loi des probabilités totales, est violée par ces résultats.
Ceci justifiera par conséquent le fait de faire appel à une théorie plus générale
des probabilités.
La loi des probabilités totales peut se formuler de la façon suivante. Si on
considère deux énements disjoint, B1 et B2, tels que Prob (B1 U B2) = 1
(probabilité de réalisation de B1 ou B2 égal à 1), alors pour tout événement A,
nous pouvons écrire léquation des probabilités totales :
Prob (A) = Prob (B1) × Prob (A | B1) + Prob (B2) × Prob (A | B2)
Dans cette équation, Prob (X | Y) est une probabilité conditionnelle :
probabilité que lévénement X survienne sachant que lévénement Y est connu.
Dans les chapitres précédents, nous avons synthétisé un grand nombre
d’expériences basées sur l’appareil de Langendorff (cœur isolé). Ces expériences
sont résumées dans le Tableau 3 selon deux types de conditions expérimentales :
1) Alice évalue le taux de succès (expérience en ouvert) ou Bob évalue le taux de
succès (expérience à l’aveugle pour Alice)
2) Eve évalue le taux de succès (expérience à l’aveugle pour Alice).
A l’impossible nul n’est tenu
55
Dans le cadre d’une description classique de ces expériences, les probabilités
respectives de succès (SUCC) devraient être identiques avec ou sans supervision
par Eve.
Selon les résultats résumés dans le Tableau 3, dans le cas où Eve n’évalue pas
le taux de succès des expériences, ProbA (SUCC) = 0.92 (évaluation Alice) et
ProbB (SUCC) = 0.88 (évaluation par Bob). Eve cherche ensuite à confirmer ces
résultats proches de l’unité (c’est à dire réalisées avec succès) en réalisant de
nouvelles expériences, mais à l’aveugle pour Alice (Figure 1). Lorsque tous les
échantillons ont été testés, Eve reçoit les résultats obtenus par Alice pour
chacun des échantillons et peut évaluer le taux de succès (Alice ne disposait que
d’échantillons sous un numéro de code).
ProbE(SUCC) = Prob(IN) × Prob(SUCC|IN) + Prob(AC) × Prob(SUCC|AC)
= 0.5 × 0.57 + 0.5 × 0.56 = 0.57
Par conséquent, la probabilité de succès est différente selon les conditions
expérimentales (évaluation du taux de succès d’abord par Alice/Bob ou d’abord
par Eve) :
ProbA (SUCC) ≈ ProbB (SUCC) > ProbE (SUCC)
La supervision « à distance » conduit à une chute du taux de succès (le succès
étant la concordance des résultats « attendus » et des résultats observés). La loi
de probabilité totale est donc violée au cours des expériences de J. Benveniste.
Les situations expérimentales la loi de probabilité totale est violée
concernent des situations non classiques telles que les expériences rencontrées
en physique quantique. Nous verrons quune logique qui a des points communs
avec la logique à l’œuvre dans les phénomènes quantique est nécessaire pour
décrire ces expériences qui heurtent le sens commun basé sur une vision
« classique » de la réalité. Par exemple, dans l’expérience des fentes de Young, la
probabilité d’observer un impact d’un photon sur l’écran en un point précis est
différente selon que le chemin emprunté par le photon (fente 1 ou fente 2) a été
détecté ou non (c’est-à-dire selon que ce chemin est connu ou non).
Tableau 3. Violation de la loi des probabilités totales dans les expériences sur la
« mémoire de l’eau ».
Situations expérimentales
Nombre de
points
expérimentaux
Résultats
« attendus »
Résultats observés
(taux de succès, %)
Résultat “↓”
(état au repos)
Résultat “↑”
(état « activé »)
1) Eve n’évalue pas le taux de succès :
Alice évalue le taux de succès
(en ouvert)
N=372 « Inactif » 93% 7%
N=202 « Actif » 11% 89%
Bob évalue le taux de succès
(à l’aveugle pour Alice)
N=118 « Inactif » 91% 9%
N=86 « Actif » 15% 85%
2) Eve évalue le taux de succès :
(à l’aveugle pour Alice)
N=54 « Inactif » 57% 43%
N=54 « Actif » 44% 56%
Les taux de succès (étiquette « inactif » associée à état de repos et étiquette
« actif » associée à état « activé ») sont en caractères gras.
Ces résultats sont un résumé du Tableau 2 du Chapitre 5.
La décohérence quantique est toutefois, comme nous le verrons bientôt, un
obstacle qui s’oppose à l’utilisation de la physique quantique dans des situations
expérimentales macroscopiques. Rien nempêche toutefois demprunter au
formalisme quantique certains de ses outils. C’est pourquoi, dans une deuxième
partie nous aborderons les idées et la logique qui sous-tendent la physique
quantique. Dans une troisième partie nous proposerons une modélisation des
expériences de J. Benveniste en recourant aux probabilités classiques. Nous
verrons qu’une logique de type quantique est néanmoins à l’œuvre à l’arrière-
plan. Le fait que les expériences de J. Benveniste violent la loi des probabilités
totale trouvera alors une explication.
Le lecteur qui a un bagage suffisant peut se dispenser de la lecture de la
deuxième partie et sauter directement à la troisième. Le lecteur impatient peut
faire de même et revenir ensuite à cette deuxième partie.
A l’impossible nul n’est tenu
57
Deuxième Partie
La nouvelle physique
61
2.1
________________________________________________
L’étrange monde quantique
« L’esprit et le monde construisent conjointement
l’esprit et le monde. »
Putman H. Raison, Vérité et Histoire (1981)F
1
De Kant aux quanta : un même combat ?
l est une question classique en philosophie qui consiste à se demander ce
que deviennent les objets lorsque nous ne sommes pas là pour les observer.
Ainsi le philosophe empiriste Berkeley considérait que nous
n’appréhendons le monde qu’à travers nos perceptions et il affirmait de façon
radicale que les objets ne pouvaient exister en dehors de nos sens. Selon Kant
toutefois, il existe bien « quelque chose » qui se trouve « au-delà » de nos
perceptions. Toutefois selon lui cet « au-delà » est inconnaissable. C’est ce qu’il
appelle le monde « en soi » par opposition au monde « pour soi ». Ainsi, selon
Kant, le monde « en soi » n’a ni dimension, ni position et il est indépendant du
temps puisque l’espace et le temps ne sont que des formes a priori de notre
sensibilité.
Déjà Aristote distinguait les qualités primaires et secondaires des objets. Les
qualités primaires (objectives) étaient indépendantes de l’observateur tandis que
les qualités secondaires (subjectives) étaient présentes dans l’esprit du sujet
observant. Parmi les qualités secondaires, Aristote plaçait les couleurs, les
saveurs et les odeurs. Les qualités primaires comprenaient la position, la forme,
le mouvement. Ainsi, selon ces philosophes, la couleur rouge d’une rose
n’appartient pas à la fleur. De nos jours, un physicien dirait qu’elle réfléchit les
rayons lumineux d’une certaine longueur que notre cerveau « interprète »
comme étant la « couleur rouge ». Cette dernière est donc « dans notre tête » et
pas sur la fleur. C’est l’interprétation que notre cerveau fait de nos perceptions
qui le conduit à plaquer littéralement les couleurs (c'est-à-dire des sensations)
1 Putman H. Raison, Vérité et Histoire. Minuit (1984) ; traduction française de Reason,
Truth and History, Cambridge University Press, 1981). Cité par H. Zwirn (Les limites de
la connaissance, p. 279).
I
A travers le miroir
62
sur les objets qui nous entourent. Mais pourquoi s’arrêter en chemin. Ne
pouvons-nous pas faire le même raisonnement pour l’ensemble de nos sens ?
C’est pourquoi d’autres philosophes tels que Locke et Descartes ont fait un
pas de plus en considérant que les qualités primaires (objectives) dépendaient
elles aussi de l’observateur. Toutefois, dira-t-on, lorsque nous sommes arrêtés
dans notre course par un mur, n’est-ce pas la preuve qu’il existe bien quelque
chose « en dehors de nous », quelque chose qui « résiste » ? N’est-ce pas la
preuve qu’il existe bien une réalité à laquelle nous nous « heurtons » ?
Or, nous savons que tout objet est constitué d’atomes et depuis le début du
20ème siècle, nous avons appris grâce à la révolution de la physique quantique
que les constituants des atomes n’ont d’ « existence » que si un observateur les
« révèle » par une mesure. Plus exactement c’est parce qu’un observateur réalise
une opération de mesure que le paramètre mesuré a une valeur fixée. En dehors
de cet acte d’observation le paramètre est dans un état « indéterminé ». Nous
verrons qu’il existe diverses interprétations de ce qu’est une « mesure ». Ainsi le
physicien Bernard d’Espagnat rejoint Kant d’une certaine façon puisqu’il
considère comme ce dernier qu’il y a bien « quelque chose » au-delà de nos sens
et de nos appareils de mesure mais que ce quelque chose ne peut être séparé en
éléments distincts et qu’il n’est pas descriptible en termes de temps et d’espace.
Sans observateur, il n’y aurait donc pas de particules élémentaires, d’atomes, de
molécules et d’objets ! Et ce que nous « percevons » la réalité « pour nous »
serait lié à la confrontation de la réalité « en soi » et de notre conscience.
Cette conception d’un rôle de la conscience pour faire « émerger » la réalité
telle que nous la percevons heurte violemment les biologistes pour lesquels la
pensée est en quelque sorte « sécrétée » par le cerveau, « comme le foie sécrète la
bile » pour reprendre une formulation classique. Et, selon cette dernière
conception, la pensée ne pourrait naître en effet de quelque chose qu’elle
contribue à rendre actuel. Mais, comme nous l’avons dit en introduction, la
physique des biologistes est une physique qui pour les physiciens contemporains
constitue un cas limite. Les biologistes quant à eux sont toujours persuadés en
tout cas c’est sur ce paradigme que reposent les grands courants de recherche
actuels que le découpage du Vivant en ses éléments moléculaires reste un but
non seulement désirable mais optimal pour agir en retour. Et effectivement on
ne peut dénier une efficacité, souvent spectaculaire, à cette démarche. Mais est-
ce parce que l’on agit (plus ou moins) efficacement sur la matière vivante que
cela prouve que l’on a « compris » l’objet que l’on étudie ?
Rendre compte de façon simple et accessible des développements de la
physique quantique depuis ses débuts n’est pas une démarche aisée surtout pour
qui ne peut se prévaloir de la légitimité du physicien. Incarner à soi seul les
L’étrange monde quantique
63
Bouvard et Pécuchet de la physique quantique est un risque qui doit être
assumé. Nous proposons donc au lecteur novice qui souhaiterait aborder ce
domaine de consulter les ouvrages et documents de vulgarisation indiqués en
note.F1F Il ne saurait être question ici de faire l’historique de la question et de
décrire tous les aspects de cette discipline. Nous nous bornerons à décrire à
larges traits les principes essentiels régissant cette « nouvelle » physique, vieille
maintenant de près de cent ans, et qui a connu un tournant capital dans les
années 7080.
Nous proposons de commencer par la description d’expériences classiques
de physique quantique permettant d’expliciter les notions qui seront nécessaires
à la poursuite de la lecture et en particulier à la compréhension de ce que sont
les corrélations non locales et leurs conséquences.
Qu’est-ce que la physique quantique ?
Le propos initial de la physique quantique était de décrire la matière à l’échelle
des atomes et de leurs constituants. Rapidement des difficultés surgirent. Ainsi
le modèle « planétaire » de l’atome échouait à expliquer pourquoi les électrons
qui gravitent autour du noyau ne tombent pas rapidement sur ce dernier. De
même la lumière était considérée comme un rayonnement, mais des expériences
indiquaient qu’elle pouvait se comporter également comme un ensemble de
petites « billes », les photons. Alors, était-elle un rayonnement ? Des particules ?
Les deux à la fois ? Et dans ce dernier cas comment pouvait-on se
« représenter » un rayon de lumière ?
Les ouvrages de vulgarisation ou les manuels scolaires présentent
implicitement les atomes et les molécules comme de minuscules billes qui
s’agitent selon les lois classiques de la mécanique newtonienne. Cette image est
1 Michel Bitbol. L'aveuglante proximité du réel. Flammarion, 1998 ; Michel Bitbol.
Physique et philosophie de l'esprit. Flammarion, 2000 ; Michel Bitbol & Sandra Laugier
(eds.) Physique et réalité (Un débat avec B. d'Espagnat). Editions Frontières-Diderot, 1997 ;
Colin Bruce. Les lapins de M. Schrödinger ou comment se multiplient les univers
quantiques. Le Pommier, 2004 ; Bernard d'Espagnat. Traité de physique et de philosophie.
Fayard, 2002 ; Bernard d'Espagnat et Étienne Klein. Regards sur la matière : des quanta
et des choses. Fayard, 1993 ; Etienne Klein. Petit voyage dans le monde des quanta.
Flammarion, 2004 ; Feynman, Leighton et Sands. Le cours de physique de Feynman.
Tome 3. Mécanique quantique. Intereditions, 1979 ; Roland Omnès. Les racines
quantiques du monde classique. Pour la Science, décembre 2001, p. 38 ; Roland Omnès.
Une nouvelle interprétation de la mécanique quantique. La Recherche, octobre 1995,
p. 50 ; Sven Ortoli et Jean-Pierre Pharabod. Le cantique des quantiques : le monde
existe-t-il ? La Découverte, 1984 ; Hervé Zwirn. Les limites de la connaissance. Odile Jacob,
2000 ; Le chat de Schrödinger. Sciences et Avenir (hors-série), oct-nov. 2006.
A travers le miroir
64
non seulement simplificatrice mais surtout elle est fausse. Elle doit donc être
oubliée ou du moins être mise à distance même si elle conserve une valeur
heuristique certaine. La physique quantique nous fait en effet pénétrer dans un
monde le sens commun est choqué à chaque instant. La réalité n’y est plus
décrite comme quelque chose de tangible qui existerait en dehors de nous mais
formée d’entités évanescentes qui ont une certaine probabilité de réalisation si
on les observe. L’acte d’observation y devient en effet un acte créatif en ce sens
qu’avant l’observation (ou la mesure), la « valeur » du paramètre à mesurer n’est
pas « déjà là ». Insistons dès maintenant sur le fait que cette incertitude
qu’introduit la physique quantique se rapporte à un indéterminisme
fondamental. Il ne s’agit pas d’une insuffisance de nos moyens de mesure (ou de
nos théories). On pourrait dire que la Nature elle-même ne sait pas avant la
mesure quelle est la valeur du paramètre à mesurer pour la simple raison que
cette valeur n’est pas fixée. Pour le physicien quantique orthodoxe, attribuer une
« valeur » à un « paramètre » en dehors de tout acte d’observation ou de mesure
n’a tout simplement aucun sens. Une « valeur » n’existe que par rapport à l’acte
de la mesure qui implique non seulement un appareil mais également un
observateur qui prend connaissance du résultat.
On pourrait penser la physique quantique s’adressant au monde
microscopique qu’il n’est pas étonnant que les lois physiques qu’elle décrit
soient différentes de celles de notre monde macroscopique. On pourrait
supposer néanmoins que ce dernier continuerait à se comporter comme nous en
avons l’habitude avec sa loi de causalité et son déterminisme classique.
Toutefois l’ambition de la physique quantique est de décrire non seulement le
monde microscopique des atomes, de la lumière et des particules élémentaires
mais également le monde macroscopique qui nous est familier. Les objets qui
nous entourent et nous-mêmes étant constitués d’atomes, nous sommes donc a
priori également soumis aux lois de la physique quantique. Et précisément les
pères de la physique quantique se sont rapidement heurtés à des paradoxes
lorsqu’ils ont tenté de tirer toutes les conséquences de la nouvelle physique pour
comprendre notre monde macroscopique. Des débats intenses à propos
d’« expériences de pensée » eurent lieu. Et nous verrons comment une théorie
développée à la fin du 20ème siècle, la théorie de la décohérence, se propose
d’expliquer le passage de l’étrangeté de la physique quantique au niveau
microscopique à la réalité tangible de notre monde macroscopique. Pourtant
nous verrons également que même à notre échelle nous n’en avons pas fini avec
l’étrangeté quantique.
Les conséquences de ces découvertes réalisées tout au long du 20ème siècle
restent toutefois mal diffusées dans le grand public et même parmi les
scientifiques non physiciens. C’est d’autant plus paradoxal que les applications
L’étrange monde quantique
65
de la physique quantique telles que le laser ou encore le transistor (et par voie de
conséquence les ordinateurs) se sont répandues avec le succès que l’on sait. On
pourrait imputer les raisons de cette méconnaissance aux mathématiques sous-
tendant ces théories qui sont effectivement d’un abord difficile. C’est
certainement une raison importante. Pourtant les concepts issus de la relativité
restreinte n’étaient pas non plus d’un accès aisé et étaient également choquantes
pour le sens commun car ils remettaient en cause l’idée d’un temps s’écoulant de
la même façon pour tous et partout. Mais peut-être la raison réside-t-elle dans le
caractère proprement révolutionnaire des conséquences des équations de la
physique quantique dès lors que l’on essaye de les « comprendre » et d’en tirer
toutes les conséquences.1 Et si l’ensemble des physiciens s’accordent sur les
équations de la physique quantique, leurs interprétations les divisent (ceux du
moins que les questions « philosophiques » intéressent). Différentes
interprétations ont ainsi vu le jour. Certaines font jouer un rôle capital à
l’observateur et à la « conscience » pour « créer » la réalité, d’autres postulent
l’idée de différentes versions de la réalité existant simultanément.
En fait ces différentes interprétations n’apparaissent être qu’une question de
préférences et de goûts personnels car elles sont bien évidemment toutes en
accord avec les différentes postulats de la physique quantique qui sont
maintenant solidement établis. En particulier nous verrons que notre
appartenance à un monde « non local » est maintenant établie par
l’expérimentation. Si une nouvelle théorie venait à remplacer la physique
quantique, elle devrait intégrer cette donnée fondamentale qui a pris son
indépendance vis-à-vis de la théorie qui est à son origine. Nous avons donc le
choix : nous pouvons choisir l’interprétation qui nous convient le mieux ; le seul
problème est que nous sommes condamnés à ne pouvoir choisir qu’entre
l’étrange et le bizarre.
L’expérience des fentes de Young
L’expérience des fentes de Young est à la fois la plus simple et la plus riche des
expériences de la nouvelle physique. Cette expérience dont le physicien
R. Feynman disait qu’elle recélait toute l’étrangeté de la physique quantique, va
nous permettre de toucher du doigt ce qui fonde cette remarque.
Nous connaissons tous cette expérience, au moins dans sa version du 18ème
siècle telle que Young l’avait décrite initialement. Elle avait permis à ce dernier
de démontrer le caractère ondulatoire de la lumière.
1 On dit parfois que plus on étudie la relativité restreinte et plus on la comprend, mais
qu’en revanche plus on étudie la physique quantique et moins on la comprend.
A travers le miroir
66
Figure 14. L’expérience des fentes de Young. Une source de lumière émet des photons
à travers deux fentes parallèles très proches. Si on bouche l’une des fentes, on observe
une tâche lumineuse en face de la fente restée ouverte. Les photons paraissent se
comporter comme des corpuscules dont on peut déterminer l’impact su l’écran. En
revanche si on laisse les deux fentes ouvertes on observe non pas deux taches
lumineuses mais des raies alternativement lumineuses et sombres : il y a eu interférence
(ce qui est caractéristique d’une onde). Si on fait en sorte que les photons soient émis
l’un après l’autre, une figure d’interférence se dessine également comme si chaque photon
était passé par les deux fentes à la fois et interférait avec lui-même (a). Si on cherche à connaître
par un moyen physique quelconque par quel chemin est passé le photon, alors les figures
d’interférences disparaissent et les photons se comportent comme des corpuscules (b).
L’expérience peut être également réalisée avec d’autres particules telles que des électrons
(Figure 15).
double-fente écran
source S1
ou<