Dans cet article, nous allons faire un détour par l’épistémologie, cette branche de la philosophie qui dissèque la notion même de connaissance et qui étudie la méthode scientifique pour garantir autant que faire se peut, d’un point de vue extérieur, son objectivité.
Dans le langage courant, le mot théorie est souvent utilisé comme synonyme de supposition ou plutôt d’hypothèse. Pourtant, dans un cadre scientifique, ces deux mots ont un sens bien précis, et il est important de bien les distinguer. Une hypothèse est certes nécessaire à l’élaboration d’une théorie, mais celle-ci dépasse de très loin la simple supposition ou l’opinion du scientifique.
Observation et questionnement
Source : Science photo library
Avant de faire une quelconque hypothèse, le scientifique commence par observer et questionner le monde. Il voit des phénomènes, des schémas, des régularités qui ne demandent qu’à être décryptés. C’est le point de départ de toute démarche scientifique. Mais cette observation se fait selon des règles et des méthodes, que ce soit à l’œil nu, ou via des appareils de mesure.
Des ces observations découlent naturellement des questions. Qu’est-ce qui se passe ? Quel mécanisme sous-jacent est à l’œuvre ici ? Pourquoi ? La question doit être très claire car c’est elle qui va orienter la recherche à venir.
Hypothèse
C’est alors qu’on va poser l’hypothèse, c’est à dire, une idée de réponse provisoire. Cette hypothèse doit être testable. Il faut donc qu’elle fasse des prédictions vérifiables. Ce n’est pas une simple supposition. Un scientifique ne peut pas sortir cette hypothèse d’un chapeau magique, elle doit s’appuyer sur ce qu’on sait déjà, être cohérente avec le modèle en place, et nous mener vers ce que l’on cherche à savoir ou à comprendre.
Modélisation et prédictions
Richard Feynman
La modélisation est un pas important dans l’élaboration d’une théorie. Il s’agit de construire un cadre formalisé mathématiquement ou conceptuellement, cohérent avec les observations et avec ce qu’on sait déjà. Le modèle va alors permettre au mieux d’expliquer, voir de décrire précisément le phénomène étudié, ou au moins de donner des prédictions qui seront testées par la suite.
Ces prédictions doivent pouvoir aller au-delà de ce qu’on connait déjà. Plus la théorie va faire de prédictions et plus celles-ci seront vérifiées, plus elle gagnera en crédibilité. Ce sont ces prédictions qui vont permet de lier la théorie abstraite au monde réel et concret.
Expérience et analyse
Source : Photo science library
Une fois le modèle établi, il faut le tester. On confronte la théorie à l’épreuve des faits. Ces expériences se font avec un contrôle rigoureux des variables, afin de garantir la reproductibilité des résultats. On standardise les protocoles expérimentaux de façon à ce que d’autres chercheurs puissent eux aussi vérifier ces résultats de manière indépendante.
On analyse ensuite rigoureusement les résultats, de façon a distinguer les données significatives du simple « bruit » aléatoire. C’est alors qu’on peut interpréter ces résultats en tenant compte des marges d’erreur ou de différents biais liés à la méthode.
Conclusion et/ou révision
A ce stade, on peut alors voir si ces résultats soutiennent ou, au contraire, réfutent la théorie. Mais attention, une confirmation n’est jamais définitive. Une théorie peut toujours être réfutée par de nouvelles données, de nouvelles expériences, de meilleurs modèles… La science avance par paliers. D’après Thomas Kuhn, la science connait des périodes dites normales qui peuvent être bousculées par des révolutions qui changement le paradigme, ou pour le dire plus simplement, le cadre théorique global.
« Une théorie qui n’est réfutable par aucun événement qui se puisse concevoir est dépourvue de caractère scientifique. »
Karl Popper
Évaluation par les pairs
Une théorie nait quand elle est partagée avec la communauté scientifique. Les travaux précédents sont alors publiés dans des revues à commité de lecture. D’autres experts vont alors se pencher sur le sujet, poursuivre les expériences, améliorer le cadre ou même proposer des alternatives théoriques. Cette évaluation est cruciale, car elle permet de filtrer les biais ou les erreurs qui peuvent subsister.
Si la théorie accumule suffisamment de tests et si elle résiste aux tentatives de réfutations – centrales dans la méthode scientifique – elle devient un cadre explicatif admis. Mais le formalisme mathématique ou conceptuel peut se préciser avec le temps, au fil des découvertes et des manipulations. Une théorie n’est pas un bloc statique, mais un modèle dynamique appelé à évoluer, à être complété en periode de science normale, voir même à être remplacé à l’occasion d’une révolution.
Décider de rejeter un paradigme est toujours simultanément décider d’en accepter un autre, et le jugement qui aboutit à cette décision implique une comparaison des deux paradigmes par rapport à la nature et aussi de l’un par rapport à l’autre. »
Thomas Kuhn
Consensus Scientifique
Une théorie scientifique est donc bien plus qu’une simple spéculation abstraite griffonnée sur un coin de tableau. C’est une construction rigoureuse et une modélisation cohérente qui découle d’observations, d’hypothèses testables, d’expériences, d’analyses et de révisions. Il existe de nombreuses théories. Toutes n’ont pas le même statut car toutes n’en sont pas au même stade de développement. Ce n’est qu’après être passés par des années de mises à l’épreuve qu’elles deviennent des consensus scientifique fragiles, prêtes à être revue si des éléments nouveau venait à émerger !
La méthode scientifique, avec ses multiples étapes de vérification, constitue le processus le plus fiable que les scientifiques aient développé pour comprendre le monde et distinguer la connaissance de la croyance.
Il y a un peu plus d’un mois, le 1er octobre 2025, cette pionnière de l’observation des rapports entre humains et animaux nous quittait. Éthologue, primatologue et anthropologue, Jane Goodall est aussi connue pour son implication militante pour le climat et la nature.
« Ce que vous faites fait une différence, et il faut décider quel genre de différence vous voulez faire. »
Jubilee
Valerie Jane Morris-Goodall est née le 3 avril 1934, à Londres. Alors qu’elle est enfant, son père lui offre – comme une prémonition – un chimpanzé en peluche qu’elle décide de baptiser Jubilee.
Crédit : the Jane Goodall Institute
Déjà curieuse et passionnée par les animaux, elle passe, l’année de ses quatre ans, une journée entière tapie dans le poulailler de ses parents à tenter de répondre à une question qui la fascine : comment les poules pondent-elles des œufs ?
Jane est également une grande lectrice. Ses romans favoris ? Dr Doolittle, le Livre de la Jungle et surtout Tarzan… Elle plaisantera d’ailleurs souvent en disant que « Tarzan s’est trompé de Jane » ! Son rêve ? Partir en Afrique pour observer les animaux et tâcher de les comprendre.
Ce rêve se réalisera en 1957. En effet, quelques temps après ses études pour devenir secrétaire, une amie l’invite au Kenya. Elle ne le sait pas encore mais ce voyage, et surtout une rencontre qu’elle y fera, vont bouleverser sa vie.
Lorsque j’étais petite et que je rêvais d’aller en Afrique pour vivre parmi les animaux et écrire des livres à leur sujet, ma mère me répétait souvent : “Si tu souhaites quelque chose de tout ton cœur et mets tout en œuvre pour l’atteindre, sans relâche, tu trouveras invariablement un moyen d’accomplir ton rêve.
Louis Leakey
Arrivée à Nairobi, Jane rencontre Louis Leakey, un éminent paléontologue qui étudie les origines de la vie.
Louis est très vite impressionné par Jane. Elle est passionnée, observatrice, rigoureuse… S’il la recrute d’abord comme secrétaire, il voit très vite en elle un autre potentiel et lui propose alors une nouvelle mission : observer les chimpanzés dans leur habitat naturel, sans méthode, mais surtout, sans a priori.
Elle part alors au parc national de Gombe Stream, situé sur la rive tanzanienne du lac Tanganyika, près de Kigoma. Jane a 26 ans, elle n’a aucun bagage scientifique, mais possède une patience infinie, une paire de jumelles et un carnet. Ça semble peu de choses, mais ce sont pourtant les outils d’une véritable révolution scientifique.
David Greybeard
David Greybeard – Crédit : Jane Goodall Institute
Les premiers temps d’observation sont difficiles : Les chimpanzés s’enfuient en voyant Jane. Des mois vont s’écouler avant que les primates ne se laissent approcher. Quand ceux-ci finissent par s’habituer à la présence de Jane, elle leur donne alors des noms. Elle baptisera par exemple son sujet préféré David Greybeard, à cause des poils gris qui ornent son menton.
C’est en l’observant qu’elle va faire une première découverte : Les chimpanzés fabriquent et utilisent des outils, comme par exemple, des brindilles pour pêcher les termites. C’est une observation révolutionnaire qui brise l’idée que l’homme serait le seul à fabriquer et utiliser des outils.
Mais ce n’est pas tout, Jane observe également une structure sociale complexe chez ses sujets. Ils chassent en coopération, partagent la nourriture, et se font même la guerre pour des territoires. Les chimpanzés qu’elle observe font même preuve d’émotions, comme l’affection, l’empathie ou même le deuil.
« Il nous faut maintenant redéfinir l’Homme, redéfinir les outils, ou accepter que les chimpanzés soient humains. »
Louis Leakey
Elle publie ses travaux dans les revues Nature et National Geographic et devient alors une grande figure de la science et de la compassion animale. Fait rarissime en 1965, elle obtient un doctorat d’éthologie au Newnham College de l’université de Cambridge alors qu’elle n’a aucun diplôme préalable.
In the Shadow of Man
En 1971, Jane Goodall publie le livre In the Shadow of Man (les Chimpanzés et moi). Plus qu’un simple ouvrage scientifique ou qu’une simple autobiographie, ce livre redessine les contours de l’éthologie et de la primatologie.
Elle participe également à plusieurs documentaires de National Geographic réalisés par son premier mari Hugo van Lawick, ce qui la fera connaitre auprès du grand public.
Le Jane Goodall Institute
Au fil des années passées au Parc National de Gombe Stream, Jane tire un constat inquiétant : la forêt disparait peu à peu et les chimpanzés aussi, victimes de braconnage et du commerce illégal. Les populations locales s’appauvrissent également. Il est temps pour elle de passer à l’action et même à l’activisme pour protéger la nature. Elle crée en 1977 le Jane Goodall Institute, qui œuvre pour la recherche scientifique sur les grands singes, la préservation de leur habitat naturel et le développement durable des populations vivant à proximité de ces habitats.
Le moins que je puisse faire est de parler pour les centaines de chimpanzés qui, en ce moment même, sont assis courbés, misérables et sans espoir, regardant avec des yeux morts depuis leurs prisons métalliques. Ils ne peuvent pas parler pour eux-mêmes.
Biodiversité
Dans les années 90, Jane Goodall élargit son combat pour défendre l’ensemble du vivant et de notre planète. Elle prend position contre la déforestation, la surconsommation, l’agriculture industrielle et les énergies fossiles. Le Jane Goodall Institute va alors participer activement à la reforestation en Tanzanie et en RDC, à la formation de rangers pour lutter contre le braconnage et à l’éducation des populations locales.
“Il ne peut y avoir de conservation durable si les populations locales ne vivent pas dignement.”
Elle alerte sur le lien entre climat, biodiversité, déforestation et la crise écologique mondiale dans son livre The Book of Hope (Le cri de l’espoir) co-écrit avec Douglas Abrams. Pour elle, la clé du respect de la nature se trouve dans nos choix quotidiens : notre alimentation, notre consommation d’énergie, et notre consommation en général.
Barbie ?
Active jusqu’à son dernier souffle, Jane Goodall a laissé derrière elle un immense héritage philosophique. Elle a mis en place un programme Roots & Shoots, (racines et pousses) destiné à la sensibilisation et à l’action des jeunes pour la nature. Elle a inspiré des générations de scientifiques et d’écologistes. Elle a donné des centaines de conférences à travers le monde jusqu’à ses 90 ans.
Parmis toutes les distinctions qu’elle a reçues, on peut citer la médaille Hubbard, le prix Templeton, la Légion d’Honneur, le titre de Dame Commandeur de l’Empire Britannique… et peut être le plus inattendu : la société Mattel qui propose une poupée Barbie à son effigie !
Si le monde a perdu une grande scientifique, il a néanmoins gagné, grâce à elle, un héritage inestimable sur notre rapport à la nature et à la biosphère.
Aujourd’hui, on se penche sur la deuxième partie du dossier consacré au cerveau, qui va plus particulièrement traiter de son anatomie. Celle-ci étant particulièrement complexe, nous allons surtout voir les différents lobes qui composent notre encéphale et leurs fonctions principales.
Nous avons déjà vu que le cerveau est composé de deux hémisphères. Tous deux sont reliés par le corps calleux qui va en quelque sorte, servir de canal de communication entre ces deux hémisphères. Chacun de ces hémisphères est donc lui-même divisé en lobes, et chaque lobe occupe des fonctions précises.
Le lobe frontal
Comme son nom l’indique, le lobe frontal se situe à l’avant du cerveau. Il se trouve entre la scissure de Sylvius (sillon latéral) et celle de Rolando (sillon central). Il est en quelque sorte le grand patron du cerveau. Divisé en douze sous-régions, il gère le contrôle musculaire, la mémoire, le langage parlé, la créativité, la pensée critique, le raisonnement, l’inhibition, la résolution de problèmes, les émotions…
Lobe pariétal
Situé à l’arrière du lobe frontal, le lobe pariétal est délimité à l’avant par la scissure de Rolando et en bas par la scissure pariéto-occipitale. Sa fonction principale est la perception des stimuli et des informations sensorielles provenant du toucher. Il gère également le contrôle visuo-musculaire, la thermorégulation, la douleur, l’écriture et les mathématiques.
Lobe occipital
Le lobe occipital se trouve tout à l’arrière du cerveau, derrière la scissure pariéto-occipitale. Il traite surtout les informations visuelles envoyées par le nerf optique. C’est lui qui « reconnaît » les formes, la luminosité, les couleurs, les contrastes, les contours, etc. et qui les interprète.
Lobe temporal
Sous la scissure de Sylvius se retrouve le lobe temporal. Il interprète les signaux envoyés par le canal auditif, et donc, c’est également lui qui gère la compréhension du langage. C’est aussi lui qui garde précieusement vos souvenirs puisqu’il organise la mémoire, surtout celle à long terme.
Le cervelet (cerebellum)
Le cervelet ne fait pas à proprement parler du cerveau. C’est une partie de l’encéphale située à la base du cerveau. Son rôle est surtout moteur, il gère l’équilibre, la posture ou encore la coordination des mouvements. Il s’active, par exemple, quand vous effectuez un travail minutieux.
Le tronc cérébral
Le tronc cérébral assure le lien avec le reste du corps via la moelle épinière. Il régule la respiration, le rythme cardiaque, la pression artérielle, la transpiration et la déglutition. C’est aussi lui qui est responsable de votre état conscient, éveillé et vigilant. Il est lui-même constitué de trois sous-structures : le mésencéphale, la protubérance annulaire (Pont de Varole) et le bulbe rachidien.
Un travail d’équipe
Extrait du film « Vice-versa » – Pixar 2015
Dans le cerveau, personne ne joue perso. Aucun lobe ne fonctionne de manière parfaitement indépendante. Les informations sont constamment « mises en commun ».
Pour lire cet article par exemple, votre lobe occipital a réceptionné les informations visuelles et a interprété leurs formes comme des lettres et des mots. Le lobe temporal gauche leur a donné un sens linguistique. Le lobe pariétal a relié ce sens avec les mots stockés dans votre mémoire. Pour finir, le lobe frontal leur a donné un son, une prononciation, grâce à l’aire de Broca. C’est en partie de là que vient cette voix que vous entendez dans votre tête quand vous lisez un texte. Le cervelet a également joué un rôle dans les mouvements oculaires et ceux de votre main qui scrollait sur votre écran ou votre souris.
On se retrouve bientôt pour la troisième – et dernière – partie de ce dossier sur le cerveau, consacrée cette fois, au fonctionnement du cerveau.
Futura sciences vient d’annoncer, il y a quelques jours, sur son site le décès d’un de leurs piliers : l’astrophysicien Richard Taillet. C’est une tristesse d’apprendre cette nouvelle. Richard Taillet, c’est le prof de physique qu’on aurait tous aimé avoir : un prof passionné et donc, passionnant. Voici alors ce portrait comme un hommage.
De la Sarthe au Rhône
Richard Taillet est né en 1971 dans la Sarthe, département dans lequel il passera toute son enfance. Après son baccalauréat, il prend la route pour rejoindre Lyon et l’école normale sup’ (ENS) où il passe l’agrégation de physique et un DEA (Diplôme d’études approfondies) en physique théorique.
Il a alors 22 ans et se dirige avec enthousiasme vers un domaine de recherche précis : l’astrophysique des particules.
La Savoie
Il intègre alors le LAPTh, le Laboratoire d’Annecy-le-Vieux de physique théorique. C’est là qu’il va présenter en 1995 sa thèse en astrophysique. Il commencera pourtant dès 1994 à enseigner en tant qu’assistant moniteur normalien (AMN) et obtiendra la poste de maître de conférence en 1998 et donnera même dans les années 2000 quelques cours à l’ENS de Lyon, où il fût lui même élève.
Après sa thèse, il aura même la belle occasion de passer 16 mois à l’université de Berkeley, à quelques encablures de San Francisco. Il y exercera au CfPA (Center for Particle Astrophysics) où il ajoutera à son intérêt pour la matière noire, celui pour le rayonnement cosmique. C’est à son retour qu’il devient professeur à l’université de Savoie-Mont Blanc, rattaché au LAPTh.
LE prof
Richard Taillet a une véritable conception de ce que doit être l’enseignement de la physique. Un enseignement idéal pour lui équilibrerait trois volets :
– une partie « introduction à la physique », pour des élèves entrant à l’université (L1) ou n’ayant pas eu l’occasion de faire de la physique depuis longtemps (L3 pro, Licence professorat des écoles) ; – une partie « révision de la physique » pour des élèves préparant le concours du capes ; – une partie « physique approfondie », pour des élèves plus mûrs pour s’intéresser à des aspects plus formels et plus complexes de la physique. Il devrait aussi équilibrer la part respective des cours dits « magistraux », d’encadrement de travaux dirigés et de travaux pratiques. J’essaie de réaliser ces deux équilibres, dans la mesure où les contraintes organisationnelles le permettent.
Tous ses cours donnés à l’université de Savoie-Mont Blanc sont disponibles en ligne. Une mine d’or pour les élèves suivant un cursus de physique, ou simplement des passionnés qui voudraient réviser ou perfectionner leur compréhension de cette discipline. Un soin particulier au montage et à l’illustration est toujours donné dans ses vidéos. C’est un travail colossal qui vient compléter une préparation déjà exemplaire.
Oui, Richard Taillet, c’est ce prof qui vient en cours avec une guitare pour expliquer la physique des ondes. Il faut dire qu’il est musicien à ses heures perdues, ce qui se ressent également dans ses montages. C’est ce prof qui n’hésite pas à glisser un trait d’humour au milieu d’un cours complexe pour garder l’attention de sa classe. C’est ce prof qui s’assure avec bienveillance que tout le monde suit ce qu’il dit et qu’il ne laisse pas à la traine quelqu’un qui aurait raté une marche (si celui-ci cherche vraiment à comprendre !) Bref… Richard Taillet, c’était ce prof qu’on aurait tous voulu avoir.
« Là c’est un indice muet, si vous voulez l’appeler Goldorak ou Bart Simpson, ça marche aussi. Bon, mais généralement on met des lettres grecques.
Cours d’introduction à la relativité générale
Un vulgarisateur et médiateur scientifique
De 2011 à 2016, il intervient dans l’émission On est pas que des cobayes sur France 5 pour vulgariser la physique avec des sujets comme « Une plume peut-elle tomber aussi vite qu’un marteau ? » ou encore « Peut-on sauter d’un train comme dans les films ? ».
Il propose aussi un rendez-vous de vulgarisation sur sa chaine youtube : le quart d’heure insolite où il va traiter différents sujets comme « la physique du film Interstellar », « Illusions relativistes » ou encore les « Paradoxes de l’astronautique ».
Il va également collaborer longuement avec le site de culture scientifique Futura Sciences comme modérateur de forum, puis comme rédacteur de deux dossiers, l’un sur la matière noire et l’autre sur l’antimatière.
Il a aussi été invité en 2009 par le Centre de Culture Scientifique, Technique et Industriel La Turbine comme scientifique résidence, à l’occasion de l’année mondiale de l’astronomie. Au cours de l’année ont eu lieu des projections commentées de films de science-fiction, des randonnées astro, des conférences…
Il avait alors consacré beaucoup de son temps pour répondre aux questions des internautes et lutter contre la pseudo-science dans les parties du forum consacrées à la physique et l’astrophysique.
Laurent Sacco, Futura Sciences
Habilitation à Diriger des Recherches
En 2010 et 2011, il présente – sous la direction de Pierre Salati – un mémoire d’habilitation à diriger des recherches (que vous pouvez trouver ici), son titre : Matière noire et rayons cosmiques galactiques. Richard Taillet y présente une synthèse de ses quinze années de recherche au LAPTh sur ces sujets. Dans l’avant-propos de ce mémoire, il n’oublie pas de souligner l’importance qu’a pour lui la médiation scientifique :
Je crois profondément qu’une des missions de la recherche est de faire partager notre travail et de le présenter au grand public, qu’il s’agisse de résultats, de motivations ou de la méthode scientifique elle-même.
Ce mémoire se divise en quatre grands chapitres : La matière noire, les rayons cosmiques, les sources de ces rayons et enfin son métier d’enseignant. Tâchons de comprendre – un peu – ces deux grands sujets que sont la matière noire et les rayons cosmiques.
photo : USMB
La matière noire
Quand on veut mesurer la masse d’une galaxie, deux méthodes s’offrent à nous. Soit on mesure la quantité de lumière émise par ladite galaxie : cette quantité de lumière en fonction de la distance de la galaxie nous permet de calculer avec une assez bonne précision la masse de la galaxie.
Deuxième méthode, on observe la rotation de la galaxie. Pour faire simple (et un peu approximatif): le moment cinétique d’un corpsest lié à sa masse et de fait, à la gravitation. La façon que va avoir une galaxie de tourner sur elle même va nous donner des informations sur sa masse et sur la façon dont elle interagit avec la force gravitationnelle.
Quand une roue tourne, un point proche du centre (A) de cette roue ne tourne que très peu (d1), alors qu’un point situé sur le pneu (B) va parcourir une distance plus grande (d2). Pourtant les deux points décrivent un arc intercepté par le même angle (θ)
Une galaxie n’étant pas un corps rigide comme une roue, c’est un peu différent, mais le principe est le même : on s’attend à ce que, pour une certaine masse, les étoiles situées en périphérie et celles plus centrales aient certaines vitesses selon leur interaction avec la gravitation. Seulement ce n’est pas ce qu’on observe.
Sur ce graphique qui montre la vitesse des étoiles d’une galaxie en fonction de leur distance au centre, on voit que la courbe A, qui prédit le mouvement à partir de la masse calculée avec la première méthode (quantité de lumière), et totalement décorrélée – dès qu’on s’éloigne du centre – de la courbe réellement observée (courbe B).
Les étoiles situées sur l’extérieur des galaxies tournent « trop vite ». Elle tournent aussi vite que si les galaxies étaient 5 à 6 fois plus massives que ce que la quantité de lumière qu’elles émettent le suggèrent.
Quelle interprétation physique peut on faire de cette observation ? Qu’il existe une forme de matière sensible à la gravitation mais pas à la lumière : La matière noire. Elle représente plus d’un quart de la masse de l’univers et nous n’en savons presque rien. De quoi est-elle composée ? Aucune idée définitive, juste quelques hypothèses. Parmi ces hypothèses, par exemple les WIMPs : Weakly Interacting Massive Particle (Particule massive interagissant faiblement). Des particules d’une forme de matière inconnue à ce jour.
Mais d’autre possibilité sont envisagée, comme par exemple, de la matière tout à fait ordinaire mais qui rayonne peu, comme, par exemple, des naines brunes. Comment savoir alors ? En étudiant les rayons cosmiques !
Mon activité se partage donc entre l’enseignement de la physique à l’Université et la recherche en astrophysique des particules au LAPTh. Plus qu’une division dans mon travail, je vis cette ambivalence comme une richesse à laquelle je tiens énormément.
Carte de la répartition de la matière noire. Les points brillants représente de fortes concentration : c’est là que se forment les galaxies.
Les rayons cosmiques
Rayons gamma autour d’un pulsar – illustration Science Photo Library / Fermi LAT Collaboration / DOE / NASA
Dans l’univers, plein de corps émettent en permanence du rayonnement sous forme de particules très rapides. Photons, protons, neutrinos, ions lourds… la liste est longue. A chaque seconde, par exemple, 100 000 000 neutrinos traversent 1cm2 de votre corps à une vitesse proche de celle de la lumière. Mais ceux-ci interagissent très peu avec la matière, alors vous ne vous rendez compte de rien.
D’autres particules plus lourdes, en revanche, feraient de sacrés dégâts si elles nous traversaient à cette vitesse. Anatoli Bougorski en a fait – par accident – l’expérience en 1978. Son crâne a été traversé par un faisceau de protons alors qu’il était dans un accélérateur de particules, il a miraculeusement survécu mais les séquelles de cet évènement se lisent encore sur la partie droite de son visage.
On ignore encore beaucoup de choses sur la plupart de ces rayonnements, notamment l’origine de nombre d’entre eux. Ceux-ci sont souvent très compliqués à détecter et donc à étudier. Mais alors pourquoi vouloir les étudier ?
Car les rayons cosmiques sont des messagers. Tout comme la lumière visible nous renseigne sur l’objet que l’on voit, les rayons invisibles transmettent avec eux tout un tas d’informations sur l’univers. Comprendre ces rayons pourrait nous amener à mieux comprendre l’univers.
C’est là que les deux champs de recherche de Richard Taillet se rejoignent. Si la matière noire émet du rayonnement, des particules donc, et si nous arrivons à les détecter – quelles qu’elles soient – alors nous pourrons mieux comprendre ce qu’est cette matière noire et de quoi elle se compose.
Je suis actuellement en délégation CNRS au LPNHE (Laboratoire de Physique Nucléaire des des Hautes Énergies) à Jussieu […] Dans ce cadre, je travaille actuellement au sein de la collaboration SNLS qui observe des supernovae lointaines au télescope CFHT (Canada-France Hawaii Telescope) situé à Hawaii, ce qui me permet de connaître davantage les milieux de la physique expérimentale et de l’astronomie observationnelle.
Printemps 2025
Au mois de mai 2025, un cancer du pancréas lui est diagnostiqué. Celui-ci est fulgurant. Richard Taillet meurt le 6 juillet, à seulement 54 ans, laissant une grande tristesse auprès de sa famille, ses amis, ses collaborateurs et ses étudiants.
Je ne l’ai pas connu. Je devais m’inscrire à sa formation en épistémologie pour la rentrée prochaine. Mais j’avais suivi religieusement tous les cours qu’il a mis en ligne, devant mon écran, un bloc-note et un stylo dans les mains, prêt à apprendre de nouvelles choses à chaque « épisode » que je « binge watchais » comme on regarde un série addictive sur une plateforme.
Je n’étais pas son élève à proprement parler, mais d’une certaine façon, c’était mon professeur.
Je me joins à l’émotion suscitée par cette nouvelle et j’ai une pensée pour sa compagne Laurence Perotto et pour tous ses proches.
Parmi les sujets urgents à transmettre au public non scientifique, il en est un qui est probablement en haut de la pile : le changement climatique. C’est un phénomène complexe à bien saisir. En plus des implications humaines et sociétales, il faut des notions de physique, de chimie, de biologie ou même d’histoire pour vraiment cerner le fond du problème. Aujourd’hui, on va essayer de comprendre ce qui se passe avec notre planète.
Un système thermodynamique
La première chose à comprendre, c’est l’échange de rayonnement et d’énergie entre le Soleil et la Terre, ce qui veut dire reprendre quelques bases de thermodynamique. Notre soleil émet du rayonnement sous forme de lumière visible, donc de photons. Aussi contre-intuitif que cela puisse paraître, sa température de surface aux alentours de 5700° K nous indique qu’il émet majoritairement du rayonnement de couleur verte (hé oui !), avec un pic à une longueur d’onde (λ) d’environ 500 nm, soit une fréquence d’environ 6 x 1014 Hz.
On peut alors déduire que l’énergie d’un photon reçu par la Terre est d’environ 4.10-19 Joules. Gardons cette valeur en tête.
Détail mathématique : Relation de Planck-Einstein
En utilisant la relation de Planck-Einstein, on peut calculer l’énergie reçue pour 1 photon :
E= hf
E est l’énergie h est la constante de Planck, qui vaut environ 6,626 × 10−34Joules/Seconde f est la fréquence du rayonnement en Hertz.
L’Énergie est donc de E = 6,626.10-34 x 6 x 1014 Hz E ≃ 4.10-19 Joules
Le système Terre-Soleil pouvant être considéré comme un système isolé, il doit alors respecter – entre autres – les deux premiers principes de la thermodynamique, à savoir que l’énergie globale du système doit être conservée, mais qu’elle doit aussi se disperser de façon à ce que l’entropie soit positive.
La terre va donc à son tour réémettre un rayonnement sous forme de photons, mais qui lui se fera dans l’infrarouge. Ce rayonnement connait un pic autour des longueurs d’onde de 10 μm, soit une fréquence de 3.1013 Hz. On trouve alors, pour chaque photon émis une énergie de 2.10-20 Joules. C’est à dire 20 fois moins que l’énergie d’un photon reçu !
Détail mathématique : Relation de Planck-Einstein
On reprend la même formule que précédemment
E = hf E = 6,662.10-34 x 3.1013 E ≃ 2.10-20 Joules
La terre va donc devoir émettre 20 photons infrarouges pour 1 photon « vert » reçu, pour que le premier principe soit respecté. L’énergie va donc être fortement dispersée ou, pour le dire autrement, l’entropie va devenir colossale; le second principe est alors également respecté. On va voir que cela va avoir un importance considérable.
Entropie et apparition de la vie
L’entropie doit être globalement positive (ou nulle) pour un système isolé (dS ≥ 0). Le système Terre/Soleil, nous venons de le voir, a une entropie gigantesque, mais cela n’interdit pas, ponctuellement, à l’entropie d’avoir des valeurs positives. Au contraire, l’entropie positive globale compense largement ces fluctuations négatives ponctuelles. Et c’est précisément ce que l’on constate à la surface de la Terre.
En effet, par endroits, l’entropie a des valeurs négatives (dS ≤ 0). On parle alors de néguentropie (ou entropie négative). Mais comment interpréter ce phénomène ? Cela voudrait dire que l’énergie, au lieu de se disperser, se concentre ? Que des systèmes s’organisent spontanément ?
Précisément. C’est ce qui se passe. Et si en physique on parle de système qui s’organise spontanément, en biologie, on donne à ce phénomène un autre nom : la vie.
L’apparition de la vie sur Terre est, en effet, due à ce fragile équilibre thermodynamique entre la Terre et son étoile. Et nous allons voir que pour préserver cette vie, il va falloir prendre soin de cet équilibre.
L’effet de serre
Notre Lune est située, en moyenne, à la même distance du Soleil que la Terre, soit 1 UA. Sa température moyenne de surface est d’environ -20°C. La température moyenne de la Terre, en revanche, se situe plutôt autour des 15°C. Ce qui semble indiquer que la distance et les échanges thermiques avec le Soleil ne suffisent pas à expliquer la température de la Terre. Quelque chose d’autre doit intervenir.
Ce « quelque chose » c’est notre atmosphère. Elle est composée à 99% de diazote (N2) et de dioxygène (O2). Autrement dit, c’est l’air que nous respirons. Dans le 1% restant, on trouve – entre autres – des gaz à effet de serre. Je ne vais ici en nommer que deux : la vapeur d’eau (H20) (en gros, l’humidité de l’air) et le dioxyde de carbone (C02).
Mais qu’est-ce qui fait qu’un gaz est un gaz à effet de serre ou non?
Ce sont ses liaisons chimiques. Principalement, ce sont les liaisons O-H (oxygène-hydrogène) et C=O (carbone=oxygène) qui vont vibrer comme un ressort avec l’onde infrarouge et modifier la séparation entre les charges positives et négatives de la molécule, créant un moment dipolaire. C’est ça qui va retenir une partie du rayonnement (on parle d’absorbance) et en rejeter une autre partie vers l’espace (on parle de transmittance).
On voit que dans les molécules de diazote (N≡N) et de dioxygène (O=O) il n’y a pas de liaison O-H ni C=O. En revanche, la vapeur d’eau (O-H-O) a deux liaisons O-H et le dioxyde de carbone (O=C=O) possède deux liaisons C=O. Ce sont donc bien des gaz à effet de serre.
Spectroscopie infrarouge de l’eau
On voit sur le schéma ci-dessus, qui décrit la transmittance de l’eau en fonction de la longueur d’onde, qu’autour de nos fameux 10 μm, il y a des zones où la vapeur retient le rayonnement infrarouge dans l’atmosphère, et donc également, sa chaleur. C’est l’effet de serre « normal » qui permet à notre planète de disposer de températures favorables au maintien et au développement de la vie – autour de 15°C en moyenne.
La concentration de l’atmosphère en vapeur d’eau a en plus la merveilleuse propriété de s’auto-réguler grâce aux pluies et aux océans qui absorbent l’excédent d’humidité, mais nous allons voir qu’il y a un « mais »…
Ce que j’appelle plus haut « effet de serre normal » est l’effet de serre tel qu’on l’a connu à peu près jusqu’à la révolution industrielle, vers la fin du XVIIIème siècle. Car c’est à ce moment que tout à commencé à basculer.
Eunice Foote et John Tyndall
En 1856, Eunice Foote – née Newton (lointaine parente d’un certain Isaac) et 3 ans plus tard, John Tyndall vont être les premiers à théoriser l’effet de serre en observant comment la température de la vapeur d’eau et du dioxyde de carbone réagissent à la lumière du Soleil.
« L’atmosphère laisse entrer la chaleur solaire mais en contrôle la sortie, ce qui tend à l’accumuler à la surface de la planète »
John Tyndall
Ce qui est le plus étonnant dans leur découverte conjointe, c’est qu’une concentration infime de ces gaz à effet de serre dans notre atmosphère semble suffire à avoir des conséquence notables. Par exemple, au moment de leur découverte, la concentration de CO2 dans l’atmosphère est inférieure à 300 ppm. Les « ppm » sont des « parts par million ». 1 ppm est alors équivalent à 0.0001%, et 300 ppm représentent donc une concentration de 0,03 %. Cela peut sembler dérisoire… et pourtant !
Svante Arrhenius, le prophète
En 1896, Svante Arrhenius, chimiste suédois, montre que la combustion de matières fossiles comme le pétrole ou le charbon pourrait produire une concentration suffisante de CO2 dans l’atmosphère pour générer un effet de serre (hot-house effect), délétère pour la vie sur Terre. Malheureusement, le processus est déjà enclenché. La révolution industrielle bat son plein et les énergies fossiles commencent à être largement exploitées…
La révolution industrielle
A la fin du XVIIIème siècle et surtout au début du XIXème siècle, la société alors majoritairement agricole va peu à peu glisser vers une production mécanisée. L’amélioration de la machine à vapeur par James Watt transforme le monde. Mais celle-ci s’alimente au charbon et, nous l’avons vu, le charbon, quand il brûle, rejette énormément de CO2. Les taux de CO2 dans l’atmosphère qui jusqu’alors se confinaient autour des 280 ppm s’envolent de façon exponentielle à partir des années 1850 pour atteindre la valeur de 426 ppm en 2025.
En observant les cernes des arbres et des carottes de glace, on peut remonter le film de notre atmosphère très loin et dresser alors un graphique inquiétant de la concentration en CO2 dans l’atmosphère depuis l’antiquité :
Le verdict est sans appel, l’humanité est en train d’émettre suffisamment de dioxyde de carbone dans l’atmosphère pour courir à sa propre perte. Les niveaux atteints ces dernières années – malgré les rappels des nombreux scientifiques du GIEC – montent les curseurs de température : 1,5°C de plus qu’à l’ère agricole. Pour maintenir ce réchauffement sous la barre des 2° C, il faudrait réduire nos émissions de gaz à effet de serre de 80%. C’est déjà colossal et cela pose d’autres problèmes conséquents.
Un réchauffement qui s’auto-alimente
Plus la Terre se réchauffe… plus la Terre se réchauffera !
D’une part, l’augmentation des températures va entrainer une fonte des glaces et des neiges polaires. Or la neige a un indice albedo très élevé (0,9), ce qui veut dire qu’elle reflète 90% de la lumière qu’elle reçoit, et donc 90% du rayonnement solaire. Mais si la neige fond à cause du réchauffement, elle renvoie moins de rayonnement, et le serpent du réchauffement se mord la queue.
D’autre part, plus inquiétant encore et trop souvent oublié, nous avons vu tout à l’heure que la concentration de vapeur d’eau dans l’atmosphère – l’humidité – se stabilise d’elle même et qu’elle ne pouvait dépasser un certain seuil. Sauf si… on augmente la température de l’atmosphère. Une atmosphère chaude peut contenir plus d’humidité, et donc plus de vapeur d’eau, ce qui amplifie encore l’effet de serre. Mais, ce n’est pas le pire…
Science Photo Library / Jensen, Mikkel Juul
L’indice Humidex
L’indice humidex est plutôt utilisé au Canada et donne une idée de la température ressentie en prenant en compte la température réelle et le taux d’humidité. L’indice exprime cette température ressentie en °C.
On voit par exemple sur ce tableau qu’à une température 33°C et à 70% d’humidité, le corps humain subit les même contraintes qu’à 47°C ! En effet, quand il fait chaud, nous transpirons pour refroidir notre corps. Mais plus l’air va être humide, moins notre transpiration sera efficace et moins nous maintiendrons notre corps à 37°C.
Carte humidex, juillet 2024, source : meteociel.fr On peut y voir un maximum de 52°C ressentis à Lacanau.
Les conséquences ?
Pour les humains et les êtres vivants : une hyperthermie qui affectera les populations les plus fragiles, allant du coup de chaud jusqu’au risque de décès.
Pour les écosystèmes : prolifération de maladies, d’algues, de champignons, dérèglement des cycles biogéochimiques (cycles du carbone et de l’azote), sécheresses, récoltes perdues, famines, etc.
Vénus et la Terre
En guise de conclusion, je voudrais vous parler à nouveau de la planète Vénus. Vénus est plus éloignée du Soleil que Mercure. Pourtant, sa température moyenne est de 465°C, contre « seulement » 180°C pour Mercure.
Qu’est-ce qui augmente autant la température de Vénus ? Son effet de serre dû à une atmosphère principalement composée de CO2. Ce dioxyde de carbone provient des roches carbonées de Vénus qui ont subi un réchauffement climatique et ont été libérées.
Il y a autant de dioxyde de carbone dans l’atmosphère de Vénus qu’il n’y en a emprisonné dans les roches carbonées terrestres ! Le destin climatique de Vénus pourrait bien un jour être le nôtre si nous ne faisons rien pour stopper nos émissions de gaz à effet de serre.
« La possibilité d’un emballement de l’effet de serre doit nous inciter à la prudence. Une simple augmentation d’un ou deux degrés de la température mondiale peut avoir des conséquences catastrophiques »
Carl Sagan
Cette phrase date de 1980. En 2025, nous sommes entre ces « un ou deux degrés » et la catastrophe est amorcée. Nous pouvons encore agir, et nous le devons.
L’effet Matilda est l’attribution de la paternité d’une découverte – souvent scientifique, mais pas uniquement – à un ou plusieurs hommes alors que la maternité de celle-ci devrait revenir à une femme. Celle dont on va parler aujourd’hui a tristement subi cet effet jusqu’après sa mort. Il aura en effet fallut presque 50 ans pour que Rosalind Franklin, biologiste moléculaire, se voie attribuer pleinement sa plus grande découverte : la structure hélicoïdale de l’ADN.
Notting Hill
Rosalind Elsie Franklin nait le 25 juillet 1920 à Notting Hill, un quartier de Londres, dans une riche famille juive. Son père, Arthur, est un banquier d’affaires, et sa mère, Muriel, s’occupe seule de ses 5 enfants.
Elle entre en 1931 au St Paul’s Girls’ School, collège privé qui fait partie des rares « écoles pour filles » à enseigner la physique et la chimie, matières ou Rosalind va exceller. En 1938, elle obtient l’équivalent d’un baccalauréat ainsi qu’une bourse universitaire.
Cambridge
Face à la montée du nazisme, son père va recueillir des réfugiés juifs et Rosalind cèdera sa bourse à l’un d’eux. Elle intègrera malgré tout le Newnham College de l’université de Cambridge où elle passera son bachelor de chimie.
Dans les années 40, elle participe à l’effort de guerre en rejoignant le British Coal Utilisation Research Association où elle travaillera sur les propriétés du charbon, ce qui aura de nombreuses applications militaires et industrielles : Masques à gaz, carburant, filtres à eau… Elle obtient en 1945 son doctorat en présentant, justement, une thèse sur le sujet : « The physical chemistry of solid organic colloids with special reference to coal ». (La chimie physique des colloïdes organiques solides avec une référence particulière au charbon)
Paris
Une fois la guerre finie, elle rejoint Adrienne Weill, une amie de Cambridge, partie vivre a Paris. Elle entre au CNRS (centre national de la recherche scientifique), et va intégrer le Laboratoire central des services chimiques de la ville. Au côtés de Jacques Mering, elle apprend la cristallographie aux rayons X, qu’elle applique dans un premier temps à ses travaux sur le charbon. Elle approfondi notamment la structure atomique du charbon quand il se transforme en graphite.
La structure de l’ADN
En1950, Rosalind retourne à Londres sur invitation de John Randall. Il décide de créer au King’s college un laboratoire de diffraction des rayons X, domaine où elle est désormais experte. Elle commence à y travailler dès 1951, et rejoint une équipe composée Maurice Wilkins et Raymond Gosling qui sera son élève.
L’équipe va se pencher sur le sujet de l’ADN. Rosalind, apportant son expertise, leur permet de faire de grandes avancées. En mai 1952, ils parviennent à prendre une photo restée célèbre sous le nom de cliché 51.
Le célèbre cliché 51 montrant la structure de l’ADN.
Sur cette image, on peut voire la structure hélicoïdale de l’ADN. C’est une – double – révolution. Rosalind commence alors à écrire des articles pour présenter la découverte en 1953. Mais tout ne va pas se passer comme prévu…
Effet Matilda et prix Nobel
Dans les années 80, Margaret Rossiter, une historienne des sciences théorise l’effet Matilda – Hommage à l’essayiste féministe du XIXème siècle, Matilda Joslyn Gage – effet qui montre comment les hommes s’accaparent la pensée intellectuelle des femmes, ainsi que leurs découvertes scientifiques.
Margaret Rossiter
Rosalind Franklin est – Avec Lise Meitner dont on a déjà parlé, par exemple – un des cas les plus injustes de cet effet. Pendant ses recherches, des tensions apparaissent avec avec Maurice Wilkins, et il continue alors à travailler seul sur l’ADN. En parallèle, une deuxième équipe travaille sur le sujet, une équipe purement masculine composée de James Watson et Francis Crick, qui eux, travaillent à Cambridge.
En 1953, Rosalind quitte le King’s college pour aller au Birckbeck College. Mais le résultat de ses recherches lui, reste au King’s college, ordre de Randall. Il exigera également que Wilkins partage toutes les données de leurs recherches – dont le cliché 51 – avec Watson et Crick, et les trois hommes vont alors collaborer et partager avant Rosalind leurs travaux dans la revue Nature, en mentionnant à peine ses apports fondamentaux.
Nous avons été stimulés par une connaissance de la nature générale des résultats expérimentaux et des idées non publiées du Dr M.H.E Wilkins, du Dr R.E. Franklin et de leurs collaborateurs au King’s College, Londres.
Voila tout ce qu’ils en diront dans leur article. Ils obtiendront tous les trois le prix Nobel de médecine en 1962. Franklin ne sera même pas citée dans leurs discours. Il faudra attendre 2003 pour que Watson, et uniquement lui, reconnaisse l’importance de la découverte de Franklin.
Les autres se dédouaneront en invoquant le règlement du prix Nobel qui ne peut être remis à titre posthume… ce qui est vrai… depuis 1974 ! Ça ne l’était donc pas en 1962.
Chelsea
En 1956, on diagnostique un cancer de l’ovaire à Rosalind, probablement lié à son exposition répétée aux rayons X et à une prédisposition des populations juives ashkénaze à ce type de cancers.
Elle meurt deux ans plus tard, seulement âgée de 38 ans, à Chelsea.
Il faudra attendre les années 2000 pour que son travail soit enfin pleinement reconnu. Un prix Rosalind Franklin sera notamment créé par la Royal Society, et un rover envoyé sur Mars en 2022, portera également son nom.
Il aura fallu tant d’années pour que son nom dépasse enfin les frontières même ne notre monde, ce qui est bien la moindre des choses pour un si grand apport à la science.
On se retrouve très vite pour un nouveau portrait ! A bientôt les Inphinautes !
Le cerveau est un organe un complexe, peut être le plus complexe de notre corps. Je vais donc découper son exploration en plusieurs chapitres afin de limiter la densité d’informations reçue. Mais avant de détailler le fonctionnement du cerveau, il est important de commencer par déconstruire ce qu’on appelle les neuromythes.
Les neuromythes sont des idées reçues, fausses – ou en tout cas non recevables d’un point de vue scientifique – et très répandues au sujet du cerveau. Il en existe de nombreux, mais je vais ici traiter quelques un des plus courants.
Nous n’utilisons que 10% de notre cerveau
L’idée ne date pas d’hier, mais elle circule encore de nos jours jusqu’au cinéma ou dans la littérature de science-fiction : Nous n’utiliserions que 10% de notre cerveau. Pour certains ce mythe serait né d’Einstein qui aurait déclaré n’utiliser que 10% de son cerveau, pour d’autres c’est William James, un médecin et psychologue de la fin du XIXème siècle qui aurait popularisé ce mythe.
Mais la version la plus probable est que cette légende découle d’une mauvaise interprétation de Karl Lashley, un neuropsychologue, qui l’aurait exprimée dans les années 30.
Quelle qu’en soit l’origine, ce mythe a la peau dure. Déjà dans la culture populaire comme nous l’avons vu, mais aussi parce qu’il est récupéré par les mouvements new age qui trouve dans cette légende de quoi abreuver leurs idées : d’après certains de ses « gurus » si nous pouvions utiliser un pourcentage plus élevé de nos capacités cérébrales, nous pourrions débloquer nos capacités de télépathie, de télékinésie, de voyance…
Il n’est pas du ressort de la science de dire si la télépathie ou la télékinésie existent bel et bien. Mais il est du ressort de la science de dire que si c’était le cas – après tout la science ne sait pas tout – ça n’aurait en tout cas rien à voir avec le cerveau et ce mythe des 10%.
On retrouve également cette idée, de façon humoristique dans cette série de mèmes – que j’adapte pour l’occasion :
Plus sérieusement, nous utilisons bien 100% de notre cerveau. Contrairement à ce que pensais Karl Lashley, notre cerveau n’est pas une masse indifférenciée. Il est divisé en zones – lobe frontal, temporal, occipital, cervelet… nous détaillerons cela dans l’article 2 – qui ont chacune des fonctions dédiées et qui travaillent ensemble à recevoir et traiter les stimuli reçus par le système nerveux, et à envoyer de l’information à notre corps via ce même système nerveux.
Bien que ce mythe ait été disqualifié quelques années plus tard, il était trop tard, l’idée s’était ancrée dans l’imaginaire collectif, et il est désormais très difficile de la déloger.
Êtes vous cerveau « gauche » ou « droit »
Vous êtes rêveur, créatifs et imaginatif ? Vous êtes cerveau « droit ». Vous êtes matheux, logique et pragmatiques ? Vous êtes cerveau « gauche ». C’est faux.
S’il est vrai que notre cerveau est latéralisé, que les fonctions plus pragmatiques se trouvent à gauche et que les émotions dépendent plutôt de l’hémisphère droit, rien ne permet d’affirmer qu’un hémisphère puisse prendre l’ascendant sur l’autre.
Les deux côtés de votre cerveau travaillent également mais dans la main, et votre personnalité n’est en rien affectée par la latéralisation de votre cerveau. Vos affinités avec les arts ou les disciplines logiques dépendent en réalité plus de votre éducation, de vos goûts, de votre culture bref… de votre acquis et non pas de votre inné.
Tout se joue dans la petite enfance
Vous lirez tantôt que, question apprentissage, tout se joue avant 3 ans, tantôt que tout se joue entre 3 et 6 ans. Dans les deux cas, c’est faux, bien sûr. Ça ne sert à rien de sur-stimuler votre enfant dans son landau ans pour être sûr qu’il apprenne bien !
Si on voit effectivement un pic de connexions neuronales – nous détaillerons ce que sont des connexions neuronales dans le 3ème article de cette série sur le cerveau – se créer aux alentours de 2 ans, cela ne signifie pas que le destin cognitif de votre enfant est scellé, rassurez vous. Le cerveau possède une caractéristique merveilleuse : la plasticité. Il est incroyablement capable de se modifier en permanence et de créer des connexions tout au long de notre vie. C’est même sa principale caractéristique.
Évidemment, cette plasticité diminue avec l’âge, et il est quand même plus simple d’apprendre durant l’enfance et l’adolescence. Mais il reste tout à fait possible de continuer à apprendre des tas de choses même à l’âge adulte… En lisant ce blog, par exemple !
Écouter Mozart rend intelligent
S’il suffisait d’écouter la Sonate pour deux pianos en Ré majeur en boucle pour gagner une dizaine de points de QI, l’astuce serait probablement éventée depuis longtemps…
C’est pourtant la conclusion d’une étude de Frances Rauscher parue dans la revue Nature, en 1993. Les participants ayant écouté cette sonate en particulier auraient eu des meilleurs résultats dans la catégorie « raisonnement spatial » d’un test de QI.
En 1998, Don Campbell, auteur de plusieurs ouvrages de musicothérapie, lui même dans une mouvance new age, publie un livre : « l’effet Mozart » dans lequel il reprend les résultats de cette étude et les popularise, surtout auprès de la population américaine. La même année, Zell Miller, gouverneur de Géorgie propose même de débloquer 100 000 $ pour que chaque nouveau né de l’état reçoive un disque de Mozart.
Mais dans son étude Frances Rauscher ne dit pas formellement que l’écoute de Mozart rend plus intelligent. Juste que la perception spatiale des participant semble légèrement plus développée après l’écoute de la sonate, et que de surcroit cet effet semble temporaire.
Le protocole expérimental a depuis été réitéré plusieurs fois sans que « l’effet Mozart » ne soit détecté. Des chercheurs viennois ont étudié les résultats de toutes les études, et n’ont trouvé aucun résultat probant ailleurs que dans les données de Rauscher. Ce qui nous montre aussi qu’une étude scientifique n’a pas valeur de vérité, et qu’il faut prendre les articles aux titres sensationnalistes avec des pincettes.
En revanche, quelques études – encore embryonnaires – notamment en 2020 en Italie, semblent montrer que la musique de Mozart pourrait avoir des effet positifs sur des patients épileptiques. Mais l’échantillon est encore trop faible pour en tirer plus de conclusions.
Il existe 7 types d’intelligences
Voir 8, voir même 10… bref : Il existerait des intelligences multiples. Linguistique, spatiale, logico-mathématique, spirituelle, kinesthésique… Et bien sûr, comme pour la latéralisation, chacun aurait une forme d’intelligence plus prononcée que les autres, ce qui modèlerait son caractère ou ses prédispositions. Ce mythe est un peu plus subtil.
L’idée nait en 1983 du psychologue américain Howard Gardner, professeur de psychologie à Harvard, ce qui fait plutôt sérieux ! Il publie un livre, rames of Mind : the Theory of Multiple Intelligence, dans lequel il défini ces différents types d’intelligences. Son idée rencontre un franc succès dès la sortie du livre et elle se propage comme une trainée de poudre en quelques années à peine, surtout dans les milieux éducatifs. L’idée séduit tellement que certains vont se pencher sur un refonte des programmes scolaires et même des test de QI, car tout cela semble devenir caduc. L’échec scolaire va même commencer à être vu sous un autre angle, et une remise en cause de ce qui est considéré comme « réussite » apparaît – ce qui pour le coup, est plutôt une bonne chose.
Seulement voilà, la théorie de Gardner ne satisfait pas les critères scientifiques et épistémologiques. Selon Karl Popper – Dont on parlera en long, en large et en travers sur ce site, croyez moi – elle n’est pas recevable car elle ne peut pas être testée, dans son jargon : elle n’est pas falsifiable. Et surtout elle n’est pas compatible avec le reste du paradigme des neurosciences.
Gardner rétropédalera lui même quelques années après et parlera de « talents » plutôt que d’intelligences. Toutefois, ce neuromythe est un peu différent des autres, et il est nécessaire de le traiter avec plus de nuance que les autres.
En effet, en 1904, Charles Spearman avait défini ce qu’il appelle un facteur g, une intelligence générale qui permet d’aborder les problème dans leur globalité. Pour faire simple, c’est cette intelligence qui est mesuré lors d’un test de QI. Or ce facteur g, s’il prédomine sur notre vision des sciences cognitives ne fait pas non plus consensus, et il est lui aussi vivement débattu et remis en cause.
Pour l’instant donc, le modèle de test de QI standard reste la norme, ainsi que le système scolaire tel qu’on le connait. Mais cela pourrait changer à plus ou moins long terme.
Conclusion
L’étude de ces quelques neuromythes nous montre que notre cerveau est un objet d’étude qui nous échappe encore. Si on sait – à peu près – ce qui est faux à son sujet, on est encore loin de tout savoir à son sujet et au sujet de notre intelligence et de nos capacités cognitives en général. Les neuromythes ne sont pas que de vilaines théories à remiser au placard, mais aussi et avant tout des objets à étudier et à comprendre sous un angle épistémologique.
On se retrouve très vite pour un nouveau chapitre ou on explorera cette fois l’anatomie et la fonction de chaque zone de notre cerveau.
Le XIXème siècle voit naître de nouvelles branches de la physique, dont une qui nous intéresse ici : la thermodynamique. Le XXème siècle, lui aussi, verra naître de nouvelles branches de la physique, dont une : la physique quantique. S’il n’est à l’origine d’aucune de ces deux branches, celui dont on va parler aujourd’hui, Ludwig Eduard Boltzmann, est néanmoins celui qui va amorcer le lien entre ces deux champs en proposant son œuvre majeure : La physique statistique.
Entre le mardi-gras et le mercredi des cendres.
Boltzmann plaisante souvent à ce sujet : il est né dans la nuit du 19 au 20 février 1844, entre le mardi-gras et le mercredi des cendres. Voilà où il place la cause – selon ses propres blagues – de la bipolarité avec laquelle il luttera tout au long de sa vie. Il naît à Vienne, d’un père fonctionnaire des impôts et d’une mère issue d’une riche famille de commerçants de Salzbourg. Il suit une scolarité exemplaire et passe une jeunesse somme toute tranquille… jusqu’à la mort de son père en 1859, alors qu’il a 15 ans, puis celle de son frère Albert des suites de la tuberculose, 4 ans plus tard, l’année de son baccalauréat. Très affecté par cet événement, il obtient néanmoins son diplôme avec la mention « très bien ». Mais sa santé mentale commence dangereusement à se fragiliser.
Vienne à la fin du XIXème siècle
Josef Stefan
Ce beau résultat lui permet alors d’entrer à l’université de Vienne, où il fera des études remarquables – que je ne vais pas détailler ici de peur que cet article ne se transforme en page wikipédia. Il va y rencontrer un mentor en la personne de Josef Stefan, son professeur de physique, et poète à ses heures, avec qui il travaillera d’ailleurs sur le rayonnement du corps noir, proposant alors la loi justement nommée : Loi de Stefan-Boltzmann.
Nous reparlerons du corps noir quand nous aborderons la physique quantique.
Auteur prolifique, c’est durant ses études que Boltzmann publiera ses premiers articles, premiers d’une très longue série de textes qu’il a laissés. Parmi ceux-ci, citons celui qu’il publie en 1866, intitulé « Importance mécanique du second principe de la thermodynamique » qui porte déjà les germes de ce qui fera plus tard sa réputation.
L’année suivante, il obtient la venia legendi, c’est-à-dire « la permission de donner un cours » en latin, soit l’équivalent de l’agrégation ou de l’habilitation universitaire. Il devient alors élève-enseignant et donne ses premiers cours sur la théorie de la chaleur.
Johann Josef Loschmidt
Autre influence majeure pour Boltzmann, Johann Josef Loschmidt est plus porté sur la chimie que sur la physique, et il transmettra alors à Ludwig la théorie moléculaire et atomiste à une époque où peu de physiciens croient en l’existence des molécules et des atomes.
En 1861, il publiera d’ailleurs le livre « Représentation graphique des formules constitutionnelles de la chimie organique » dans lequel il donne une première approximation de ce qui deviendra la constante d’Avogadro, ce qui devrait rappeler des souvenirs de cours de physique-chimie de lycée à bon nombre d’entre vous !
Boltzmann écrira d’ailleurs un éloge funèbre pour Loschmidt en 1895, dans lequel il saluera l’humanité de ses deux mentors, et dans lequel il laissera entrevoir la très grande sensibilité qui l’animait autant qu’elle le faisait souffrir :
« Parce qu’ils étaient sans prétention aucune, de par leur simplicité et leur modestie, ils se ressemblaient beaucoup. Ils n’essayaient jamais de faire montre de leur supériorité intellectuelle. Pendant les longues années que je passai auprès d’eux, d’abord comme étudiant, puis comme assistant, ils me traitèrent toujours comme un ami. Leur sérénité olympienne et leur humour si fin, qui faisaient des discussions les plus âpres un divertissement ludique pour les étudiants, me marquèrent au point d’influencer ma manière d’être. »
Ludwig Boltzmannà propos de Loschmidt et Stefan.
Un professeur aimé
Après avoir passé en 1866 l’équivalent de ce qui serait aujourd’hui un doctorat, et après avoir présenté l’équivalent de ce qui serait aujourd’hui une thèse sur la cinématique des gaz, Boltzmann devient alors professeur de mathématiques, de physique et même de philosophie à l’université de Graz, puis de Vienne, puis de Munich, puis de Leipzig… Il se révèle être un professeur brillant et très aimé de ses étudiants ainsi que de ses collègues :
Tout était écrit sous une forme claire et bien organisée. J’avais souvent l’impression qu’on pouvait reconstruire la totalité du cours à partir de ce qui était inscrit sur les tableaux. […] C’était un professeur brillant, dont les cours étaient les plus admirables et les plus stimulants qui soient. Il faisait montre d’un tel enthousiasme pour les connaissances qu’il transmettait que nous avions le sentiment d’un nouveau monde se dévoilant à nos yeux après chaque cours.
Lise Meitner
Voici les mots d’une de ses élèves, Lise Meitner, première femme docteure de l’université de Vienne, à qui on doit la découverte de la fission nucléaire. Victime de l’effet Matilda – dont nous parlerons – elle n’est malheureusement pas citée dans la publication, au profit de ses collègues masculins.
Bon nombre d’autres témoignages montrent la sympathie de ses étudiants pour le professeur Boltzmann, mais également la sympathie de Boltzmann pour ses étudiants auxquels il accordait parfois – dans sa grande sensibilité, et tout en restant juste – certaines faveurs.
Henriette
Ce fut par exemple le cas pour Henriette von Aigentler. Passionnée de sciences, elle rêvait d’entrer à l’université. Malheureusement, nous sommes à la fin du XIXème siècle, et comme nous l’avons déjà vu dans l’article sur Emmy Noether, à cette époque, les femmes n’étaient pas admises à l’université. Elle put tout de même un jour assister à une conférence de Ludwig et fût immédiatement saisie par son charisme, sa bienveillance et ses qualités d’orateur.
Elle prit alors son courage à deux mains et écrivit une lettre à celui qui allait, quelques années plus tard, devenir son mari, afin de lui demander son soutien dans son projet de devenir enseignante. Touché par la démarche d’Henriette et aussi par son intelligence et sa détermination, Boltzmann accepte volontiers de l’aider.
Leur admiration mutuelle déboucha rapidement et assez naturellement sur une relation amoureuse. Elle fut pour lui et pour sa santé mentale toujours plus encline à la dépression, un véritable phare dans la nuit. Comme on pourrait le dire dans un conte, ils se marièrent en 1875 et eurent 5 enfants. Malheureusement, le conte ne durera pas éternellement.
Ludwig et Henriette
Le Magnum Opus
Le moins qu’on puisse dire de Boltzmann, c’est qu’il fut prolifique. À vrai dire, il n’y a presque pas une branche de la physique du XIXème siècle sur laquelle il n’ait laissé son empreinte. Mais son grand œuvre est sans aucun conteste son explication statistique du deuxième principe de la thermodynamique. Reprenons-le depuis le début.
Les 3 principes de la thermodynamique…
… Qui sont au nombre de 4 (je sais que les physiciens se plaignent parfois des moqueries des mathématiciens à leur égard, mais avouez que des fois…). On peut les résumer ainsi :
Principe 0 : Si un corps A est à l’équilibre thermique avec un corps B, lui-même à l’équilibre thermique avec un corps C, alors les corps A et C sont également à l’équilibre thermique entre eux. Ce principe rappelle sûrement aux plus matheux d’entre vous, la propriété transitive des équations.
Premier principe : L’énergie est conservée. Notons qu’un principe physique est comme un axiome mathématique, il ne se démontre pas. Pourtant, si vous avez lu l’article sur Emmy Noether, vous savez qu’elle a tout de même démontré ce principe.
Deuxième principe (qui fut le second principe jusqu’en 1906, quand le troisième principe a été énoncé par Walther Nernst) : L’entropie d’un système ne peut qu’augmenter. Et c’est justement de l’entropie que l’on va parler.
Troisième principe : Aucun système ne peut atteindre le 0 absolu (0 K, soit -273,15 °C)
Naissance du second principe.
Dans son unique ouvrage paru en 1824 « Réflexions sur la puissance motrice du feu et sur les machines propres à développer cette puissance« , le jeune polytechnicien Sadi Carnot, alors âgé de 27 ans, propose un premier énoncé de ce second principe.
« il est impossible de produire de la puissance motrice à moins qu’on ne dispose à la fois d’un corps froid et d’un corps chaud«
Nicolas Léonard Sadi Carnot
L’énoncé est sommaire et incomplet, mais il pose tout de même l’idée de ce qui va devenir le concept d’entropie. Mais voyons déjà ce qu’il signifie.
Ce que dit Sadi Carnot dans sa formulation, c’est que s’il existe une différence de température entre deux corps, la chaleur va se diriger du corps chaud vers le corps froid. En plaçant un moteur entre les deux corps, on va alors pouvoir utiliser ce flux de chaleur pour alimenter un moteur thermique qui produira alors un travail mécanique. La chaleur devient alors une source d’énergie.
Mais cette formulation semble surtout se soucier d’ingénierie, de machines à vapeur et de moteurs. On est loin de la physique fondamentale sous-entendue au début de cet article. Qui plus est, dans ce schéma, le moteur semble parfait. Ni la chaleur ni l’énergie ne semblent se dissiper, ce qui implique que le moteur de Sadi Carnot aurait un rendement de 100%. Or on sait bien qu’un tel moteur est impossible en pratique. Il faudra attendre l’énoncé de Rudolph Clausius, en 1850, pour voir naitre l’idée d’entropie, qui va prendre en compte ce problème.
L’entropie
« L’entropie d’un système isolé ne peut qu’augmenter ». C’est ce que nous dit Clausius. Ou, en termes mathématiques :
ΔS ≥ 0
Mais qu’est-ce que ça veut dire ? Si vous consultez régulièrement des supports de vulgarisation scientifique, vous aurez déjà lu ou entendu que l’entropie est une mesure du désordre d’un système. Ce n’est pas complètement faux, mais ce n’est pas non plus très rigoureux. Une première façon de voir l’entropie, c’est une mesure de l’homogénéité d’un système. Ce qui peut paraître contre-intuitif : L’homogénéité est un concept qui peut sembler loin du désordre.
Imaginez alors un artisan avec sa caisse à outils, et dans cette caisse des compartiments. Un pour les clous, un pour les vis, un pour les écrous et un pour les chevilles.
On peut alors dire que sa caisse à outils est parfaitement rangée, parfaitement en ordre. Mais au grès des chantiers, s’il ne prend pas le temps de la tenir en ordre, on sait tous ce qui va arriver : Rapidement, des écrous vont se retrouver dans le compartiment des chevilles, des clous dans celui des vis, des vis dans celui des écrous etc. L’entropie commence son œuvre, la caisse à outils se « désordonne ».
Et si on considère la boite comme un système isolé, autrement dit si personne ne la remet en ordre, de chantier en chantier, la caisse à outils finira par ressembler à ça :
Un désordre presque parfait, où chaque compartiment contient autant de clous, de vis et d’écrous, rendant chaque compartiment homogène. L’entropie est maximale, et l’ouvrier a des difficultés à produire du travail.
L’analogie a ses limites, mais elle illustre bien l’idée.
Dans le moteur de Sadi Carnot, l’entropie amène le corps chaud à se refroidir et le corps froid à se réchauffer jusqu’à atteindre une température homogène, empêchant ainsi le flux de chaleur et stoppant le moteur, qui, comme notre artisan, ne pourra plus produire de travailmécanique. Comme pour notre caisse à outils, il est impossible que les deux corps tièdes retrouvent spontanément leurs températures initiales sans intervention extérieure, d’où l’idée de système isolé.
Une nouvelle vision de l’entropie apparaît alors : une dissipation d’énergie qui ne génère plus de travail mécanique. Par exemple, faire fonctionner ma voiture sans me déplacer brûle de l’essence inutilement – polluant pour rien – tandis que l’énergie est définitivement perdue, rendant le rendement du moteur nul. L’entropie est alors immense. Cette façon d’illustrer l’entropie comme une dissipation d’énergie est bien meilleure.
Cette réflexion soulève la question de l’irréversibilité des phénomènes physiques et celle de la flèche du temps. C’est là où Boltzmann intervient.
L’interprétation statistique
On l’a dit, Boltzmann est un atomiste. Influencé par Loschmidt, il pense que la matière est composée d’atomes et de molécules. Et c’est sur cette idée qu’il va construire son interprétation statistique de l’entropie.
Faisons déjà un point rapide sur la physique statistique : Elle se base également sur l’idée que la matière est composée d’atomes et de molécules et que certaines caractéristiques de la matière à l’échelle macroscopique émergent en fait de phénomènes plus fondamentaux à l’échelle microscopique. Par exemple, la température d’un liquide est en fait une conséquence à grande échelle – qu’on appelle le macro-état du système – de l’agitation moyenne des molécules qui le composent à petite échelle – le micro-état du système.
William Thomson – plus connu sous le nom de Lord Kelvin – va d’ailleurs définir le 0 absolu (0 Kelvin) comme l’absence totale d’agitation dans le micro-état d’un système. Pour le dire simplement, l’absence d’agitation des atomes ou des molécules qui composent le système. Et, nous l’avons vu dans le 3ème principe, ce 0°K est théorique et ne peut jamais être atteint.
Mais alors, quid de l’entropie ? Elle dépend également des micro-états que peut prendre le système. De tous les micro-états que peut prendre le système pour être précis. Or, les micro-états où le système est homogène – ou « en désordre » si vous préférez – sont beaucoup plus nombreux que ceux où le système est « ordonné ». Pour faire une analogie macroscopique, imaginez un jeu de 54 cartes (dont on retire les deux jokers par souci de simplicité, ce qui nous laisse 52 cartes). Disons qu’il n’existe qu’une seule façon de le considérer comme parfaitement ordonné :
En revanche, combien y a-t-il de combinaisons où on pourra le considérer comme désordonné ? Il suffit de prendre le nombre de mélanges possibles d’un jeu de 52 cartes, et d’en retirer un, celui ou le jeu est ordonné.
Point mathématique facultatif : combinatoire
Pour la première place, on à 52 possibilités. Pour la seconde, on choisi parmi les 51 cartes restantes. Pour la troisième, on choisi parmi les 50 restantes. Et ainsi de suite.
Il y a donc 52 x 51 x 50 x 49 x … possibilités. Ce qui se note 52! et se nomme factorielle de 52. Ce qui nous donne environ:
52! ≈ 8.0658×1067
Un nombre colossal à 68 chiffres.
C’est à dire 8.0658×1067 mélanges possibles. Un mélange aléatoire a donc une chance sur 8×1067 de donner un jeu parfaitement rangé. Et ça, avec seulement 52 cartes, alors imaginez pour un simple verre d’eau composé de 10 millions de milliards de milliards de molécules.
Ce que nous dit Boltzmann à propos de l’entropie, c’est qu’un système tend à se désordonner – à s’homogénéiser donc – car il est statistiquement beaucoup plus probable que ses micro-états soient homogènes plutôt qu’ordonnés. L’entropie est définie mathématiquement comme suit : (l’équation finale n’est d’ailleurs pas écrite par Boltzmann, mais par Planck, en s’appuyant sur les calculs de Boltzmann) :
S = kb log W
S est l’entropie kb la constante de Boltzmann W le nombre de micro-états
Rien n’interdit fondamentalement qu’un jeu de cartes se range spontanément. Absolument aucune loi physique ne s’y oppose. Alors pourquoi ne voit-on jamais un jeu de cartes se remettre en ordre spontanément ? Parce que, statistiquement, la probabilité est quasiment nulle.
L’irréversibilité se dessine.
Irréversibilité et flèche du temps.
A notre échelle, certains phénomènes semblent parfaitement réversibles. Si je range ma chambre en remettant tous les objets à leur place, je peux avoir l’illusion d’avoir déjoué l’entropie. Mais en réalité, ai-je remis ce livre exactement à sa place ? Les mêmes atomes de sa couverture sont-ils alignés avec les mêmes atomes de la bibliothèque ? Non. Ces atomes ont d’ailleurs probablement été échangés entre-temps… À l’échelle des micro-états, aucun phénomène n’est réversible. C’est pourquoi une chambre ne retrouve pas plus son véritable ordre initial qu’un verre d’eau tiède ne se sépare en un demi verre chaud et un demi verre froid.
Ces niveaux d’organisation sont soumis aux lois de la thermodynamique et à des états statistiques qui produisent de l’entropie. Et par conséquence du temps. Le temps c’est simplement « là où ça entropise ». La direction vers laquelle on observe que l’entropie augmente, nous l’appelons le temps. Et l’entropie fabrique le temps comme la chute fabrique le bas. Le bas, c’est « là où ça tombe ». Le temps, c’est « là où ça refroidit ».
Carlo Rovelli, Et si le temps n’existait pas ?
Ce que nous dit Carlo Rovelli avec ses mots et sa créativité dans ce très bel extrait, c’est que la flèche du temps naît de l’entropie et de l’irréversibilité qu’elle crée. Boltzmann aura donc réussi à montrer pourquoi le temps a un sens, pourquoi le temps a une flèche, et pourquoi le mercredi des cendres arrive après le mardi gras.
Ernst Mach, Wilhelm Ostwald et les autres
La théorie de Boltzmann est un succès. Mais elle s’appuie sur l’hypothèse alors très propre à la chimie et aux disciples de Mendeleïev, de l’existence des atomes. Or, sur ce point, Boltzmann va rencontrer une certaine résistance de la part de ses confrères.
De retour à Vienne en 1894, Boltzmann croise en effet la route d’un nouveau collègue, Ernst Mach. Celui-ci est un virulent contestataire de la théorie atomique. Il le fera d’ailleurs savoir vigoureusement après une conférence de Boltzmann.
De nombreux autres de ses collègues vont suivre Mach dans sa conception continue de la matière et désapprouver les travaux de Boltzmann. Il va aussi se disputer violemment avec Wilhelm Ostwald à la suite d’une de ses conférences. L’échange était si violent qu’il fût comparé à une corrida.
Touché par ces évènement et la désapprobation de ses pairs, Boltzmann sombre de plus en plus dans la dépression. Bien qu’il ait gardé de bons rapports de façade avec ses collègues – Ostwald lui proposa un poste à Leipzig en 1900 – Boltzmann fera ensuite plusieurs tentatives de suicide au début des années 1900.
Trieste
Durant l’été 1906, Henriette, voyant Ludwig dévasté et malade, décide de partir en vacances en famille en Italie, près de Trieste. Le 5 septembre, Boltzmann se donne la mort alors qu’Henriette et les enfants sont à la plage. Elsa, sa fille de 15 ans, le retrouvera pendu à son retour dans la chambre d’hôtel. Le conte de fées des premiers temps tourne à la tragédie.
Tombe de Ludwig Boltzmann, sur laquelle figure l’équation S = k log W
Il ignorait, quelques mois auparavant, qu’un jeune employé du bureau de brevets de Berne, du nom d’Albert Einstein, avait publié un article sur le mouvement brownien, montrant l’exactitude de la théorie atomiste. Le génie de Boltzmann sera alors reconnu après sa mort.
Ostwald dira même de lui qu’il était « l’homme dont la science nous a dépassés par sa perspicacité et sa clarté« .
C’est beau. Mais c’est un peu tard, malheureusement.
S’il n’est pas question d’accuser Mach ou Ostwald d’être les bourreaux responsables de la mort de Boltzmann, il est toujours bon de rappeler qu’une moquerie – même si elle semble « gentille » – associée à une santé mentale fragile peut avoir des conséquences tragiques.
« Chaque personne que tu rencontres mène une bataille dont tu n’as aucune idée. Sois gentil. Toujours. »
Robin Williams
La dépression et le suicide sont des sujets graves et importants. Parlez-en. Si vous avez besoin d’aide appelez le 3114, 7j/7, 24h/24. Vous pouvez aussi consulter : https://www.suicide-ecoute.fr
Aujourd’hui, nous allons faire un tour dans l’espace, à la visite de notre système solaire. En d’autres termes, nous allons faire le tour des objets sur lesquels le soleil a une influence gravitationnelle. Alors préparez-vous, on va décoller !
Vue d’ensemble
Il aura fallu des siècles pour comprendre la mécanique céleste qui gouverne notre voisinage cosmique proche. Il aura aussi fallu en passer par de nombreux modèles… des modèles géocentriques, qui placent la Terre au centre de l’univers, comme chez Aristote ou Ptolémée, aux modèles plus tardifs et de plus en plus justes de Tycho Brahe, Copernic ou encore Kepler ; notre vision du système solaire a lentement évolué jusqu’à la compréhension que nous en avons aujourd’hui.
Une étoile, huit planètes, des centaines de satellites naturels, deux ceintures d’astéroïdes, des comètes… 4,7 milliards d’années ont façonné notre environnement cosmique et nous allons voyager ensemble à travers ces objets et découvrir ce qu’ils ont à nous apprendre sur nos origines et sur l’infini.
Le Soleil
Notre étoile est une naine jaune qui représente à elle seule 99 % de la masse de notre Système solaire, au centre duquel elle trône. Comme toute étoile, c’est une boule de plasma d’hydrogène et d’hélium. Ce plasma en fusion thermonucléaire s’échappe vers l’espace, mais la force de gravitation équilibre cette fuite en maintenant la matière en une sphère stable. C’est en partie grâce à cette stabilité que la vie est possible sur Terre.
Ainsi le Soleil semble siéger sur son trône royal, régnant sur sa progéniture, les planètes qui tournent autour de lui. Copernic
C’est également une source d’énergie et de chaleur – deux autres éléments nécessaires à la vie sur Terre. Il se situe à 150 millions de km de la Terre, ou simplement 1 UA – unité astronomique, soit la distance moyenne Terre-Soleil – et sa lumière met 8mn20 à nous parvenir.
Mercure
La première, Mercure, est une planète dite inférieure – tout comme Vénus, car elles sont situées entre la Terre et le soleil – et fait partie des planètes rocheuses. Elle se trouve à 0,39 UA du soleil et ressemble beaucoup à notre Lune, son sol étant lui aussi creusé de nombreux cratères. D’un diamètre de 4880 km – soit un peu plus d’un tiers de celui de la Terre – elle est la plus petite planète de notre Système solaire. Elle effectue une révolution complète autour du soleil en 88 jours terrestres. Elle effectue 3 rotations sur elle-même pour 2 de ces révolutions. Les « jours » mercuriens sont donc particulièrement longs. Les températures en surface connaissent alors un contraste saisissant entre jour et nuit : jusqu’à 430°C pour la face exposée au soleil contre -180°C pour celle cachée !
Plusieurs missions s’y sont déjà rendues depuis 1974 – Mariner 10 et Messenger – et on peut noter la mission BepiColombo qui est en route depuis 2021 pour en approfondir l’étude.
Vénus
I’m your Venus I’m your fire
Bananarama
Souvent visible vers l’ouest au coucher du Soleil, ou vers l’est au lever du Soleil, cette planète rocheuse, surnommée l’étoile du Berger, est – après la Lune – l’objet le plus brillant du ciel nocturne.
Si Bananarama associait Vénus au feu dans leur reprise des Shocking Blue, en 1988, ce n’est peut-être pas un hasard. En effet, Vénus est la planète la plus chaude de notre Système solaire avec une température de surface moyenne de 465°C ! Cela peut d’ailleurs paraitre assez contre intuitif… On pourrait s’attendre à ce que ce palmarès revienne à Mercure, plus proche du Soleil. Mais Mercure est dénuée d’atmosphère, Vénus elle en possède une très dense, composée majoritairement de dioxyde de carbone qui provoque alors un effet de serre Massif.
On peut dire que sur Vénus, il n’y a qu’une seule saison : Un été cruel !
Ce n’est d’ailleurs pas le seul fait troublant avec Vénus : sa rotation aussi est inhabituelle. Vénus est la seule planète de notre système solaire à tourner sur elle-même « à l’envers« . Le soleil s’y lève donc à l’ouest et s’y couche à l’est. On appelle cela une rotation rétrograde.
Située à 108 millions de km, soit environ 0,7 UA, Vénus effectue une révolution autour du Soleil en 225 jours terrestres, et un tour sur elle-même en 243 jours terrestres.
Deux missions vont y partir : EnVision (ESA) et Veritas (NASA) pour étudier son activité volcanique et son passé potentiellement habitable.
La Terre
La troisième planète du Système solaire peut nous paraître assez familière. En effet, il s’agit de notre Terre. Une planète tellurique – synonyme de planète rocheuse – de 12 742 km de diamètre située à 1 UA du Soleil… évidemment !
Son atmosphère, composée à 80% d’azote et 20% d’oxygène, est une de ses plus remarquables caractéristiques : elle permet l’apparition de la vie telle que nous la connaissons en régulant le climat, en permettant la présence d’eau liquide et en protégeant la surface des radiations solaires. Elle est également dotée d’un champ magnétique qui dévie les particules chargées des vents solaires, créant ainsi de belles aurores polaires quand ces particules interagissent avec la magnétosphère.
Pour ce qui est de sa structure interne, la Terre est composée d’un noyau métallique – qui génère son champ magnétique – d’un manteau semi-solide riche en silicates et d’une croûte qui n’est autre que la surface rocheuse de notre planète.
Son satellite naturel, la Lune, va considérablement influencer son comportement astronomique, créant par exemple les marées hautes ou basses, ou en stabilisant son inclinaison, rendant possible le cycle des saisons.
La formation de notre Lune résulterait de la collision entre notre Terre et un autre corps céleste : Théia, qui se serait alors fragmenté, s’agglomérant en partie à la Terre, et créant d’autre part la Lune il y a 4,5 milliards d’années.
Mars
Première planète extérieure et dernière planète rocheuse, la planète rouge est sans aucun doute la planète la plus étudiée du Système solaire ! Située à 1,5 UA du Soleil, Mars a un diamètre presque 2 fois plus petit que celui de la Terre (6779 km) et une masse 10 fois moins importante. Son atmosphère est très fine et majoritairement composée de dioxyde de carbone. Ses jours de 24,6 heures sont proches des nôtres, mais ses années sont presque deux fois plus longues que les années terrestres : 687 jours ! Mars est un désert froid, avec une température moyenne de surface de -60°C, et même des minimums à -125°C au niveau de ses pôles. Si elle a pu connaître autrefois de l’eau à l’état liquide – et donc potentiellement de la vie – il n’en est plus rien. On peut en revanche encore y trouver de la glace, notamment au niveau des pôles.
Des rovers comme Spirit, Opportunity, Curiosity et Perseverance ont exploré sa surface pour collecter des données géologiques et climatiques. Dans le futur, plus que des missions, c’est une colonisation qui est projetée par des entreprises comme SpaceX. Toutefois – et heureusement – l’aboutissement d’un tel projet relève, pour le moment, de la science-fiction.
Phobos et Deimos – peur et terreur en grec – sont les satellites naturels de Mars. Ces lunes irrégulières sont très probablement des astéroïdes « attrapés » par la gravité de Mars qui les aura « sortis » de la ceinture d’astéroïdes avoisinante. Phobos a un diamètre d’environ 22 km et orbite à 6000 km de Mars. Deimos, plus modeste, a un diamètre de 12 km et orbite bien plus loin, à 23 500 km de Mars.
La ceinture d’astéroïdes
Vestiges du disque protoplanétaire qui a formé notre Système solaire, la ceinture d’astéroïdes se situe entre Mars et Jupiter, à un peu plus de 2 UA du Soleil. C’est probablement l’influence gravitationnelle de Jupiter qui a empêché ces corps de s’agréger en une planète.
Principalement composés de silicates et de métaux, on trouve des astéroïdes de différentes tailles. De simples grains de poussière à de grands astéroïdes comme Cérès – qui est également une planète naine de 940 km de diamètre – Vesta, Pallas ou encore Hygie.
l’astéroïde Cérès, premier astéroïde découvert en 1801.
Jupiter
Plus grande planète du système solaire, avec ses presque 140 000 km de diamètre, Jupiter est 11 fois plus grande que la Terre. À elle seule, Jupiter représente 70% de la masse totale des planètes du système solaire. C’est la première planète gazeuse, composée principalement d’hydrogène et d’hélium. L’atmosphère jovienne est caractérisée par des bandes nuageuses et des tempêtes cycloniques. La plus connue de ces tempêtes est la grande tache rouge, une tempête persistante, probablement déjà documentée en 1665 par Giovanni Cassini, et plus vraisemblablement décrite en 1831 par Schwabe. Si elle mesurait 40 000 km à cette époque, elle n’en fait plus « que » 16 000 km.
Jupiter – Hubble 2021
Jupiter, c’est aussi un système d’anneaux – bien que moins connus que ceux de Saturne – et de 92 lunes. Parmi ces lunes, on peut citer les quatre plus connues : Io, qui est la lune la plus volcanique de Jupiter. Europe, une bonne candidate à l’hébergement d’une forme de vie, puisqu’elle pourrait en effet abriter un océan souterrain. Ganymède, la plus grande lune du Système solaire, même plus grande que la planète Mercure ! Callisto, formée d’un mélange de roche et de glace, elle est criblée de cratères qui la font un peu ressembler à notre lune.
Saturne
Deuxième géante gazeuse, d’un diamètre à peine plus modeste que celui de Jupiter avec un peu plus de 120 000 km. Elle est 95 fois plus massive que la Terre avec pourtant, une densité inférieure à celle de l’eau. Une journée saturnienne dure seulement une dizaine d’heures, en revanche, une révolution complète se fait en 29 ans et demi.
Ce qui rend Saturne si reconnaissable, ce sont bien sûr ses anneaux. De minuscules grains de poussière jusqu’à d’immenses blocs de glace qui s’étendent sur des centaines de milliers de kilomètres pour une épaisseur de seulement quelques mètres !
Saturne – Hubble 2019
Saturne, c’est également 145 lunes connues – pour le moment – parmi lesquelles on peut citer les trois plus connues : Titan, qui est la plus grande lune de Saturne, et la seule lune de notre Système solaire avec une atmosphère dense. Titan abrite des lacs et des rivières d’hydrocarbures liquides. Encelade, une lune glacée qui éjecte des panaches de vapeur d’eau dans l’espace, laissant imaginer qu’elle abrite de l’eau à l’état liquide. Mimas, qui ressemble à s’y méprendre à « l’Étoile de la Mort » de Star Wars !
Uranus
Découverte en 1781 par l’astronome – et compositeur ! – William Herschel, dont on parlera bientôt, Uranus est la troisième planète gazeuse. D’un diamètre de 50 000 km, elle est composée principalement d’hydrogène, d’hélium et aussi de méthane, qui lui donne sa teinte bleuâtre.
Uranus – James Webb Space Telescope – 2023
Particularité unique d’Uranus : Son axe de rotation est incliné de 98° ! On a donc l’impression qu’Uranus roule sur son orbite. Uranus est également la planète la plus froide du Système solaire avec des températures pouvant atteindre les -224°C, lui valant le titre de géante de glace, comme Neptune.
On peut voir sur l’image du James Webb Space Telescope qu’Uranus est également dotée d’un système d’anneaux. Découverts en 1977, on pense que ces anneaux sont constitués de fragments de lunes. À propos de lunes, 27 satellites naturels gravitent autour d’elle. On peut citer parmi eux : Oberon, Umbriel, Ariel ou Miranda… des noms issus des œuvres de Pope ou de Shakespeare.
Neptune
Dernière planète du Système solaire, c’est Urbain le Verrier qui la découvre en 1846, non pas par l’observation… mais par le calcul ! Il observe effectivement des anomalies sur l’orbite d’Uranus et prédit la position de Neptune. Sa présence sera confirmée dans la nuit du 23 au 24 septembre 1846, à l’observatoire de Berlin par Johann Galle et son étudiant, Heinrich Louis d’Arrest, le tout au grand dam de John Couch Adams, rival de le Verrier, qui avait effectué les mêmes calculs, mais avec une précision moindre (une vingtaine de degrés d’incertitude). Bon joueur, il reconnaîtra et saluera le travail d’Urbain le Verrier.
« M. Le Verrier a aperçu le nouvel astre sans avoir besoin de jeter un seul regard vers le ciel ; il l’a vu au bout de sa plume »
Neptune ressemble à Uranus sur certains points. Elle est également une géante de glace dont la température moyenne est d’environ -214° C. Une taille également similaire avec un diamètre d’environ 50 000 km. Neptune est aussi constituée d’hydrogène, d’hélium et de méthane qui lui donne également une teinte bleue, mais un bleu plus profond qu’Uranus, car la concentration et l’atmosphère ne sont pas tout à fait les mêmes. La durée de révolution d’une planète étant fonction du rayon de son orbite, la révolution de Neptune est la plus longue du Système solaire et dure environ 165 années terrestres, pour une journée de 16 heures.
Neptune connaît des vents parmi les plus rapides et les plus violents du système solaire, atteignant des vitesses de 2000 km/h. On y observe également des tempêtes gigantesques, comme la Grande Tache Sombre, un équivalent de la Grande Tache Rouge de Jupiter, bien que celle de Neptune soit plus éphémère.
Neptune possède au moins 14 lunes connues, dont la plus grande est Triton. Triton est un cas unique parmi les lunes géantes du système solaire, car elle orbite en sens rétrograde, ce qui implique qu’elle pourrait avoir été capturée par la gravité de Neptune.
Une planète 9 ?
En 2016, certaines anomalies ont été observées dans les orbites de certains objets transneptuniens, et l’astronome Mike Brown (Caltech) – à qui l’on doit la découverte de bon nombre de ces objets – a alors prédit l’existence d’une hypothétique 9ème planète. D’après ses calculs, celle-ci serait très massive (5 à 10 fois la masse terrestre) et d’une composition similaire à Uranus ou Neptune. Très éloignée et très peu lumineuse, si elle existe, il serait très compliqué de la localiser, d’autant que son orbite est immense et incertaine.
Pour d’autres astronomes, plus sceptiques, ces anomalies peuvent être expliquées par des biais d’observation, ou des interactions gravitationnelles cumulatives dues au grand nombre d’objets avoisinants.
En tout cas, si elle existait, elle remettrait en question les modèles traditionnels de formation planétaire.
La ceinture de Kuiper
Au-delà de l’orbite de Neptune, entre 30 et 50 UA, on retrouve des milliards d’objets glacés, faits d’eau, d’ammoniac ou de méthane, qui constituent la ceinture de Kuiper. Parmi ces objets, on trouve la planète naine Pluton, qui a perdu son titre de planète en 2006, son satellite Charon, mais aussi Eris, Makémaké ou encore Haumea. Cette ceinture d’astéroïdes « secondaire » est, comme la ceinture primaire, une relique du disque protoplanétaire à l’origine de notre Système solaire.
Parfois, une collision ou une légère perturbation gravitationnelle de Neptune peut dévier un objet de la ceinture de Kuiper. Son orbite se modifie, et l’objet peut se diriger vers le Soleil, dont la chaleur va faire fondre la glace, formant alors une chevelure et une queue : L’objet devient alors une comète. La plus connue provenant de la ceinture de Kuiper est la comète de Halley, qui revient tous les 76 ans. Comme toutes les comètes issues de cette ceinture, elle est une comète dite « à courte période », c’est-à-dire avec une révolution inférieure à 200 ans.
Le Nuage de Oort
D’autres comètes, à période longue cette fois, viennent, elles, de beaucoup plus loin. Une sphère située entre 2000 et 100 000 UA du Soleil, appelée « Nuage de Oort« , et constituée de comètes glacées aux périodes beaucoup plus longues que celle de la ceinture de Kuiper.
Ce nuage est la limite extérieure de notre Système solaire.
Retour sur Terre
Ce n’est pas William Herschel qui me contredirait si je disais que notre Système solaire est bien plus que la suite d’objets célestes que je viens d’énumérer, et que c’est une symphonie cosmique où chaque planète, chaque lune, chaque astéroïde joue une note sur son orbite, ou devrais-je dire, sa portée…
Face à ces distances et ces ordres de temps, on peut se sentir encore une fois très petits face à l’infini de l’espace, mais également incroyablement chanceux de pouvoir admirer tout ceci, et de pouvoir essayer de le comprendre.
Aujourd’hui je vous propose, pour ce premier portrait, de parler de la plus grande mathématicienne du XXième siècle et, ce, selon bon nombre de ses confrères et consœurs ! Elle sera pour toujours un exemple de génie, d’humilité, de sacrifice, de bienveillance, de résilience et de quête du savoir.
Plus qu’une grande mathématicienne, Emmy Noether est une des plus grandes figures scientifiques du XXième siècle, dont l’histoire résonne encore – parfois bien tristement – aujourd’hui.
Une jeunesse en Bavière
Amalie Emmy Noether – de son nom complet – naît à Erlangen, près de Nuremberg, le 23 mars 1882. Elle est la fille du mathématicien Max Noether et d’Ida Amalia Kaufmann. Elle est également la grande sœur de Gustav Robert, d’Alfred – qui sera chimiste – et de Fritz – qui deviendra également mathématicien. Elle fait une scolarité tout à fait correcte, et montre des aptitudes particulières pour la résolution d’énigmes et de problèmes logiques. Fillette de la fin du XIXe siècle, elle va recevoir, en plus de sa scolarité, des leçons de tâches domestiques, de piano et de danse… mais rien de tout cela ne va particulièrement la passionner. Comme elle a de bons résultats en français et en anglais, elle va passer un examen pour enseigner ces matières et elle l’obtiendra haut la main.
Mais ça non plus, ça ne la passionne pas…
Les mathématiques pour unique but
Ce qui passionne Emmy, vous l’aurez deviné, ce sont les maths. Et ce qu’elle veut, c’est entrer à l’université d’Erlangen où enseigne son père. Nous sommes en 1900. l’année où les femmes sont autorisées à suivre des cours… ou plutôt… elles ne s’en voient pas interdire l’accès. Elles sont admises, en quelques sorte, en auditrices libres. Emmy va donc pouvoir assister aux cours sans vraiment voir son travail reconnu et devra demander une dérogation à chaque professeur pour pouvoir passer un examen.
Elle acceptera toutes ces conditions car son unique objectif sera la connaissance.
Premier séjour à Göttingen
En 1903, elle passe donc son examen à Nuremberg. Ce sera pour elle un passeport pour une des plus prestigieuses universités allemandes de cette époque : l’Université de Göttingen. Gauss, Riemann, Minkowski, Hilbert… tous les plus grands mathématiciens allemands y sont passés !
Elle va y passer un premier semestre et suivre justement les cours de Minkowski et Hilbert, mais aussi ceux de l’astronome Karl Schwartzschild – qui fût le premier à théoriser l’existence des trous noirs.
Après ces quelques mois passés à Göttingen, Emmy rentre à Erlangen pour y découvrir – enfin – une bonne surprise :
Les femmes à l’université… ou presque
Nous sommes en 1904 et les lois de restriction des droits des femmes sont levées. Les femmes peuvent alors pleinement étudier à l’université et Emmy entre donc officiellement à l’université d’Erlangen le 24 octobre 1904 !
Elle va alors y préparer une thèse portant sur les invariants algébriques sous la direction de Paul Gordan. Elle obtiendra son doctorat en 1907, ce qui lui permettra alors d’enseigner à l’université d’Erlangen… à titre bénévole.
Elle acceptera de nouveau l’inacceptable au nom de la connaissance et de la transmission de celle-ci, et sera aidée financièrement par sa famille.
Point mathématique facultatif : les invariants algébriques
Un invariant algébrique est un élément d’un ensemble qui ne change pas lorsqu’on applique une transformation à cet ensemble.
Prenons un exemple trivial mais parlant : un cercle est défini par son rayon, ici je l’appelle OA. On voit que si j’applique une rotation de -30° à mon cercle de centre O, le rayon reste le même : c’est un invariant, lié au fait que notre cercle soit parfaitement symétrique par rotation.
Deuxième exemple, pour le sport : imaginons une fonction, la plus simple possible, la fonction affine f(x)=x, qui pour chaque valeur de x, renvoie cette même valeur (à gauche) et appliquons une transformation qui consiste à renvoyer, pour chaque valeur de x, son carré. On obtient alors la fonction carrée (à droite), plus du tout linéaire, mais parabolique. On voit bien que la fonction a été changée. Et pourtant, pour les valeurs x=0 et x=1, la fonction renvoie également f(x) = 0 et f(x) = 1. En effet 0 et 1 élevés au carré restent 0 et 1 ! Ces points n’ont donc pas bougé, ce sont des invariants algébriques.
Ces invariants vont permettre de simplifier des problèmes, car on pourra facilement identifier ce qui ne change pas au cours d’une transformation, même dans des cas bien plus complexes que ces deux exemples.
Retour à Göttingen
Faisons un saut en avant dans le temps : en 1915, Einstein publie sa théorie de la Relativité Générale. C’est une révolution dans le monde de la physique. David Hilbert va alors travailler sur certains aspects mathématiques de cette théorie qui le fascine, notamment sur une idée centrale : les invariants... Ça vous rappelle quelqu’un ?
Il se souvient en effet de la thèse d’Emmy Noether sur les invariants algébriques, et l’invite à Göttingen pour travailler le sujet à 4 mains.
C’est pendant ce travail qu’Emmy Noether va proposer un « monument de la pensée mathématique » – d’après Einstein lui même : son fameux Théorème.
Le Théorème de Noether
« À toute transformation infinitésimale qui laisse le lagrangien d’un système invariant à une dérivée temporelle totale près correspond une grandeur physique conservée.«
Voici l’énoncé mathématique du théorème, que l’on pourrait traduire plus simplement par : « Chaque symétrie et chaque invariance d’un système physique correspond à une loi de conservation ».
Prenons un exemple : si je lâche un objet d’une certaine hauteur, son énergie totale est donnée par la somme de son énergie cinétique et de son énergie potentielle. E(tot) = E(cin) + E(pot). Au cours de la chute, l’énergie cinétique dépendant de la vitesse et l’énergie potentielle dépendant de la hauteur, ces grandeurs varient… Mais elles varient en se compensant de telle façon que l’énergie totale reste invariante ! C’est la loi de conservation de l’énergie. Ce que le théorème de Noether nous apprend, c’est que cette conservation est liée à une symétrie temporelle.
Passons toutes ces symétries en revue :
– La symétrie temporelle, nous venons de le voir, implique la conservation de l’énergie. – La symétrie spatiale implique la conservation de l’impulsion (p= masse x vitesse). – La symétrie par rotation implique la conservation du moment angulaire (L= masse x vitesse x rayon)
Mais alors, qu’est-ce qui fait de ce théorème un « monument » ? Ce n’est pas tant ce qu’il dit qui le rend si important, mais c’est aussi ce qu’il implique pour la physique fondamentale, et même pour la philosophie. Il montre en effet que les lois physiques émergent de quelque chose de plus profond, de plus fondamental : les symétries de l’Univers. D’un point de vue philosophique, Emmy Noether nous dit ici que la nature aime l’harmonie, et que si l’univers que l’on observe semble si élégant, ce n’est pas un hasard, c’est inscrit dans son code mathématique.
Privatdozent
Lorsqu’elle revient à Göttingen en 1915, David Hilbert entend lui obtenir un poste de professeur. Malheureusement, les mentalités rétrogrades, soumises à une forte inertie, ne se mettent pas aisément en mouvement.
« Que penseront nos soldats, quand ils reviendront à l’université et verront qu’ils doivent apprendre aux pieds d’une femme ? – Je ne vois pas pourquoi le sexe de la candidate serait un argument contre son admission comme Privatdozent. Après tout, nous sommes une université, pas des bains publics. »
David Hilbert, répondant à un professeur
Emmy donnera alors ses conférences en étant annoncée comme « David Hilbert » et devra en attendant des jours plus progressistes, se contenter d’un poste d’assistante. Elle devra attendre 1919 pour obtenir une habilitation à donner cours, et 1922 pour obtenir le titre de Privatdozent.
Ses conférences vont alors fédérer une communauté autour d’elle : les « Noether’s boys« , qui furent les vecteurs de ses travaux à travers l’Europe – notamment Bartel Van der Waerden, qui publiera – entre autre – les notes qu’il a prises au cours des conférences d’Emmy.
Consécration
En 1932, Emmy est invitée à donner une conférence plénière au congrès international des mathématiciens de Zurich. La même année, elle reçoit avec son co-récipiendaire Emil Artin, le prix Alfred Ackermann-Teubner, accompagné de la somme de 60 000 Marks. Mais ce chapitre est tristement court…
Exil aux Etats-Unis
En 1933, Adolf Hitler devient chancelier. Emmy reçoit une lettre du Ministère des Sciences : elle se voit retirer le droit d’enseigner car elle est juive. Elle est expulsée de l’université. Pendant un temps, elle recevra ses étudiants chez elle, pour continuer à donner cours, mais la montée du nazisme progresse et elle doit fuir.
Albert Einstein, qui avait déjà émigré aux États Unis, lui trouve un poste et la fait venir à Philapdelphie, à l’Université de Bryn Mawr. Son charisme et sa bienveillance vont attirer encore une fois foule d’étudiants à la suivre sur le campus pour assister à ses cours.
Ce répit sera toutefois de courte durée.
La plus grande…
En 1935, une tumeur bénigne et un kyste ovarien lui sont diagnostiqués. Malheureusement, durant l’intervention pourtant simple, des complications apparaissent. Elle n’y survivra pas et meurt quelques jours après, le 14 avril 1935, à seulement 53 ans.
Le monde scientifique sera alors plongé dans un deuil profond et se souviendra dela plus grande mathématicienne de tous les temps. Elle y aura toutefois laissé une empreinte indélébile.
« La plus grande mathématicienne qui a jamais vécu, et la plus grande femme scientifique vivante. »
Norbet Wiener
Et sa mémoire mérite de ne jamais disparaitre, surtout en ces temps troublés. #standupforscience