Maison Sciences
Catégorie:

Sciences

Publicité

1. La matière noire et l’énergie noire sont les deux composantes les plus mystérieuses de l’Univers. Ensemble, elles représentent 95 % de la masse-énergie du cosmos, mais nous ne pouvons ni les voir, ni les toucher, ni les mesurer directement. La matière noire est le « colle » invisible qui maintient les galaxies ensemble, et l’énergie noire est la force qui accélère l’expansion de l’Univers. Leur existence a été prouvée indirectement, mais leur nature reste l’un des plus grands mystères de la science.

2. L’idée de matière noire remonte à 1933, lorsque l’astronome Fritz Zwicky étudia l’amas de galaxies de la Vierge. Il découvrit que la masse visible ne suffisait pas à maintenir les galaxies ensemble ; elles se disperseraient. Cela signifiait qu’il existait une masse invisible qui créait une gravité supplémentaire. Plus tard, dans les années 1970, Vera Rubin confirma ce fait en mesurant la rotation des galaxies : les étoiles situées à leur périphérie se déplaçaient trop vite.

3. La matière noire n’émet, n’absorbe ni ne réfléchit la lumière ; elle interagit uniquement par gravité. Les scientifiques pensent qu’elle est constituée de particules encore inconnues, telles que les WIMP (particules massives faiblement interactives) ou les axions. Des expériences comme LUX, XENON et le CERN les recherchent dans des détecteurs souterrains, mais sans succès jusqu’à présent.

4. L’énergie noire a été découverte en 1998, lorsque deux groupes d’astronomes, étudiant des supernovae lointaines, ont constaté que l’expansion de l’Univers s’accélérait, et non ralentissait, comme prévu. Cela signifiait qu’il existait une sorte de force antigravitationnelle qui surmontait l’attraction gravitationnelle. Cette force, appelée énergie noire, représente 68 % de l’Univers, la matière noire 27 % et la matière ordinaire seulement 5 %.

Pages : 1 2 3

Publicité

1. Le génie génétique est l’un des domaines les plus révolutionnaires de la biologie. Il permet de modifier l’ADN des organismes vivants avec la précision d’un scalpel chirurgical. Une avancée majeure a été la technologie CRISPR-Cas9, découverte en 2012 par Jennifer Doudna et Emmanuelle Charpentier. Pour cela, elles ont reçu le prix Nobel de chimie en 2020. CRISPR est comparable à la fonction « rechercher et remplacer » dans un texte, mais appliquée au génome.

2. CRISPR fonctionne comme un système de défense immunitaire chez les bactéries. Les scientifiques l’ont adapté pour diriger l’enzyme Cas9 vers la section d’ADN souhaitée grâce à l’ARN guide. Cas9 coupe ensuite la double hélice, et la cellule tente elle-même de réparer la rupture ; dans ce cas, il est possible d’insérer, de supprimer ou de modifier un gène. Le processus est précis, rapide et relativement peu coûteux par rapport aux méthodes précédentes.

3. L’une des premières applications a été le traitement des maladies génétiques. En 2019, CRISPR a permis de guérir pour la première fois des patients atteints de drépanocytose et de bêta-thalassémie. Leurs cellules souches ont été modifiées en dehors de l’organisme, puis réinjectées. Les patients n’ont plus eu besoin de transfusions. Cela a marqué le début d’une nouvelle ère : la thérapie génique.

4. Aujourd’hui, CRISPR est testé dans le cadre d’essais cliniques contre le cancer, la maladie de Huntington, la cécité héréditaire (amaurose de Leber) et le VIH. En 2023, un patient atteint de la maladie de Huntington a reçu une injection de CRISPR directement dans le cerveau, pour la première fois de l’histoire. Les résultats sont encourageants : le taux de protéines nocives a diminué.

Pages : 1 2 3

Publicité

1. L’intelligence artificielle (IA) n’est plus seulement un outil de reconnaissance faciale ou de recommandations sur Internet : elle est devenue un acteur à part entière de la recherche scientifique. De la génétique à la physique, du climat à l’astronomie, l’IA permet de traiter d’énormes quantités de données, de trouver des modèles et de générer des hypothèses que les humains pourraient autrement manquer. Nous entrons dans une nouvelle ère de la méthode scientifique, où les machines ne remplacent pas les scientifiques, mais deviennent leurs partenaires.

2. L’un des exemples les plus marquants est AlphaFold de DeepMind. En 2020, ce système d’IA a résolu l’un des plus grands problèmes de la biologie : prédire la structure 3D des protéines à partir de leur séquence d’acides aminés. Auparavant, cela prenait des années, mais maintenant, cela ne prend que quelques minutes. AlphaFold a prédit la structure de plus de 200 millions de protéines, dont toutes les protéines humaines connues, ce qui a révolutionné la biomédecine.

3. En astronomie, l’IA analyse des millions d’images provenant de télescopes et identifie des galaxies, des exoplanètes et des anomalies. Par exemple, les réseaux neuronaux ont permis de découvrir de nouvelles exoplanètes dans les données de Kepler, ignorées par les méthodes classiques. L’IA est également utilisée pour classer les types de galaxies et rechercher des lentilles gravitationnelles (courbures de la lumière causées par des objets massifs).

4. En climatologie, l’IA modélise la météo et le changement climatique avec une précision sans précédent. Des systèmes comme NVIDIA Earth-2 créent des jumeaux numériques de la Terre, permettant de prédire les ouragans, les sécheresses et la fonte des glaciers des années à l’avance. Cela aide les gouvernements à se préparer aux catastrophes et à élaborer des stratégies d’adaptation.

Pages : 1 2 3

Publicité

1. Les exoplanètes sont des planètes en orbite autour d’étoiles extérieures à notre système solaire. La première découverte confirmée d’une exoplanète remonte à 1992, lorsque les astronomes Alex Wolzzan et Dale Frail ont découvert trois planètes autour du pulsar PSR B1257+12. Depuis, le nombre d’exoplanètes connues a dépassé les 5 500 et continue de croître. Chaque nouvelle découverte nous rapproche de la réponse à la question ancestrale : sommes-nous seuls dans l’Univers ?

2. Les principales méthodes de détection des exoplanètes sont la méthode du transit et la vitesse radiale. La méthode du transit consiste à observer la diminution de luminosité d’une étoile lorsqu’une planète passe devant elle. Le satellite TESS (Transiting Exoplanet Survey Satellite) de la NASA utilise cette approche et scrute plus de 200 000 étoiles. La méthode de la vitesse radiale mesure les oscillations d’une étoile sous l’influence de la gravité de la planète : elle oscille légèrement.

3. L’un des instruments les plus productifs a été le télescope spatial Kepler, en activité de 2009 à 2018. Il a permis de découvrir plus de 2 600 exoplanètes, la plupart de la taille de Neptune ou plus petites. Kepler a contribué à établir la fréquence des petites planètes dans la galaxie. La plupart d’entre elles sont des super-Terres ou des mini-Neptunes, témoignant d’une diversité de systèmes planétaires.

4. Une attention particulière est portée aux planètes situées dans la zone habitable, la région autour d’une étoile où la température permet la présence d’eau liquide. L’une des plus célèbres est Proxima Centauri b, qui orbite autour de l’étoile la plus proche de nous. Elle se trouve à seulement 4,2 années-lumière de nous, mais ses conditions peuvent être difficiles en raison d’une intense activité stellaire. Elle reste néanmoins une cible pour les missions futures.

Pages : 1 2 3

Publicité

1. Les ordinateurs quantiques ne sont pas de simples versions plus puissantes des ordinateurs classiques, mais une approche fondamentalement différente du traitement de l’information. Alors que les ordinateurs traditionnels utilisent des bits (0 ou 1), les ordinateurs quantiques fonctionnent avec des qubits, qui peuvent être à l’état 0, 1 ou les deux simultanément grâce au phénomène quantique de superposition. Cela leur permet d’effectuer des millions de calculs en parallèle, ouvrant la voie à la résolution de problèmes inaccessibles même aux supercalculateurs les plus puissants.

2. Un autre principe clé est l’intrication. Lorsque deux qubits sont intriqués, un changement d’état de l’un affecte instantanément l’état de l’autre, quelle que soit la distance qui les sépare. Cette propriété permet aux ordinateurs quantiques de traiter des données complexes et interconnectées à des vitesses incroyables. Albert Einstein appelait cela « l’action étrange à distance », mais elle est aujourd’hui devenue la base de l’informatique avancée.

3. Les premiers ordinateurs quantiques expérimentaux sont apparus dans les années 1990, mais ce n’est qu’en 2019 que Google a annoncé sa suprématie quantique : son processeur Sycamore a réalisé en 200 secondes une tâche qui aurait pris 10 000 ans à un supercalculateur. Bien qu’il s’agisse d’un test synthétique, il est devenu un symbole du passage de la théorie à la pratique. Depuis, IBM, Intel, Honeywell et des chercheurs chinois ont activement accru la puissance de leurs systèmes.

4. Aujourd’hui, les ordinateurs quantiques sont utilisés dans les simulations scientifiques, notamment en chimie et en science des matériaux. Ils peuvent par exemple modéliser le comportement des molécules pour développer de nouveaux médicaments ou des supraconducteurs. Les ordinateurs classiques ne peuvent pas gérer de telles tâches en raison de la croissance exponentielle des possibilités d’interaction. Les systèmes quantiques, au contraire, imitent « naturellement » les processus quantiques.

Pages : 1 2 3

Publicité