Auteur - Rédaction

Micro-braille plus petit qu’une tête d’épingle : l’exploit d’un polymère innovant

Micro-braille plus petit qu'une tête d'épingle : l'exploit d'un polymère innovant

Les lasers de haute puissance sont couramment utilisés pour modifier les surfaces polymères afin de fabriquer des produits biomédicaux de haute technologie, des composants électroniques et de stockage de données. Une équipe de chercheurs de l’Université Flinders a découvert un polymère dérivé du soufre, peu coûteux et sensible à la lumière, qui réagit aux lasers à lumière visible de faible puissance.

Les détails de ce nouveau système ont été publiés dans l’une des revues de chimie, Angewandte Chemie International Edition. L’article présente notamment une version gravée au laser de la célèbre peinture de la Joconde et une impression en micro-braille plus petite qu’une tête d’épingle.

Selon le professeur de chimie Matthew Flinders, Justin Chalker, de l’Université Flinders, « cette découverte pourrait permettre de réduire le besoin en équipements spécialisés coûteux, notamment en lasers de haute puissance présentant un risque de rayonnement dangereux, tout en utilisant des matériaux plus durables. Par exemple, le polymère clé est fabriqué à partir de soufre élémentaire à faible coût, un sous-produit industriel, et de cyclopentadiène ou de dicyclopentadiène. »

Les applications potentielles comprennent de nouvelles approches pour le stockage des données sur les polymères, de nouvelles surfaces à motifs pour les applications biomédicales et de nouvelles façons de fabriquer des dispositifs à micro- et nano-échelle pour l’électronique, les capteurs et la microfluidique. Crédit : Flinders University

Une réactivité immédiate à la lumière laser

L’étude a utilisé une série de lasers avec des longueurs d’onde discrètes (532, 638 et 786 nm) et des puissances variables pour démontrer une variété de modifications de surface sur ces polymères spéciaux, notamment un gonflement contrôlé ou une gravure par ablation.

Dès que la lumière laser touche la surface, le polymère gonfle ou grave instantanément un creux pour façonner des lignes, des trous, des pointes et des canaux. Cette découverte a été faite par le chercheur de l’Université Flinders et co-auteur de l’étude, le Dr Christopher Gibson, lors de ce qui devait être une analyse de routine d’un polymère inventé pour la première fois au Chalker Lab en 2022.

Christopher Gibson, chercheur principal à l’université Flinders, a découvert qu’un nouveau polymère inventé dans le laboratoire Chalker en 2022 pouvait être immédiatement modifié par une lumière laser visible de faible puissance. Crédit : Flinders University

De multiples applications potentielles

Abigail Mann, doctorante au Collège des sciences et de l’ingénierie de Flinders et premier auteur de l’article, a dirigé la phase suivante du projet. « Le résultat de ces efforts est une nouvelle technologie permettant de générer des motifs précis sur la surface du polymère », explique-t-elle.

Les applications potentielles comprennent de nouvelles approches pour stocker des données sur des polymères, de nouvelles surfaces structurées pour des applications biomédicales, et de nouvelles façons de fabriquer des dispositifs à l’échelle micro et nanométrique pour l’électronique, les capteurs et la microfluidique.

Le Dr Lynn Lisboa, associée de recherche, ajoute : « L’impact de cette découverte s’étend bien au-delà du laboratoire, avec des utilisations potentielles dans les dispositifs biomédicaux, l’électronique, le stockage d’informations, la microfluidique et de nombreuses autres applications de matériaux fonctionnels. »

En synthèse

Cette découverte d’un polymère dérivé du soufre sensible à la lumière laser de faible puissance ouvre de nouvelles perspectives pour la production durable de dispositifs de haute technologie. Grâce à sa réactivité immédiate et contrôlable, ce matériau innovant pourrait trouver de multiples applications dans des domaines variés comme la biomédecine, l’électronique ou le stockage de données. Les chercheurs de l’Université Flinders espèrent inspirer un large éventail d’applications concrètes dans leur laboratoire et au-delà.

Pour une meilleure compréhension

Qu’est-ce qu’un polymère dérivé du soufre ?

Un polymère dérivé du soufre est un matériau composé de longues chaînes moléculaires contenant principalement des atomes de soufre. Dans cette étude, le polymère clé est fabriqué à partir de soufre élémentaire, un sous-produit industriel, et de cyclopentadiène ou de dicyclopentadiène.

Quels sont les avantages de ce nouveau polymère sensible à la lumière ?

Ce polymère réagit aux lasers à lumière visible de faible puissance, ce qui permet une production plus abordable et plus sûre par rapport aux lasers de haute puissance couramment utilisés. De plus, il est fabriqué à partir de matériaux durables et peu coûteux.

Comment le laser modifie-t-il la surface du polymère ?

Dès que la lumière laser touche la surface, le polymère gonfle ou grave instantanément un creux pour façonner des lignes, des trous, des pointes et des canaux. L’étude a démontré qu’il est possible de contrôler le type et la taille de ces modifications en ajustant les paramètres du laser.

Quelles sont les applications potentielles de cette découverte ?

Les applications potentielles comprennent de nouvelles approches pour stocker des données sur des polymères, de nouvelles surfaces structurées pour des applications biomédicales, et de nouvelles façons de fabriquer des dispositifs à l’échelle micro et nanométrique pour l’électronique, les capteurs et la microfluidique.

Quel est l’impact de cette découverte au-delà du laboratoire ?

Cette découverte pourrait avoir un impact significatif dans de nombreux domaines, tels que les dispositifs biomédicaux, l’électronique, le stockage d’informations, la microfluidique et de nombreuses autres applications de matériaux fonctionnels. Les chercheurs espèrent inspirer un large éventail d’applications concrètes grâce à ce nouveau matériau innovant.

Références

Légende illustration : Le premier auteur, Mme Abigail Mann, candidate au doctorat, à côté du laser de faible puissance, à gauche, Jason Gascooke, spectroscopiste à l’ANFF, et Lynn Lisboa, avec l’image du laser “micro-Lisa” affichée sur un écran d’ordinateur normal. Crédit : Flinders University

Article : “Modification of Polysulfide Surfaces with Low-Power Lasers” – DOI: 10.1002/anie.202404802

Une approche en tandem pour de meilleures cellules solaires

Une approche en tandem pour de meilleures cellules solaires

Les cellules solaires à base de pérovskite représentent une percée dans le domaine de l’énergie solaire. Leur potentiel pour améliorer l’efficacité et la rentabilité des panneaux solaires suscite un vif intérêt dans la communauté scientifique. Pour que cette technologie passe du laboratoire à la production commerciale, plusieurs défis doivent encore être relevés.

Les pérovskites, plus précisément les halogénures de plomb méthylammonium, ont été découvertes en 2009 pour leurs excellentes propriétés d’absorption de la lumière. Bien que l’efficacité des premières cellules solaires à base de pérovskite était modeste, cela a marqué le début d’une nouvelle voie dans la recherche photovoltaïque.

L’enthousiasme suscité par les pérovskites s’explique par le fait qu’elles peuvent être créées à basse température et facilement déposées sur la plupart des surfaces, y compris les surfaces flexibles, les rendant plus légères, plus adaptables et potentiellement moins chères que les panneaux solaires en silicium.

La technologie tandem : combiner pérovskite et silicium

Aujourd’hui, il est clair que les futures cellules solaires incluront probablement ces pérovskites en combinaison avec le silicium traditionnel.

Erkan Aydin, Stefaan De Wolf et une équipe de KAUST ont examiné comment cette technologie tandem peut sortir du laboratoire et être produite à grande échelle pour une fabrication commerciale.

Selon Erkan Aydin, « Les cellules solaires à base de pérovskite et de silicium se sont toutes deux révélées très efficaces ; cependant, leur utilisation conjointe en tandem dans une seule cellule permet une meilleure utilisation de la lumière du soleil en minimisant les pertes qui ne sont pas converties en charge électrique. »

Les défis de la fabrication à grande échelle

Erkan Aydin et ses co-auteurs ont recensé les développements dans la fabrication de cellules solaires tandem qui permettent d’augmenter la taille et l’efficacité de conversion de l’énergie. Mais ils soulignent que d’autres approches sont nécessaires pour les rendre commercialement viables.

Un défi, par exemple, est que la topographie de la surface du silicium affecte le dépôt de la pérovskite. Les dispositifs de laboratoire les plus performants à ce jour ont utilisé l’enduction centrifuge d’une encre de précurseur de pérovskite combinée à un traitement antisolvant. Cette approche ne convient pas encore au traitement commercial car elle est difficile à mettre à l’échelle et gaspille beaucoup de matériau.

La fiabilité et la durabilité des cellules tandem

Une autre considération est que l’humidité, la chaleur et leur combinaison avec la lumière accélèrent la dégradation des sous-cellules de pérovskite. Les auteurs détaillent divers tests de vieillissement accéléré et d’environnement réel sur les cellules solaires tandem pérovskite/silicium et soulignent la nécessité d’efforts ciblés dans cette direction.

Selon Erkan Aydin, « Je pense que le plus grand défi est d’augmenter la fiabilité des sous-cellules de pérovskite. Les activités de recherche que nous avons menées jusqu’à présent ont indiqué que nous n’avons pas encore atteint de limite fondamentale, nous avons donc besoin d’efforts plus concentrés pour réaliser des dispositifs stables à long terme. »

En synthèse

Les modules tandem de preuve de concept ont déjà été introduits. Cependant, compte tenu des défis pratiques importants, il n’est pas encore clair quand les tandems pérovskite/silicium atteindront le niveau du marché. Néanmoins, le succès dans le développement de cellules solaires commerciales efficaces est vital pour répondre à la demande croissante d’énergie tout en réduisant l’impact environnemental.

Pour une meilleure compréhension

Qu’est-ce que les pérovskites et pourquoi suscitent-elles tant d’intérêt ?

Les pérovskites, en particulier les halogénures de plomb méthylammonium, sont des matériaux qui possèdent d’excellentes propriétés d’absorption de la lumière. Elles peuvent être créées à basse température et facilement déposées sur diverses surfaces, les rendant prometteuses pour la fabrication de cellules solaires plus légères, adaptables et abordables que les panneaux en silicium.

Qu’est-ce que la technologie tandem et quels sont ses avantages ?

La technologie tandem consiste à combiner des cellules solaires à base de pérovskite avec des cellules en silicium traditionnel. Cette approche permet une meilleure utilisation de la lumière du soleil en minimisant les pertes d’énergie, augmentant ainsi l’efficacité globale de la cellule solaire.

Quels sont les défis de la fabrication des cellules tandem pérovskite/silicium ?

Les principaux défis incluent l’optimisation du dépôt de la pérovskite sur la surface du silicium, le développement de méthodes de fabrication adaptées à la production commerciale, ainsi que l’amélioration de la fiabilité et de la durabilité des sous-cellules de pérovskite face à l’humidité, la chaleur et la lumière.

Où en est la recherche actuelle sur les cellules tandem pérovskite/silicium ?

Des modules tandem de preuve de concept ont déjà été introduits, démontrant le potentiel de cette technologie. Cependant, des efforts de recherche supplémentaires sont nécessaires pour surmonter les défis pratiques et atteindre un niveau de performance et de fiabilité suffisant pour une commercialisation à grande échelle.

Quelle est l’importance du développement de cellules solaires tandem efficaces ?

Le succès dans le développement de cellules solaires commerciales efficaces est crucial pour répondre à la demande croissante d’énergie mondiale tout en réduisant l’impact environnemental. Les cellules tandem pérovskite/silicium pourraient jouer un rôle clé dans la transition vers une énergie propre et durable.

Références

Légende illustration : Un examen du potentiel de la combinaison des cellules solaires au silicium avec des matériaux pérovskites met en évidence la façon de développer cette technologie. 2024 KAUST ; Heno Hwang.

Article : “Pathways toward commercial perovskite/silicon tandem photovoltaics” – DOI: 10.1126/science.adh3849 . Auteurs : Aydin, E., Allen, T.B., De Bastiani, M., Razzaq, A., Xu, L., Ugur, E., Liu, J. & De Wolf, S. Pathways toward commercial perovskite/silicon tandem photovoltaics.

Laser à fibre femtoseconde visible : 1 W de puissance moyenne atteint

Laser à fibre femtoseconde visible : 1 W de puissance moyenne atteint

Les lasers à impulsions ultracourtes ont connu des progrès remarquables ces dernières années dans de nombreuses applications et domaines aussi variés que l’industrie, l’énergie et les sciences de la vie. Parmi les différentes plateformes laser développées, les oscillateurs à fibre femtoseconde se distinguent par leur design compact, leurs performances exceptionnelles et leur rentabilité.

Leurs longueurs d’onde de fonctionnement sont toutefois principalement limitées à la région infrarouge restreignant leur applicabilité dans de nombreux domaines nécessitant des sources de lumière dans le visible. L’extension des oscillateurs à fibre femtoseconde compacts à de nouvelles longueurs d’onde visibles est depuis longtemps un défi et un objectif ardemment poursuivi dans la science des lasers.

Les lasers à fibre visibles actuels

Actuellement, la majorité des lasers à fibre visibles utilisent des fibres fluorées dopées aux terres rares, comme le Pr3+, comme milieu de gain efficace. Au fil des années, des progrès remarquables ont été réalisés dans le développement de lasers à fibre visibles accordables en longueur d’onde, de haute puissance, à commutation Q et à verrouillage de modes.

Aussi, malgré les progrès significatifs dans la région proche infrarouge, le verrouillage de modes femtoseconde dans les lasers à fibre visibles reste une tâche exceptionnellement difficile. Ce défi est attribué au sous-développement des composants optiques ultrarapides aux longueurs d’onde visibles, à la disponibilité limitée de modulateurs visibles hautes performances et à la dispersion extrêmement normale rencontrée dans les cavités laser à fibre visibles.

L’attention s’est récemment portée sur les oscillateurs à fibre à verrouillage de modes femtoseconde dans le proche infrarouge utilisant un miroir à boucle amplificatrice non linéaire à polarisation (PB-NALM). Le PB-NALM élimine le besoin de longues fibres intracavitaires pour accumuler les déphasages. Cette innovation facilite non seulement la flexibilité d’accord et le fonctionnement à longue durée de vie, mais offre également la possibilité de gérer la dispersion intracavitaire dans un espace de paramètres plus large, des régimes de dispersion normale à anormale.

Par conséquent, on s’attend à ce qu’elle catalyse une percée dans le verrouillage de modes femtoseconde direct des lasers à fibre visibles et propulse les oscillateurs à fibre femtoseconde dans la bande visible.

Une nouvelle avancée dans les lasers à fibre femtoseconde visibles

Des chercheurs du Laboratoire du Fujian sur la technologie et les applications des lasers ultrarapides de l’Université de Xiamen ont récemment développé un oscillateur et un amplificateur à fibre à verrouillage de modes femtoseconde à lumière visible, comme rapporté dans Advanced Photonics Nexus.

L’oscillateur à fibre femtoseconde, qui émet une lumière rouge à 635 nm, utilise une configuration de cavité en forme de neuf. Il applique une fibre fluorée dopée au Pr3+ à double gaine comme milieu de gain visible, intègre un PB-NALM à longueur d’onde visible pour le verrouillage de modes et utilise une paire de réseaux de diffraction personnalisés à haute efficacité et haute densité de traits pour la gestion de la dispersion.

Un verrouillage de modes auto-démarrant visible établi par le PB-NALM produit directement des impulsions laser rouges avec une durée d’impulsion de 199 fs et un taux de répétition de 53,957 MHz à partir de l’oscillateur. Un contrôle précis de l’espacement de la paire de réseaux peut faire passer l’état d’impulsion d’un soliton dissipatif ou étiré à un soliton conventionnel.

De plus, un système d’amplification d’impulsions à dérive de fréquence construit à côté de l’oscillateur augmente considérablement les performances du laser, résultant en une puissance de sortie moyenne supérieure à 1 W, une énergie d’impulsion de 19,55 nJ et une durée d’impulsion déchirpée de 230 fs.

Le professeur Zhengqian Luo, chef du département d’ingénierie électronique de l’Université de Xiamen, précise : « Notre résultat représente une étape concrète vers des lasers à fibre femtoseconde de haute puissance couvrant la région spectrale visible et pourrait avoir des applications importantes dans le traitement industriel, la biomédecine et la recherche scientifique. »

Perspectives d’avenir

Les auteurs prévoient que leur nouveau schéma de génération de laser à fibre femtoseconde à lumière visible haute performance jettera les bases des lasers à fibre femtoseconde à lumière visible pour servir dans des applications telles que le traitement de précision des matériaux spéciaux, la biomédecine, la détection sous-marine et les horloges atomiques optiques.

Article by J. Zou, Q. Ruan, et al., “635 nm femtosecond fiber laser oscillator and amplifier,” Adv. Photon. Nexus 3(2) 026004 (2024), doi 10.1117/1.APN.3.2.026004

Un catalyseur 44 fois plus efficace pour transformer le CO2 en méthanol

Un catalyseur 44 fois plus efficace pour transformer le CO2 en méthanol

Les chercheurs ont franchi une étape importante dans la lutte contre le changement climatique en transformant le CO2 en méthanol grâce à une nouvelle technique de photocatalyse. Cette découverte pourrait offrir une alternative durable aux méthodes traditionnelles de production de méthanol à partir de combustibles fossiles.

Des chercheurs de l’Université de Nottingham, de l’Université de Birmingham, de l’Université du Queensland et de l’Université d’Ulm ont conçu un matériau composé d’atomes de cuivre déposés sur du nitrure de carbone nanocristallin. Cette structure permet aux électrons de se déplacer du nitrure de carbone vers le CO2, une étape essentielle dans la production de méthanol à partir de CO2 sous l’influence du rayonnement solaire.

Le Dr Madasamy Thangamuthu, chercheur à l’École de chimie de l’Université de Nottingham et co-responsable de l’équipe de recherche, explique : « Nous avons développé une nouvelle forme de nitrure de carbone avec des domaines nanocristallins qui permettent une interaction efficace avec la lumière ainsi qu’une séparation de charge suffisante. »

Un process de fabrication pour optimiser les propriétés du matériau

Les chercheurs ont mis au point un processus de chauffage du nitrure de carbone pour atteindre le degré de cristallinité requis, maximisant ainsi les propriétés fonctionnelles de ce matériau pour la photocatalyse. Ils ont ensuite déposé du cuivre atomique par pulvérisation cathodique magnétron, permettant un contact intime entre le semi-conducteur et les atomes métalliques.

Tara LeMercier, doctorante qui a réalisé les travaux expérimentaux à l’École de chimie de l’Université de Nottingham, souligne : « Même sans cuivre, la nouvelle forme de nitrure de carbone est 44 fois plus active que le nitrure de carbone traditionnel. Cependant, à notre grande surprise, l’ajout de seulement 1 mg de cuivre par gramme de nitrure de carbone a quadruplé cette efficacité. »

Un catalyseur durable composé d’éléments abondants sur Terre

Le professeur Andrei Khlobystov de l’École de chimie de l’Université de Nottingham souligne un avantage majeur de ce nouveau catalyseur : « Il est composé d’éléments durables – carbone, azote et cuivre – tous très abondants sur notre planète. »

Cette invention représente une étape significative vers une compréhension approfondie des matériaux photocatalytiques dans la conversion du CO2. Elle ouvre la voie à la création de catalyseurs hautement sélectifs et ajustables où le produit souhaité pourrait être obtenu en contrôlant le catalyseur à l’échelle nanométrique.

Financement pour développer des matériaux catalytiques durables

Ce travail est financé par la subvention du programme EPSRC «Metal atoms on surfaces and interfaces (MASI) for sustainable future» (www.masi.ac.uk) qui vise à développer des matériaux catalytiques pour la conversion de trois molécules clés – le dioxyde de carbone, l’hydrogène et l’ammoniac – d’une importance cruciale pour l’économie et l’environnement.

L’Université de Nottingham est dédiée à la promotion des technologies vertes et durables. Le Zero Carbon Cluster a été créé dans les East Midlands pour accélérer le développement et le déploiement de l’innovation dans les industries vertes et la fabrication avancée.

Légende illustration : Le processus de conversion du CO2 en méthanol (carburant) par la lumière. Crédit : University of Nottingham

Article : “La synergie entre le nitrure de carbone nanocristallin et le catalyseur à atome unique de Cu conduit à une réduction photocatalytique sélective du CO2 en méthanol” – DOI: 10.1039/D4SE00028E

Des chercheurs exploitent le soleil pour produire une alternative énergétique propre

Des chercheurs exploitent le soleil pour produire une alternative énergétique propre

Les chercheurs de l’Université de Caroline du Nord à Chapel Hill ont développé une approche innovante pour exploiter l’énergie solaire afin de produire de l’hydrogène, une source d’énergie propre potentielle, à partir de l’eau. Cette découverte ouvre de nouvelles perspectives dans le domaine des technologies énergétiques durables et efficaces.

L’étude, intitulée « Catalyst Self-Assembly Accelerates Bimetallic Light-driven Electrocatalytic H2 Evolution in Water », ou en français « L’auto-assemblage des catalyseurs accélère l’évolution électrocatalytique bimétallique de H2 dans l’eau sous l’effet de la lumière » a été publiée dans la revue scientifique Nature Chemistry. Elle explore un système utilisant la lumière et l’électricité pour scinder l’eau en ses éléments constitutifs : l’hydrogène et l’oxygène.

L’équipe de recherche, dirigée par le chimiste Alexander Miller, a découvert que l’on peut inciter les catalyseurs à s’auto-assembler en globules, ce qui améliore leur capacité à absorber la lumière et à créer les liaisons chimiques nécessaires à la production d’hydrogène. Cette découverte représente une contribution majeure dans le domaine de la catalyse et ouvre la voie au développement de technologies énergétiques efficaces et durables.

Un processus clé dans les technologies des énergies renouvelables

La dissociation de l’eau est un processus clé dans les technologies des énergies renouvelables, en particulier pour la production d’hydrogène en tant que carburant propre et durable. L’hydrogène obtenu à partir de l’eau peut être utilisé dans les piles à combustible, les moteurs à combustion et d’autres applications, avec pour seul sous-produit de la vapeur d’eau.

Selon Alexander Miller, « La dissociation de l’eau a le potentiel de stocker l’énergie solaire sous forme de liaisons chimiques, ce qui permet de pallier la nature intermittente de la production d’énergie solaire ». La recherche de méthodes efficaces et rentables pour la dissociation de l’eau demeure un domaine d’intérêt majeur dans le secteur des énergies renouvelables et du développement durable.

Des techniques d’analyse innovantes

Les chercheurs ont également utilisé une technique spéciale appelée diffusion dynamique de la lumière, également connue sous le nom de spectroscopie de corrélation de photons, pour mesurer la taille des catalyseurs en analysant les fluctuations de l’intensité de la lumière diffusée. La technique employée non invasive a fourni des informations précieuses sur la taille, la forme et la distribution des catalyseurs.

De plus, ils ont eu recours à un outil analytique appelé spectroscopie par résonance magnétique nucléaire, qui a confirmé qu’au sein de ces particules, les catalyseurs étaient proches les uns des autres. Les micelles plus grandes produisaient de l’hydrogène plus rapidement.

En synthèse

Cette étude menée représente une avancée dans le domaine de la production d’hydrogène à partir de l’eau, en utilisant l’énergie solaire. Grâce à une approche innovante basée sur l’auto-assemblage de catalyseurs en globules, ils ont réussi à améliorer l’efficacité du processus de dissociation de l’eau.

Pour une meilleure compréhension

Qu’est-ce que la dissociation de l’eau ?

La dissociation de l’eau est un processus chimique qui consiste à séparer les molécules d’eau (H2O) en leurs éléments constitutifs : l’hydrogène (H2) et l’oxygène (O2). Ce processus nécessite un apport d’énergie, qui peut provenir de différentes sources, comme l’électricité ou la lumière.

Pourquoi l’hydrogène est-il considéré comme une source d’énergie propre ?

L’hydrogène est considéré comme une source d’énergie propre car sa combustion ne produit que de l’eau comme sous-produit, contrairement aux combustibles fossiles qui émettent du dioxyde de carbone (CO2) et d’autres polluants.

De plus, l’hydrogène peut être produit à partir de sources renouvelables, comme l’eau et l’énergie solaire, ce qui en fait une option durable pour la transition énergétique.

Qu’est-ce qu’un catalyseur ?

Un catalyseur est une substance qui accélère une réaction chimique sans être consommée dans le processus. Les catalyseurs abaissent l’énergie d’activation nécessaire pour que la réaction se produise, ce qui permet d’augmenter la vitesse de réaction et l’efficacité du processus.

Quelles sont les applications potentielles de l’hydrogène produit à partir de l’eau ?

L’hydrogène produit à partir de l’eau peut être utilisé dans diverses applications, notamment dans les piles à combustible pour produire de l’électricité, dans les moteurs à combustion comme carburant alternatif, et pour le stockage d’énergie à long terme. L’hydrogène peut également être utilisé dans l’industrie chimique pour la production d’engrais, de plastiques et d’autres produits.

Quels sont les défis à relever pour une utilisation généralisée de l’hydrogène ?

Malgré ses avantages, l’utilisation généralisée de l’hydrogène comme source d’énergie fait face à plusieurs défis, notamment le coût élevé des technologies de production et de stockage, l’absence d’infrastructures de distribution à grande échelle, et les préoccupations en matière de sécurité liées à la manipulation et au stockage de l’hydrogène. Des efforts de recherche et de développement sont en cours pour surmonter ces obstacles et permettre une adoption plus large de l’hydrogène comme source d’énergie propre et durable.

Références


Article : “Catalyst Self-Assembly Accelerates Bimetallic Light-driven Electrocatalytic H2 Evolution in Water.” Nature Chemistry. s41557-024-01483-3

L’oxygène du corps, nouvelle source d’énergie pour les implants médicaux

L'oxygène du corps, nouvelle source d'énergie pour les implants médicaux

Les dispositifs médicaux implantables, tels que les stimulateurs cardiaques et les neurostimulateurs, sont essentiels pour maintenir la santé et le bien-être de nombreux patients. Leur dépendance aux batteries conventionnelles pose toutefois des défis en termes de durée de vie limitée et de nécessité d’interventions chirurgicales invasives pour leur remplacement.

Des chercheurs chinois ont développé une nouvelle approche pour résoudre ces problèmes en créant une batterie implantable qui utilise l’oxygène présent dans le corps comme source d’énergie.

Une batterie “révolutionnaire” alimentée par l’oxygène du corps

Dans une étude publiée dans la revue scientifique Chem, les chercheurs de l’Université de Technologie de Tianjin ont présenté une batterie implantable innovante qui tire son énergie de l’oxygène présent dans l’organisme. Selon Xizheng Liu, auteur principal de l’étude et spécialiste des matériaux et dispositifs énergétiques, cette approche permet de s’affranchir des limites de durée de vie imposées par les matériaux finis des batteries conventionnelles.

Pour concevoir une batterie sûre et efficace, les chercheurs ont utilisé des électrodes composées d’un alliage à base de sodium et d’or nanoporeux, un matériau dont les pores sont des milliers de fois plus petits que l’épaisseur d’un cheveu. L’or est connu pour sa compatibilité avec les systèmes vivants, tandis que le sodium est un élément essentiel et omniprésent dans le corps humain. Les électrodes subissent des réactions chimiques avec l’oxygène présent dans l’organisme pour produire de l’électricité.

La batterie est protégée par un film polymère poreux, souple et flexible.

Des résultats prometteurs chez les rats

Les chercheurs ont implanté la batterie sous la peau du dos de rats et ont mesuré sa production d’électricité. Deux semaines après l’implantation, ils ont constaté que la batterie pouvait produire des tensions stables comprises entre 1,3 V et 1,4 V, avec une densité de puissance maximale de 2,6 µW/cm2. Bien que cette puissance soit insuffisante pour alimenter des dispositifs médicaux, la conception démontre qu’il est possible d’exploiter l’oxygène présent dans le corps pour produire de l’énergie.

L’équipe a également évalué les réactions inflammatoires, les changements métaboliques et la régénération tissulaire autour de la batterie. Les rats n’ont montré aucune inflammation apparente.

Les sous-produits des réactions chimiques de la batterie, notamment les ions sodium, les ions hydroxyde et de faibles niveaux de peroxyde d’hydrogène, ont été facilement métabolisés par l’organisme et n’ont pas affecté les reins et le foie. Les rats ont bien guéri après l’implantation, les poils de leur dos ayant complètement repoussé au bout de quatre semaines. À la surprise des chercheurs, des vaisseaux sanguins se sont également régénérés autour de la batterie.

Perspectives d’avenir et applications potentielles

L’équipe prévoit d’améliorer la production d’énergie de la batterie en explorant des matériaux plus efficaces pour les électrodes et en optimisant la structure et la conception de la batterie. Xizheng Liu a également souligné que la batterie est facile à produire à grande échelle et que le choix de matériaux rentables peut encore réduire son prix. La batterie développée par l’équipe pourrait également trouver d’autres applications au-delà de l’alimentation des dispositifs médicaux.

Étant donné que les cellules tumorales sont sensibles aux niveaux d’oxygène, l’implantation de cette batterie consommant de l’oxygène autour d’une tumeur pourrait contribuer à affamer les cellules cancéreuses. Il est également possible de convertir l’énergie de la batterie en chaleur pour détruire les cellules cancéreuses.

Selon Xizheng Liu, les perspectives de cette batterie sont passionnantes, allant d’une nouvelle source d’énergie à de potentielles biothérapies.

Légende illustration : Batterie Na-O2 implantable et biocompatible. Crédit : Chem/Lv et al.

Article : “Implantable and Bio-compatible Na-O2 battery” – DOI: 10.1016/j.chempr.2024.02.012

Le mystère des fullerènes dans l’espace expliqué

Le mystère des fullerènes dans l'espace expliqué

Les fullerènes, ces molécules de carbone complexes et résistantes, ont longtemps intrigué les scientifiques. Découverts en laboratoire en 1985, leur existence dans l’espace a depuis été confirmée à maintes reprises, notamment au sein des nébuleuses planétaires. Une récente étude menée par l’Institut d’astrophysique des Canaries (IAC) apporte un nouvel éclairage sur l’origine de ces mystérieuses molécules et leur rôle potentiel dans l’émergence de la vie sur Terre.

Les fullerènes sont des molécules de carbone de grande taille, complexes et extrêmement résistantes. Leurs atomes s’organisent en structures sphériques tridimensionnelles, alternant hexagones et pentagones, rappelant la forme d’un ballon de football (fullerènes C60) ou de rugby (fullerènes C70).

Découvertes en laboratoire en 1985, ces molécules ont valu à leurs trois découvreurs le prix Nobel de chimie onze ans plus tard. Depuis, de nombreuses preuves observationnelles de leur existence dans l’espace ont été rapportées, notamment au sein des nuages de gaz entourant les étoiles âgées et mourantes de la taille du Soleil, appelées nébuleuses planétaires, expulsés des couches externes de ces astres en fin de vie.

La stabilité et la résistance exceptionnelles des fullerènes laissent penser qu’ils pourraient agir comme des cages pour d’autres molécules et atomes, et ainsi avoir apporté des molécules complexes sur Terre, donnant une impulsion au démarrage de la vie. Leur étude est donc cruciale pour comprendre les processus physiques fondamentaux à l’œuvre dans l’organisation de la matière organique dans l’univers.

Une empreinte chimique mystérieuse

La spectroscopie est essentielle pour rechercher et identifier les fullerènes dans l’espace. Elle permet d’étudier la matière composant l’univers en analysant les empreintes chimiques laissées par les atomes et molécules sur la lumière qui nous parvient.

Une étude récente, entièrement menée par l’IAC, a analysé des données de spectroscopie infrarouge obtenues précédemment par des télescopes spatiaux, à partir de la nébuleuse planétaire Tc1. Ces spectres révèlent des raies spectrales indiquant la présence de fullerènes, mais aussi des bandes infrarouges plus larges (UIR pour Unidentified Infrared Bands en anglais), détectées à grande échelle dans l’univers, des petits corps du système solaire aux galaxies lointaines.

« L’identification des espèces chimiques à l’origine de cette émission infrarouge, largement présente dans l’univers, était un mystère astrochimique, bien qu’on ait toujours pensé qu’elle était probablement riche en carbone, l’un des éléments de base de la vie », explique Marco A. Gómez Muñoz, chercheur à l’IAC et principal auteur de l’étude.

Une nouvelle origine pour les fullerènes

Pour identifier ces mystérieuses bandes, l’équipe de recherche a reproduit l’émission infrarouge de la nébuleuse planétaire Tc 1. L’analyse des bandes d’émission a révélé la présence de grains de carbone amorphe hydrogéné (HAC). Ces composés de carbone et d’hydrogène dans un état hautement désordonné, très abondants dans les enveloppes des étoiles mourantes, peuvent rendre compte de l’émission infrarouge de cette nébuleuse.

« Nous avons combiné pour la première fois les constantes optiques du HAC, obtenues à partir d’expériences en laboratoire, avec des modèles de photoionisation, et en faisant cela, nous avons reproduit l’émission infrarouge de la nébuleuse planétaire Tc 1, très riche en fullerènes », explique Domingo Anibal García Hernández, chercheur à l’IAC et coauteur de l’article.

Pour l’équipe de recherche, la présence dans un même objet de HAC et de fullerènes étaye la théorie selon laquelle les fullerènes pourraient s’être formés lors du processus de destruction des grains de poussière, par exemple par interaction avec le rayonnement ultraviolet, bien plus énergétique que la lumière visible.

Avec ce résultat, les scientifiques ouvrent la voie à de futures recherches basées sur la collaboration entre chimie de laboratoire et astrophysique. « Notre travail montre clairement le grand potentiel de la science et de la technologie interdisciplinaires pour réaliser des avancées fondamentales en astrophysique et en astrochimie », conclut Gómez Muñoz.

Légende illustration : Centre de la nébuleuse planétaire M57, prise par l’astrophotographe Dr. Robert Gendler, et John Bozeman. Crédit : NASA/ESA

Article : “Grains de carbone amorphe hydrogénés comme support alternatif de la caractéristique de plateau 9-13 μm dans la nébuleuse planétaire fullerène Tc 1.” – DOI: 10.1051/0004-6361/202349087

Le pari audacieux des chercheurs pour décarboner le minage de cryptos

Le pari audacieux des chercheurs pour décarboner le minage de cryptos

La consommation d’énergie liée au minage de cryptomonnaies, connue pour son utilisation disproportionnée de combustibles à base de carbone, pourrait servir de fondement à un déploiement plus large des énergies renouvelables selon une nouvelle étude de l’Université Cornell. Les chercheurs proposent une solution innovante pour transformer ce qui était autrefois un défi environnemental en une force dynamique pour l’atténuation du changement climatique et la durabilité.

Selon un rapport de 2022 du Bureau de la science et de la technologie de la Maison Blanche, le minage de cryptomonnaies basé sur la blockchain aux États-Unis peut consommer autant d’énergie à base de carbone que l’ensemble du pays d’Argentine. Près de toute l’électricité nationale utilisée pour le minage de cryptomonnaies est générée par des mécanismes de consensus gourmands en énergie informatique, connus sous le nom de «preuve de travail», utilisés pour vérifier les actifs cryptographiques.

Les estimations préliminaires de l’Administration américaine d’information sur l’énergie suggèrent que la consommation annuelle d’électricité pour le minage de cryptomonnaies en 2023 représente probablement entre 0,6 % et 2,3 % de la consommation totale d’électricité aux États-Unis.

Le duo dynamique de l’hydrogène vert et des cryptomonnaies

Fengqi You, professeur d’ingénierie des systèmes énergétiques à Cornell, et Apoorv Lal, doctorant, sont les auteurs de l’étude «Climate Sustainability Through a Dynamic Duo: Green Hydrogen and Crypto Driving Energy Transition and Decarbonization», publiée dans les Proceedings of the National Academy of Sciences.

Leur recherche montre comment le fait de lier l’utilisation du minage de cryptomonnaies énergivore à la technologie de l’hydrogène vert peut stimuler les secteurs des énergies renouvelables.

« Construire une infrastructure d’hydrogène vert pour aider à produire des cryptomonnaies peut accélérer les énergies renouvelables et créer un paysage énergétique plus durable », a indiqué Apoorv Lal.

L’utilisation de sources d’énergie propre pour alimenter les opérations de minage de la blockchain et la production d’hydrogène vert conduiraient à une augmentation de la capacité éolienne et solaire, et à une expansion de la production d’énergie durable dans tout le pays, selon les chercheurs.

Évaluation du potentiel énergétique par État

Les scientifiques ont examiné les États américains individuels pour évaluer les forces énergétiques potentielles de chaque région. Le soutien aux cryptomonnaies peut accélérer la construction d’infrastructures énergétiques supplémentaires et potentiellement créer 78,4 mégawattheures d’énergie solaire pour chaque Bitcoin miné au Nouveau-Mexique, par exemple, et potentiellement 265,8 mégawattheures d’énergie éolienne pour chaque Bitcoin miné au Wyoming, selon l’article.

« Bien que les cryptomonnaies aient actuellement une valeur élevée en dollars (le Bitcoin s’échangeait à plus de 73 000 dollars le 13 mars), vous ne pouvez pas les tenir dans votre main », a précisé Fengqi You. « C’est virtuel. Pensez aux cryptomonnaies et à l’énergie de la même manière – un peu comme le concept de carte-cadeau. Les cryptomonnaies peuvent également avoir une valeur énergétique, ce qui devient une fonction supplémentaire. »

Nécessité de politiques fédérales plus fortes

Pour faire progresser un avenir durable pour les cryptomonnaies basées sur la blockchain, les chercheurs affirment que des politiques fédérales plus fortes en matière d’objectifs climatiques et d’énergies renouvelables doivent être mises en place.

« Associée à l’hydrogène vert, cette approche des cryptomonnaies non seulement atténue son propre impact environnemental, mais ouvre également la voie à une transition durable vers les énergies renouvelables », a conclu Fengqi You. « C’est une stratégie novatrice. »

En synthèse

L’étude menée par l’Université Cornell propose une solution innovante pour transformer l’impact environnemental du minage de cryptomonnaies en une force dynamique pour l’atténuation du changement climatique et la durabilité. En associant l’utilisation du minage de cryptomonnaies énergivore à la technologie de l’hydrogène vert, les chercheurs montrent comment stimuler les secteurs des énergies renouvelables et créer un paysage énergétique plus durable.

Pour une meilleure compréhension

Quel est l’impact actuel du minage de cryptomonnaies aux États-Unis ?

Selon un rapport de 2022 de la Maison Blanche, le minage de cryptomonnaies basé sur la blockchain aux États-Unis peut consommer autant d’énergie à base de carbone que l’ensemble du pays d’Argentine. Les estimations préliminaires suggèrent que la consommation annuelle d’électricité pour le minage de cryptomonnaies en 2023 représente probablement entre 0,6 % et 2,3 % de la consommation totale d’électricité aux États-Unis.

Quelle solution innovante les chercheurs proposent-ils pour atténuer cet impact ?

Les chercheurs proposent de lier l’utilisation du minage de cryptomonnaies énergivore à la technologie de l’hydrogène vert. Cette approche, qu’ils appellent le «duo dynamique», peut stimuler les secteurs des énergies renouvelables et créer un paysage énergétique plus durable.

Comment l’utilisation de renouvelables pour le minage peut-elle contribuer ?

L’utilisation de sources d’énergie propre pour alimenter les opérations de minage de la blockchain et la production d’hydrogène vert peut conduire à une augmentation de la capacité éolienne et solaire, et à une expansion de la production d’énergie durable dans tout le pays.

Quels sont les potentiels énergétiques identifiés par les chercheurs dans certains États

Les chercheurs ont évalué les forces énergétiques potentielles de chaque région. Par exemple, le soutien aux cryptomonnaies pourrait potentiellement créer 78,4 mégawattheures d’énergie solaire pour chaque Bitcoin miné au Nouveau-Mexique, et 265,8 mégawattheures d’énergie éolienne pour chaque Bitcoin miné au Wyoming.

Que faut-il pour faire progresser un avenir durable pour les cryptomonnaies ?

Pour faire progresser un avenir durable pour les cryptomonnaies basées sur la blockchain, les chercheurs affirment que des politiques fédérales plus fortes en matière d’objectifs climatiques et d’énergies renouvelables doivent être mises en place.

Références

Article : “Climate sustainability through a dynamic duo: Green hydrogen and crypto driving energy transition and decarbonization” – 10.1073/pnas.2313911121

Les “cannibales cosmiques” expulsent des jets dans l’espace à 40 % de la vitesse de la lumière

Les "cannibales cosmiques" expulsent des jets dans l'espace à 40 % de la vitesse de la lumière

Les astronomes ont réussi, pour la première fois, à mesurer la vitesse des jets de matière expulsés par des étoiles surnommées “cannibales cosmiques”. Cette découverte, publiée dans la revue Nature, apporte un nouvel éclairage sur les processus violents à l’œuvre dans l’univers, essentiels à la formation des étoiles et à la distribution des éléments nécessaires à la vie.

Grâce à une expérience innovante, les chercheurs ont pu déterminer que ces jets de matière se déplacent à plus d’un tiers de la vitesse de la lumière, soit environ 114 000 kilomètres par seconde. Cette prouesse a été rendue possible par l’utilisation astucieuse des explosions nucléaires qui se produisent à la surface de ces étoiles.

Jakob van den Eijnden, chercheur à l’Université de Warwick et co-auteur de l’étude, explique : « Les explosions se produisent sur des étoiles à neutrons, qui sont incroyablement denses et réputées pour leur énorme force gravitationnelle. Cette force les pousse à absorber le gaz de leur environnement, une attraction gravitationnelle qui n’est surpassée que par celle des trous noirs. »

Une pluie de matière à la surface des étoiles à neutrons

La matière, principalement de l’hydrogène provenant d’une étoile proche en orbite, tourbillonne vers l’étoile effondrée, tombant comme de la neige sur sa surface. Au fur et à mesure que de plus en plus de matière s’accumule, le champ gravitationnel la compresse jusqu’à ce qu’une explosion nucléaire incontrôlée soit déclenchée. Cette explosion a un impact sur les jets, qui sont également expulsés à partir de la matière en chute et éjectent des particules dans l’espace à très grande vitesse.

Thomas Russell, co-auteur de l’étude et chercheur à l’Institut National d’Astrophysique (INAF) de Palerme en Italie, précise : « Cela nous a donné une expérience parfaite. Nous avions une impulsion très brève et de courte durée de matière supplémentaire qui est projetée dans le jet et que nous pouvons suivre au fur et à mesure qu’elle se déplace le long du jet pour en apprendre davantage sur sa vitesse. »

Une collaboration internationale pour une découverte majeure

L’équipe a mis au point une méthode pour mesurer la vitesse et les propriétés des jets en comparant les signaux radio et rayons X captés par le réseau de télescopes Australia Telescope Compact Array (propriété et exploité par le CSIRO, l’agence scientifique nationale australienne) et le satellite Integral de l’Agence Spatiale Européenne (ESA).

Jakob van den Eijnden ajoute : « Ces explosions se produisent toutes les quelques heures, mais il est impossible de prédire exactement quand elles auront lieu. Il faut donc observer longuement avec les télescopes et espérer capter quelques explosions. Sur trois jours d’observations, nous avons vu 10 explosions et des jets s’illuminer. »

C’est la première fois que les astronomes ont pu anticiper et observer directement comment une certaine quantité de gaz est canalisée dans un jet et accélérée dans l’espace.

De nouvelles perspectives pour l’étude de l’univers

Nathalie Degenaar, co-auteure de l’étude et chercheuse à l’Université d’Amsterdam aux Pays-Bas, poursuit : « Sur la base des données précédentes, nous pensions que l’explosion détruirait l’endroit où le jet était lancé. Mais nous avons observé exactement le contraire : un apport important dans le jet plutôt qu’une perturbation. »

Les chercheurs pensent que la masse et la rotation des étoiles à neutrons et des trous noirs ont également un impact sur les jets. Ayant maintenant démontré que cette recherche est possible, cette étude servira de modèle pour de futures expériences sur les étoiles à neutrons et leurs jets. Les jets peuvent également être produits par des événements cataclysmiques tels que les explosions de supernovæ et les sursauts gamma. Ces nouveaux résultats auront une large applicabilité dans de nombreuses études du cosmos.

En synthèse

Cette découverte majeure, fruit d’une collaboration internationale, ouvre de nouvelles perspectives dans l’étude des processus violents à l’œuvre dans l’univers. En mesurant pour la première fois la vitesse des jets de matière expulsés par les étoiles à neutrons, les astronomes ont franchi une étape cruciale dans la compréhension de la formation des étoiles et de la distribution des éléments nécessaires à la vie. Ces résultats serviront de base pour de futures recherches sur les étoiles à neutrons, les trous noirs et les phénomènes cataclysmiques comme les supernovæ et les sursauts gamma.

Pour une meilleure compréhension

Qu’est-ce qu’une étoile à neutrons ?

Une étoile à neutrons est un objet céleste extrêmement dense, résultant de l’effondrement d’une étoile massive en fin de vie. Sa densité est telle qu’une cuillère à café de matière d’étoile à neutrons pèserait plusieurs milliards de tonnes sur Terre.

Comment se forment les jets de matière ?

Les jets de matière se forment lorsque du gaz, principalement de l’hydrogène, est attiré par la force gravitationnelle intense de l’étoile à neutrons. Ce gaz s’accumule à la surface de l’étoile jusqu’à ce qu’une explosion nucléaire se produise, projetant de la matière dans l’espace à très grande vitesse.

Quelle est l’importance de cette découverte ?

Cette découverte permet de mieux comprendre les processus violents à l’œuvre dans l’univers, essentiels à la formation des étoiles et à la distribution des éléments nécessaires à la vie. Elle ouvre également la voie à de futures recherches sur les étoiles à neutrons, les trous noirs et les phénomènes cataclysmiques.

Comment les astronomes ont-ils mesuré la vitesse des jets de matière ?

Les astronomes ont utilisé une combinaison d’observations radio et rayons X, captées par des télescopes au sol et un satellite. En comparant les signaux, ils ont pu suivre le déplacement de la matière dans les jets et en déduire leur vitesse.

Quelles sont les perspectives futures de cette recherche ?

Cette étude servira de modèle pour de futures expériences sur les étoiles à neutrons et leurs jets. Les résultats auront une large applicabilité dans de nombreuses études du cosmos, notamment sur les trous noirs et les phénomènes cataclysmiques tels que les supernovae et les sursauts gamma.

Références

Légende illustration : Cette impression d’artiste montre comment les explosions nucléaires d’une étoile à neutrons alimentent les jets qui jaillissent de ses régions polaires magnétiques. Au premier plan, au centre droit, une boule blanche très brillante représente l’étoile à neutrons. Des filaments blancs et violets s’échappent de sa région polaire. La boule est entourée d’une sphère plus large d’un blanc trouble, la couronne, et plus loin d’un disque avec des bandes concentriques de différentes couleurs, allant du blanc dans le disque intérieur à l’orange au milieu et au rouge-magenta dans la région extérieure. Une bande orange relie la partie extérieure du disque à une grande section jaune-orange-rouge d’une sphère dans le coin supérieur gauche. Il s’agit du compagnon stellaire de l’étoile à neutrons, qui alimente le disque autour du corps sphérique blanc brillant. Crédit : Danielle Futselaar et Nathalie Degenaar, Institut Anton Pannekoek, Université d’Amsterdam. Licence CC BY-SA 3.0

Article : “Thermonuclear explosions on neutron stars reveal the speed and feeding of their jets” 10.1038/s41586-024-07133-5

Vagues de chaleur et de froid : une opportunité pour les énergies vertes ?

Vagues de chaleur et de froid : une opportunité pour les énergies vertes ?

Les conditions météorologiques extrêmes, qu’il s’agisse de vagues de chaleur ou de froid intenses, mettent à rude épreuve les réseaux électriques. Une étude menée par des chercheurs de l’Université d’État de Washington révèle que ces mêmes conditions pourraient offrir des opportunités accrues pour capter l’énergie solaire et éolienne.

L’étude, publiée dans la revue Environmental Research Letters, a analysé les vagues de chaleur et de froid intenses dans les six régions interconnectées du réseau énergétique des États-Unis entre 1980 et 2021. Les chercheurs ont constaté que ces événements extrêmes s’accompagnent souvent d’un rayonnement solaire plus important et de vitesses de vent plus élevées, qui pourraient être exploités par des panneaux solaires et des éoliennes.

Deepti Singh, climatologue à l’Université d’État de Washington et auteure principale de l’étude, souligne l’importance de se préparer aux risques liés à ces événements extrêmes et de garantir un accès fiable à l’énergie lorsque les gens en ont le plus besoin. Elle suggère que l’utilisation accrue des énergies renouvelables pendant ces périodes pourrait aider à compenser l’augmentation de la demande d’énergie.

Un potentiel accru pour l’énergie solaire et éolienne

L’étude a montré un potentiel accru pour l’énergie solaire dans les six régions des États-Unis pendant les vagues de chaleur, et dans toutes les régions sauf une pendant les vagues de froid. Les chercheurs ont noté que les systèmes de haute pression atmosphérique qui provoquent une chaleur intense, comme la vague de chaleur qui a frappé le Nord-Ouest du Pacifique en 2021, se caractérisent souvent par des ciels dégagés et bleus, permettant à une plus grande partie du rayonnement solaire d’atteindre la Terre.

En ce qui concerne l’énergie éolienne, les conditions étaient plus variables, mais au moins trois régions présentaient un potentiel accru pour capter ce type d’énergie pendant les vagues de chaleur et de froid : le Nord-Est pendant les vagues de froid généralisées, et les réseaux du Texas et du Midwest pendant les vagues de chaleur.

L’impact du changement climatique sur les événements extrêmes

L’analyse a également montré que les grandes vagues de chaleur augmentent en fréquence, en particulier dans les réseaux de l’Ouest des États-Unis et du Texas, avec une hausse respective de 123 % et 132 %. Dans l’Ouest, elles gagnent également en intensité, en durée et en étendue. En revanche, les vagues de froid diminuent en fréquence, mais restent globalement similaires en termes d’intensité, de durée et d’étendue.

Toutes les régions connaissent une augmentation de la demande d’énergie pendant ces événements extrêmes, ce qui met à rude épreuve leurs réseaux électriques et souligne la nécessité de solutions alternatives.

Deepti Singh souligne que le développement de l’énergie solaire et éolienne pourrait améliorer la résilience des systèmes énergétiques pendant les événements extrêmes, tout en réduisant la pollution de l’air associée aux combustibles fossiles.

Il s’agit d’une question complexe, car nous devons tenir compte des vulnérabilités des infrastructures de transmission et de distribution, ainsi que de l’impact environnemental de l’expansion des systèmes solaires et éoliens, mais nous espérons que ces avantages nous donneront des raisons supplémentaires d’accélérer notre transition vers les énergies renouvelables“, a précisé Deepti Singh. “Il existe également des améliorations technologiques qui pourraient nous permettre de tirer parti de l’énergie renouvelable en cas de besoin. La capacité est là.

En synthèse

Cette étude met en lumière le potentiel de l’énergie solaire et éolienne pour renforcer les réseaux électriques face aux événements météorologiques extrêmes. L’expansion de ces sources d’énergie renouvelable pourrait non seulement améliorer la résilience climatique des infrastructures énergétiques du pays, mais aussi réduire la pollution de l’air et favoriser une distribution plus équitable de l’énergie.

Pour une meilleure compréhension

Quels principaux avantages pendant les événements météorologiques extrêmes ?

L’énergie solaire et éolienne peuvent aider à compenser l’augmentation de la demande d’énergie pendant les vagues de chaleur et de froid intenses, tout en réduisant la dépendance aux combustibles fossiles et la pollution de l’air associée.

Comment les caractéristiques des vagues de chaleur et de froid évoluent-elles ?

Les grandes vagues de chaleur augmentent en fréquence, en intensité, en durée et en étendue, en particulier dans l’Ouest des États-Unis et au Texas. Les vagues de froid, quant à elles, diminuent en fréquence mais restent globalement similaires en termes d’intensité, de durée et d’étendue.

Quels avantages supplémentaires, au-delà de la résilience des réseaux électriques ?

L’énergie solaire et éolienne réduisent la pollution de l’air associée aux combustibles fossiles, ce qui est bénéfique pour la santé humaine et les écosystèmes. De plus, ces sources d’énergie peuvent être installées plus près des communautés où elles sont utilisées, favorisant ainsi l’équité et l’accès à l’énergie.

Quelles sont les limites de cette étude et les perspectives futures ?

L’étude identifie le potentiel de l’énergie solaire et éolienne pour renforcer les réseaux électriques, mais des recherches et des développements supplémentaires sont nécessaires pour accroître la résilience des réseaux face à la variabilité et aux extrêmes climatiques. Il faut également prendre en compte les vulnérabilités des infrastructures de transmission et de distribution, ainsi que l’impact environnemental de l’expansion des systèmes solaires et éoliens.

Quel est le message clé de cette étude ?

Les événements météorologiques extrêmes ne vont pas disparaître de sitôt, et il est crucial de se préparer à leurs risques et de garantir un accès fiable à l’énergie lorsque les gens en ont le plus besoin. L’énergie solaire et éolienne offrent des opportunités pour renforcer la résilience des réseaux électriques tout en réduisant la dépendance aux combustibles fossiles et la pollution de l’air associée.

Références

Légende illustration: Photo par Bob Hubner/WSU Photo Services.

Singh, D., et al. (2023). Extreme temperature events in the United States: Potential for increased solar and wind energy capture. Environmental Research Letters. DOI: 10.1088/1748-9326/acbf8a

Des points quantiques alignés avec une précision inégalée

Des points quantiques alignés avec une précision inégalée

La microscopie traçable pourrait améliorer la fiabilité des technologies de l’information quantique, de l’imagerie biologique et bien plus encore. Les chercheurs du National Institute of Standards and Technology (NIST) et leurs collègues ont développé des normes et des calibrations pour les microscopes optiques permettant d’aligner des points quantiques avec le centre d’un composant photonique avec une précision de 10 à 20 nanomètres.

Les chercheurs du NIST, en collaboration avec des collègues du Joint Quantum Institute (JQI), ont créé des normes et des calibrations traçables au Système International d’Unités (SI) pour les microscopes optiques utilisés dans l’alignement des points quantiques. Cette méthode permet d’identifier et de corriger les erreurs de mesure, auparavant négligées, liées au rétrécissement des matériaux semi-conducteurs à basse température et aux imprécisions du processus de fabrication des normes de calibration.

L’équipe a développé deux types de normes traçables pour calibrer les microscopes optiques : une à température ambiante pour analyser le processus de fabrication, et une autre à température cryogénique pour mesurer la position des points quantiques. La norme à température ambiante consiste en un réseau de trous nanométriques espacés d’une distance fixe dans un film métallique, tandis que la norme à basse température est un réseau de piliers fabriqués sur une plaquette de silicium.

Amélioration des performances des dispositifs à points quantiques

Les chercheurs ont développé un modèle détaillé des erreurs de mesure et de fabrication dans l’intégration des points quantiques avec des composants photoniques à l’échelle de la puce. Ils ont étudié comment ces erreurs limitent la capacité des dispositifs à points quantiques à fonctionner comme prévu, révélant un potentiel d’amélioration des performances d’un facteur cent.

Selon Samuel Stavis, chercheur au NIST, « un chercheur pourrait être satisfait si un dispositif sur cent fonctionne pour sa première expérience, mais un fabricant pourrait avoir besoin que quatre-vingt-dix-neuf dispositifs sur cent fonctionnent. Notre travail est un bond en avant dans cette transition du laboratoire à la fabrication. »

Des applications au-delà des dispositifs à points quantiques

Au-delà des dispositifs à points quantiques, les normes et calibrations traçables en cours de développement au NIST pourraient améliorer la précision et la fiabilité d’autres applications exigeantes de la microscopie optique, comme l’imagerie des cellules cérébrales et la cartographie des connexions neuronales.

Pour ces projets, les chercheurs cherchent également à déterminer avec précision les positions des objets étudiés sur l’ensemble d’une image microscopique. De plus, les scientifiques peuvent avoir besoin de coordonner les données de position provenant de différents instruments à différentes températures, comme c’est le cas pour les dispositifs à points quantiques.

Légende illustration : L’alignement précis des points quantiques avec les composants photoniques est essentiel pour extraire le rayonnement émis par les points. Dans cette illustration, un point quantique centré dans le “point chaud” optique d’un réseau circulaire (point central dans l’encadré) émet plus de lumière qu’un point mal aligné (point décentré dans l’encadré). Crédit : S. Kelley/NIST

Article : Craig R. Copeland, Adam L. Pintar, Ronald G. Dixson, Ashish Chanana, Kartik Srinivasan, Daron A. Westly, B. Robert Ilic, Marcelo I. Davanco, and Samuel M. Stavis. Traceable localization enables accurate integration of quantum emitters and photonic structures with high yield. Optica Quantum, Vol. 2, Issue no. 2, pp. 72-84. Posted online March 18, 2024. https://doi.org/10.1364/OPTICAQ.502464

125 millions de livres pour un microscope d’exception à Liverpool

125 millions de livres pour un microscope d'exception à Liverpool

L’Université de Liverpool, au Royaume-Uni, va diriger un nouveau centre de recherche national d’une valeur de 125 millions de livres sterling. Ce centre vise à stimuler les découvertes scientifiques et les avancées technologiques dans des domaines tels que l’énergie durable, les matériaux avancés, les technologies quantiques et la médecine personnalisée.

Un microscope unique au monde

Soutenu par le Fonds d’infrastructure de UK Research and Innovation (UKRI), ce centre, connu sous le nom de RUEDI (Relativistic Ultrafast Electron Diffraction and Imaging), sera le microscope le plus puissant au monde pour l’imagerie dynamique. Il sera le seul instrument de ce type, disposant à la fois du microscope électronique à résolution temporelle la plus rapide et de l’instrument de diffraction électronique à résolution temporelle la plus rapide, pour soutenir de manière unique la recherche scientifique britannique dans les sciences fondamentales.

RUEDI permettra l’étude dynamique, plutôt que statique, des processus biologiques et chimiques en «temps réel» au fur et à mesure qu’ils se produisent, et ce à l’échelle de la femtoseconde, soit un millionième de milliardième de seconde ou plus rapide. C’est comme la différence entre voir le score final d’un match de football et pouvoir observer toute l’action qui se déroule avant, pendant et après le match.

De nouvelles perspectives pour la recherche

Cette capacité unique ouvre la voie aux chercheurs pour explorer les changements dans les cellules vivantes au fur et à mesure qu’ils se produisent, afin d’aider à développer des traitements plus personnalisés pour les patients et de trouver de nouvelles façons de générer de l’énergie renouvelable et de concevoir de meilleures batteries pour un avenir durable.

RUEDI fournira également un nouvel aperçu de l’intégrité structurelle des matériaux – tels que les plastiques, le béton et l’acier – dans des conditions extrêmes telles que les explosions, les tremblements de terre et les processus de fabrication avancés. Il aidera à dévoiler les phénomènes sous-jacents qui conduiront à l’informatique quantique, une nouvelle génération d’ordinateurs.

Un partenariat collaboratif

RUEDI est un partenariat collaboratif entre l’Université de Liverpool, le Science and Technology Facilities Council (STFC) et le Rosalind Franklin Institute. La construction débutera en 2027 et l’ouverture est prévue pour 2032. Il sera situé au laboratoire Daresbury du STFC à Sci-Tech Daresbury, dans la région de la ville de Liverpool.

Le professeur Nigel Browning, titulaire de la chaire de microscopie électronique à l’École d’ingénierie de l’Université de Liverpool, dirigera RUEDI. Il possède plus de deux décennies d’expertise en recherche sur l’imagerie dynamique des processus des matériaux en microscopie électronique.

« Cette annonce est une excellente nouvelle pour l’Université de Liverpool, pour la région du Nord-Ouest et pour la communauté scientifique britannique », a-t-il déclaré. « RUEDI est le premier centre à permettre l’observation et la détermination de l’évolution des changements structurels dans les matériaux par le biais d’expériences résolues dans le temps, plutôt que par une structure statique. Cette capacité révolutionnaire aidera les chercheurs à développer les nouvelles technologies et solutions nécessaires pour relever certains des défis les plus pressants de notre époque. »

Un investissement crucial pour l’avenir

Le professeur Angus Kirkland, responsable de RUEDI pour les sciences de la vie, titulaire de la chaire des matériaux à l’Université d’Oxford et directeur scientifique du Rosalind Franklin Institute, a précisé : «Nous sommes ravis de faire partie de ce partenariat avec l’Université de Liverpool et le STFC. Ce projet a un grand potentiel pour révolutionner notre façon de voir la vie. En utilisant cette technologie, nous serons en mesure de voir les interactions se produisant au sein d’une cellule à une résolution moléculaire. Cela nous donnera de nouvelles perspectives sur la biologie et ouvrira, espérons-le, la porte à la découverte de nouveaux médicaments.»

Le secrétaire d’État à la science, à l’innovation et à la technologie, Michelle Donelan, a indiqué : « Alors que la science et la technologie se développent plus rapidement que jamais, il est vital que nous nous assurions que les innovateurs britanniques disposent des bons outils pour poursuivre leur travail de pionnier, qu’il s’agisse de révolutionner la médecine ou de protéger le monde dans lequel nous vivons pour les générations à venir. Notre investissement de 473 millions de livres sterling dans les infrastructures créera les conditions permettant à nos esprits les plus brillants de s’épanouir et de construire un Royaume-Uni plus sain et plus prospère. »

Le professeur Nigel Browning, titulaire de la chaire de microscopie électronique à l’école d’ingénierie de l’université de Liverpool, dirigera le projet RUEDI. Crédit : University of Liverpool

Un nouveau transistor défie les limites de la physique quantique

Un nouveau transistor défie les limites de la physique quantique

Les chercheurs ont développé un nouveau transistor à molécule unique qui utilise l’interférence quantique pour contrôler le flux d’électrons. Cette avancée ouvre de nouvelles perspectives pour l’utilisation des effets quantiques dans les dispositifs électroniques, offrant ainsi des possibilités prometteuses pour l’avenir de l’électronique.

Une équipe internationale de chercheurs de la Queen Mary University of London, de l’Université d’Oxford, de l’Université de Lancaster et de l’Université de Waterloo a mis au point un nouveau transistor à molécule unique qui exploite l’interférence quantique pour contrôler le flux d’électrons. Ce transistor, décrit dans un article publié dans la revue Nature Nanotechnology, pourrait faire en sorte de pouvoir d’utiliser des effets quantiques dans les dispositifs électroniques.

Les transistors sont les éléments de base de l’électronique moderne. Ils sont utilisés pour amplifier et commuter les signaux électriques et sont essentiels pour tout, des smartphones aux vaisseaux spatiaux. La méthode traditionnelle de fabrication des transistors, qui consiste à graver le silicium en minuscules canaux, atteint ses limites. À mesure que les transistors deviennent plus petits, ils deviennent de plus en plus inefficaces et sensibles aux erreurs, car les électrons peuvent fuir à travers le dispositif même lorsqu’il est censé être éteint, par un processus connu sous le nom de tunnel quantique.

L’interférence quantique au cœur du fonctionnement du transistor

Dans les structures à l’échelle nanométrique étudiées par le professeur Jan Mol, le Dr James Thomas et leur groupe à l’École des sciences physiques et chimiques de Queen Mary, les effets quantiques dominent et les électrons se comportent comme des ondes plutôt que comme des particules. Tirant parti de ces effets quantiques, les chercheurs ont construit un nouveau transistor dont le canal conducteur est une porphyrine de zinc unique, une molécule capable de conduire l’électricité.

La porphyrine est prise en sandwich entre deux électrodes de graphène et, lorsqu’une tension est appliquée aux électrodes, le flux d’électrons à travers la molécule peut être contrôlé à l’aide de l’interférence quantique. L’interférence est un phénomène qui se produit lorsque deux ondes interagissent l’une avec l’autre et s’annulent mutuellement (interférence destructive) ou se renforcent mutuellement (interférence constructive).

Dans le cas du nouveau transistor, les chercheurs ont allumé et éteint le transistor en contrôlant si les électrons interfèrent de manière constructive (on) ou destructive (off) lorsqu’ils traversent la molécule de porphyrine de zinc.

Des performances prometteuses pour le nouveau transistor

Les chercheurs ont constaté que le nouveau transistor présente un rapport on/off très élevé, ce qui signifie qu’il peut être allumé et éteint de manière très précise. L’interférence quantique destructive joue un rôle crucial en éliminant le flux d’électrons de fuite dû à l’effet tunnel quantique à travers le transistor lorsqu’il est censé être éteint. Ils ont également constaté que le transistor est très stable. Les transistors précédents fabriqués à partir d’une seule molécule n’ont pu démontrer qu’une poignée de cycles de commutation, mais ce dispositif peut fonctionner pendant des centaines de milliers de cycles sans se dégrader.

Selon le Dr James Thomas, auteur principal de l’étude et maître de conférences en technologies quantiques à Queen Mary, l’interférence quantique est un phénomène puissant qui pourrait être utilisé dans une grande variété d’applications électroniques. Les chercheurs estiment que leurs travaux constituent une étape importante vers la réalisation de ce potentiel.

Vers une nouvelle génération de dispositifs électroniques

Les chercheurs ont également constaté que les effets d’interférence quantique pourraient être utilisés pour améliorer la pente sous le seuil du transistor, qui est une mesure de la sensibilité du transistor aux changements de tension de grille. Plus la pente sous le seuil est faible, plus le transistor est efficace. Les transistors des chercheurs présentaient une pente sous le seuil de 140 mV/dec, ce qui est meilleur que les pentes sous le seuil rapportées pour d’autres transistors à molécule unique et comparable à des dispositifs plus grands fabriqués à partir de matériaux tels que les nanotubes de carbone.

Bien que la recherche n’en soit qu’à ses débuts, les chercheurs sont optimistes quant à la possibilité d’utiliser le nouveau transistor pour créer une nouvelle génération de dispositifs électroniques. Ces dispositifs pourraient être utilisés dans une variété d’applications, allant des ordinateurs et des smartphones aux dispositifs médicaux./es

Article : “Quantum interference enhances the performance of single-molecule transistors” – DOI: 10.1038/s41565-024-01633-1

Des surfaces 1000 fois plus fines qu’un cheveu pour explorer l’espace

Des surfaces 1000 fois plus fines qu'un cheveu pour explorer l'espace

Le Southwest Research Institute (SwRi) investit des fonds internes pour développer des surfaces de conversion plus efficaces permettant aux futurs instruments spatiaux de collecter et d’analyser des particules de basse énergie. Recouvrant un wafer de silicium, ces surfaces ultra-lisses et ultra-fines convertissent les atomes neutres en ions pour une détection plus efficace des particules provenant de l’espace.

Le changement de charge des particules simplifie et améliore les capacités de détection et d’analyse.

Les docteurs Jianliang Lin de la division d’ingénierie mécanique de l’institut et Justyna Sokół de la division des sciences spatiales de SwRI dirigent ce projet multidisciplinaire. Celui-ci s’appuie sur la création réussie de surfaces de conversion pour l’instrument IMAP-Lo de la sonde spatiale Interstellar Mapping and Acceleration Probe (IMAP). IMAP, dont le lancement est prévu en 2025, aidera les chercheurs à mieux comprendre les limites de notre héliosphère, la région de l’espace englobant le système solaire, où le vent solaire exerce une influence significative.

« Lorsque des atomes de basse énergie entrent dans l’instrument depuis l’espace, ils rebondissent sur la surface de conversion et gagnent ou perdent un électron, déséquilibrant leur charge électrique. Cela facilite l’augmentation de leur vitesse et l’analyse de leur masse et d’autres propriétés », explique Justyna Sokół.

Des surfaces ultra-fines et ultra-lisses

Il est essentiel que ces surfaces maintiennent leur efficacité de conversion au cours de missions parfois longues de plusieurs décennies.

« L’épaisseur de la surface de conversion est généralement inférieure à 50 nanomètres, plus de 1 000 fois plus fine qu’un cheveu humain », précise Jianliang Lin. « La surface doit également être la plus lisse possible, proche de la perfection. Si elle n’est pas suffisamment lisse, les particules seront ralenties par la dispersion d’énergie, ce qui rendra beaucoup plus difficile la détection et l’analyse de leurs propriétés. »

De nouveaux matériaux prometteurs

S’appuyant sur les recherches menées à l’Université de Berne, Lin et Sokół travaillent maintenant à la création de surfaces de conversion encore plus efficaces en tellurure de cadmium (CdTe) et séléniure de zinc (ZnSe).

« Les films minces de tellurure de cadmium et de séléniure de zinc sont de nouveaux matériaux pour les surfaces de conversion qui pourraient potentiellement réduire la dispersion angulaire à la surface afin d’améliorer l’efficacité de conversion », souligne Jianliang Lin.

SwRI a réussi à créer un film mince de ZnSe répondant aux normes de lissage. La prochaine étape consistera à tester l’efficacité du matériau en tant que surface de conversion.

« SwRI est particulièrement capable de relever ce type de défi, avec une expertise considérable dans l’instrumentation spatiale et le développement de films minces », conclut Jianliang Lin. « Cette collaboration interdisciplinaire a rendu cela possible, et c’est pourquoi nous sommes convaincus de pouvoir créer des surfaces de conversion meilleures et plus efficaces. »

Légende illustration : Les scientifiques de SwRI collaborent avec des spécialistes des matériaux pour créer des surfaces de détection de particules plus efficaces pour les instruments des engins spatiaux. La photo montre un substrat de surface de conversion développé spécifiquement pour l’instrument IMAP-Lo. Crédit : Southwest Research Institute

La recherche agronomique à l’aube d’une nouvelle ère de précision

La recherche agronomique à l'aube d'une nouvelle ère de précision

Les chercheurs ont développé un nouvel outil logiciel qui améliore considérablement la précision des capteurs électroniques mesurant la couleur des feuilles des plantes pour évaluer leur santé. Cette innovation permet de prendre en compte les variations de lumière capables d’influencer la perception des couleurs par les capteurs.

De nombreux chercheurs utilisent des capteurs qui capturent la couleur des feuilles d’une plante pour évaluer sa santé, un aspect crucial pour le développement de nouvelles variétés végétales plus résistantes aux stress environnementaux. Ces capteurs sont également employés par certains agriculteurs et conseillers agricoles pour surveiller l’état des cultures. Lorsque ces mesures sont effectuées en plein champ, la lumière du soleil peut affecter la capacité de ces capteurs à saisir avec précision la couleur des feuilles, notamment en raison des reflets.

Michael Kudenov, co-auteur de l’étude et professeur en génie électrique et informatique à l’Université d’État de Caroline du Nord, explique : « Notre objectif était de développer un logiciel permettant aux utilisateurs de prendre en compte plus facilement la manière dont les reflets du soleil peuvent modifier la perception des couleurs par les capteurs. Les outils précédents qui tenaient compte de ces reflets étaient extrêmement complexes et nécessitaient une grande puissance de calcul. Notre approche est nettement moins compliquée. »

La polarisation de la lumière, clé de la solution

La polarisation est un concept clé pour comprendre le fonctionnement de ce nouvel outil. La lumière peut être considérée comme une onde dont les longueurs d’onde vibrent sur différents plans. Lorsque la lumière est polarisée, cela signifie que ses ondes vibrent sur le même plan. Par exemple, lorsque vous essayez de regarder sous la surface de l’eau par une journée ensoleillée, les reflets du soleil peuvent rendre difficile la vision sous-marine. En portant des lunettes de soleil polarisées, ces reflets disparaissent, permettant de voir clairement sous l’eau.

Daniel Krafft, premier auteur de l’étude et doctorant à NC State, précise : « Le logiciel que nous avons développé agit essentiellement comme une paire de lunettes de soleil polarisées incroyablement dynamique, capable de prendre en compte tous les défis de polarisation présents pour saisir avec précision la couleur d’une feuille, quels que soient les reflets. »

Un logiciel qui combine couleur et polarisation

Lorsque les capteurs prennent une photo d’une feuille, ils capturent non seulement la couleur, mais sont également capables de mesurer le degré de polarisation de la lumière. Le nouveau logiciel estime la véritable couleur d’une feuille en se basant sur deux variables : la couleur perçue par le capteur et le degré de polarisation de la longueur d’onde la plus sombre dans l’image.

Pour évaluer ce nouvel outil, les chercheurs ont mené des tests de preuve de concept comparant les performances des capteurs avec et sans le nouveau logiciel lors de la mesure de feuilles dont ils connaissaient la couleur correcte. Ils ont constaté que le nouveau logiciel offrait des performances exceptionnelles, réduisant l’ampleur des erreurs d’un facteur dix en présence de reflets importants.

Vers une application pratique pour la recherche et l’agriculture

Les chercheurs ont testé le nouveau logiciel à l’aide d’une caméra de polarisation hyperspectrale de taille réelle. Les prochaines étapes consistent à intégrer ce logiciel dans des capteurs visuels plus compacts et à le tester sur des plateformes telles que des drones pour évaluer ses performances dans des situations réelles avec une variété de cultures.

« À terme, nous aimerions fournir aux chercheurs et aux agriculteurs un outil suffisamment petit et abordable pour une utilisation pratique », conclut Michael Kudenov.

Cette innovation ouvre ainsi de nouvelles perspectives pour améliorer la précision de l’évaluation de la santé des plantes, tant dans le domaine de la recherche agronomique que pour la surveillance des cultures au champ.

Article : “Mitigating Illumination-, Leaf-, and View-Angle Dependencies in Hyperspectral Imaging Using Polarimetry” – DOI: 10.34133/plantphenomics.0157

Avec 2,9W de consommation, ce processeur repousse les limites du calcul

Avec 2,9W de consommation, ce processeur repousse les limites du calcul

Les processeurs de recuit simulé sont des outils prometteurs pour résoudre des problèmes d’optimisation combinatoire complexes. Une équipe de chercheurs de l’Université des Sciences de Tokyo a récemment développé un processeur évolutif innovant qui divise les calculs entre plusieurs puces LSI, ouvrant la voie à de nouvelles applications dans des domaines variés.

Dans le contexte des technologies CMOS, un couplage complet des composants des processeurs de recuit simulé est essentiel. Cependant, la complexité de ce couplage a un impact direct sur l’évolutivité des processeurs, limitant ainsi leur potentiel d’application à grande échelle.

Comme l’explique le Professeur Takayuki Kawahara, qui a dirigé cette étude publiée le 30 janvier 2024 dans IEEE Access, « Nous voulons réaliser un traitement avancé de l’information directement à la périphérie, plutôt que dans le cloud, ou effectuer un prétraitement à la périphérie pour le cloud. »

Une architecture innovante et évolutive

L’équipe de recherche a mis au point un processeur de recuit simulé évolutif utilisant 36 puces LSI de calcul en technologie CMOS 22nm et un FPGA de contrôle. Cette technologie permet de construire des systèmes semi-conducteurs entièrement couplés à grande échelle suivant le modèle d’Ising, avec 4096 spins.

Le processeur intègre deux technologies distinctes développées à l’Université des Sciences de Tokyo : une «méthode de fil de spin» permettant 8 recherches de solutions en parallèle, et une technique réduisant d’environ moitié les besoins en puces par rapport aux méthodes conventionnelles. Ses besoins en énergie sont également modestes, fonctionnant à 10MHz avec une consommation de 2,9W (1,3W pour la partie centrale).

Des performances impressionnantes

En termes de rapport performance/puissance, le processeur a surpassé de 2 306 fois la simulation d’un système d’Ising entièrement couplé sur un PC (i7, 3,6GHz) utilisant l’émulation de recuit simulé. De plus, il a dépassé de 2 186 fois le CPU principal et la puce arithmétique.

Selon le Professeur Kawahara, qui envisage l’implémentation sociale de cette technologie, « À l’avenir, nous développerons cette technologie pour un effort de recherche conjoint visant un système LSI avec la puissance de calcul d’un ordinateur quantique de niveau 2050 pour résoudre des problèmes d’optimisation combinatoire. L’objectif est d’y parvenir sans avoir besoin de climatisation, de gros équipements ou d’infrastructure cloud, en utilisant les processus semi-conducteurs actuels. »

Vers de nouvelles industries numériques

La vérification réussie de ce processeur suggère la possibilité d’une capacité accrue. L’équipe vise à atteindre 2 millions de spins d’ici 2030 et à explorer la création de nouvelles industries numériques utilisant cette technologie.

Les chercheurs ont donc développé un processeur de recuit simulé évolutif et entièrement couplé intégrant 4096 spins sur une seule carte avec 36 puces CMOS. Des innovations clés, notamment la réduction des puces et les opérations parallèles pour des recherches de solutions simultanées, ont joué un rôle crucial dans ce développement prometteur pour de nombreuses applications pratiques.

Article : “Scalable Fully-Coupled Annealing Processing System Implementing 4096 Spins Using 22nm CMOS LSI” – DOI: 10.1109/ACCESS.2024.3360034

Singapour expérimente une méthode innovante pour rafraîchir ses rues

Singapour expérimente une méthode innovante pour rafraîchir ses rues

Les chercheurs de l’Université technologique de Nanyang, à Singapour (NTU Singapore), ont mené une étude en conditions réelles démontrant que l’utilisation de revêtements de peinture réfléchissante dans les villes peut aider les piétons à se sentir jusqu’à 1,5°C plus frais, rendant ainsi l’espace urbain plus confortable. Cette étude approfondie, la première du genre sous les tropiques, valide l’efficacité de ces revêtements pour réduire la chaleur et atténuer l’effet d’îlot de chaleur urbain.

Les revêtements de peinture réfléchissante contiennent des additifs qui réfléchissent la chaleur du soleil, réduisant ainsi l’absorption et l’émission de chaleur en surface. Bien que leur potentiel pour rafraîchir les zones urbaines et atténuer l’effet d’îlot de chaleur urbain ait été vanté, la plupart des études menées jusqu’à présent étaient basées sur des simulations ou des modèles réduits, limitant la compréhension de leur application dans des scénarios réels.

L’équipe de chercheurs de la NTU a enduit les toits, les murs et les chaussées d’une zone industrielle de Singapour et a constaté que, par rapport à une zone adjacente non enduite, l’environnement enduit était jusqu’à 2°C plus frais l’après-midi, avec une amélioration du niveau de confort thermique des piétons allant jusqu’à 1,5°C, mesuré à l’aide de l’indice climatique thermique universel – une norme internationale commune pour la sensation de température extérieure humaine qui prend en compte la température, l’humidité relative, le rayonnement thermique et la vitesse du vent.

Une solution peu intrusive pour le refroidissement urbain

Selon le Dr E V S Kiran Kumar Donthu, auteur principal de l’étude, « notre étude prouve que les revêtements de peinture réfléchissante réduisent l’accumulation de chaleur et contribuent au refroidissement de l’environnement urbain. Il s’agit d’une solution peu intrusive pour le refroidissement urbain qui a un effet immédiat, comparé à d’autres options qui nécessitent souvent un réaménagement urbain majeur pour être déployées. »

En réduisant la quantité de chaleur absorbée par les structures urbaines, la charge thermique des bâtiments est également réduite, ce qui entraîne une diminution de la consommation d’énergie liée à la climatisation intérieure. L’étude, publiée dans Villes et sociétés durables en mars, soutient le plan stratégique NTU 2025, qui vise à relever les grands défis de l’humanité en matière de durabilité et à accélérer la traduction des découvertes de recherche en innovations qui atténuent l’impact humain sur l’environnement.

Des expériences en conditions réelles dans des “canyons urbains”

Pour mener leurs expériences en conditions réelles, les chercheurs de la NTU ont sélectionné quatre bâtiments rectangulaires créant deux «canyons urbains» parallèles – des rues étroites bordées de bâtiments – dans une zone industrielle à l’ouest de Singapour gérée par la JTC Corporation. Un canyon, ou “canyon frais”, a été enduit de peintures réfléchissantes sur les toits, les murs et la chaussée, tandis que l’autre canyon (conventionnel) est resté tel quel comme “contrôle” pour l’expérience.

À l’aide de capteurs environnementaux, l’équipe de la NTU a surveillé les conditions dans les deux canyons pendant deux mois, notamment les mouvements d’air, la température de surface et de l’air, l’humidité et le rayonnement, afin de voir dans quelle mesure les revêtements de peinture réfléchissante permettaient de réduire la chaleur urbaine.

Les chercheurs ont constaté que, sur un cycle de 24 heures, le canyon frais présentait une réduction allant jusqu’à 30 % de la chaleur libérée par les surfaces bâties, ce qui se traduisait par une température de l’air dans le canyon frais inférieure de jusqu’à 2°C à celle du canyon conventionnel pendant la période la plus chaude de la journée, vers 16 heures. En conséquence, les piétons du canyon frais peuvent ressentir jusqu’à 1,5°C de fraîcheur.

Moins de chaleur absorbée et stockée dans les murs, toits et routes

L’équipe de recherche de la NTU a également constaté que la température de l’air dans le canyon frais était plus basse parce que moins de chaleur était absorbée et stockée dans les murs, les toits et les routes des bâtiments, ce qui aurait ensuite été libéré pour réchauffer l’air environnant ou l’intérieur du bâtiment. Par rapport aux toits conventionnels, les toits enduits de peinture réfléchissante ont réfléchi 50 % de lumière solaire en plus et absorbé jusqu’à 40 % de chaleur en moins, pendant la période la plus chaude d’une journée ensoleillée. Les murs enduits ont également empêché la majeure partie de la chaleur de pénétrer dans les bâtiments industriels.

Selon le professeur adjoint Ng Bing Feng de l’École de MAE de la NTU, co-auteur de l’étude, « notre étude a montré que le revêtement de peinture réfléchissante sur la route a considérablement contribué à abaisser les températures les plus élevées dans le canyon frais, confirmant que ce type de revêtement peut être un moyen prometteur de rendre les zones urbaines plus fraîches et plus confortables, en particulier pendant les périodes de chaleur. Nous espérons que les résultats de notre étude encourageront davantage d’urbanistes à adopter des revêtements de peinture réfléchissante sur un plus grand nombre de surfaces bâties, à grande échelle. »

Article : “Dynamics of cool surface performance on urban microclimate: A full-scale experimental study in Singapore” – DOI: 10.1016/j.scs.2024.105218

2024, faut-il passer par un fournisseur d’énergie verte ?

2024, faut-il passer par un fournisseur d'énergie verte ?

Les énergies renouvelables représentaient en 2022 près de 26% du mix électrique français*, portées notamment par le développement de l’éolien et la mise en service de plusieurs nouveaux parcs éoliens en mer. Le gouvernement a fixé un objectif ambitieux de 33% d’énergie renouvelable dans la consommation finale d’énergie d’ici 2030, afin d’atteindre la neutralité carbone en 2050. Cette dynamique est soutenue par des investissements massifs, avec 7 milliards d’euros supplémentaires alloués à la planification écologique dans le budget 2024.

La transition énergétique se joue aussi à l’échelle individuelle : en souscrivant à une offre d’électricité verte auprès d’un fournisseur engagé, chaque consommateur peut contribuer à la construction d’un avenir plus durable.

Les avantages de souscrire à une offre d’électricité verte

Dans ce contexte, souscrire à une offre d’électricité auprès d’un fournisseur d’énergie verte engagé apparaît comme un choix responsable. En optant pour une électricité produite à partir de sources renouvelables comme l’éolien, le solaire ou l’hydraulique, les consommateurs contribuent activement à la réduction des émissions de gaz à effet de serre.

Au-delà de l’impact environnemental positif, choisir un fournisseur d’énergie verte permet de soutenir le développement des filières renouvelables en France et de renforcer l’indépendance énergétique du pays. C’est aussi l’assurance de bénéficier d’une énergie locale, produite au plus près des territoires, créatrice d’emplois non délocalisables et génératrice de retombées économiques pour les collectivités.

Avec la fin progressive du bouclier tarifaire et la hausse attendue des prix de l’électricité en 2024, se tourner vers les offres d’énergie verte peut s’avérer économiquement intéressant. En effet, certains opérateurs proposent des tarifs compétitifs pour les offres dîtes vertes, avec un prix du kWh moins cher que celui du tarif réglementé.

Comment choisir son fournisseur d’énergie verte ?

Face à la multiplication des offres d’électricité verte sur le marché, il peut être difficile de s’y retrouver. Pour faire le bon choix, plusieurs critères sont à prendre en compte :

  • L’origine de l’électricité : privilégiez les offres garantissant une électricité produite à partir de sources 100% renouvelables, couverte notamment par le dispositif européen des Garanties d’Origine.
  • La localisation des sites de production : pourquoi ne pas optez directement pour une offre Premium. Dans ce cas, vous aurez la possibilité de choisir une centrale de production renouvelable implantée localement en France.
  • La politique environnementale du fournisseur : renseignez-vous sur ses engagements en matière de transition énergétique et de protection de la biodiversité.
  • Les tarifs proposés : comparez les prix du kWh et de l’abonnement.
  • La qualité du service client : vérifiez la disponibilité ,la réactivité du service client et sa localisation (un service client 100% français, c’est toujours plus sympa), ainsi que les modalités de facturation et de paiement.

N’hésitez pas à vous faire accompagner par un conseiller spécialisé pour trouver l’offre la plus adaptée à vos besoins et à votre budget.

Les limites et les défis des énergies renouvelables

Malgré leurs nombreux atouts, les énergies renouvelables ne sont pas exemptes de défauts. Leur caractère intermittent et dépendant des conditions météorologiques rend leur production variable et difficile à prévoir. Pour pallier cela, des solutions de stockage de l’électricité, comme les batteries ou des vecteurs d’énergie comme l’hydrogène, sont en cours de développement.

La construction des infrastructures de production d’énergie renouvelable (éoliennes ou panneaux solaires), nécessite également d’importantes quantités de ressources minérales, dont certaines sont rares ou difficiles à extraire. La question du recyclage des équipements en fin de vie se pose aussi, même si des filières spécialisées émergent progressivement. Par exemple, saviez-vous que les panneaux solaires sont recyclables à 95% !

Enfin, l’implantation de parcs éoliens ou solaires peut aussi susciter des oppositions locales en raison de leur impact paysager ou des nuisances sonores générées. Un dialogue approfondi avec les territoires et une planification concertée restent essentiels pour favoriser l’acceptabilité de ce type de projets.

On le constate de plus en plus, l’urgence climatique n’a jamais été aussi prégnante, passer à une électricité verte en choisissant un fournisseur engagé devient un geste à la fois écologique, économique et citoyen.

* source : calculs SDES

USA : 15 tours télécoms transformées en sentinelles des gaz à effet de serre

USA : 15 tours télécoms transformées en sentinelles des gaz à effet de serre

Les gaz à effet de serre (GES) sont au cœur des préoccupations environnementales actuelles. Afin de mieux comprendre leur impact sur le climat et de mettre en place des politiques efficaces, il est essentiel de disposer de données fiables et précises sur leurs émissions et leurs mouvements. C’est dans ce contexte que s’inscrit la nouvelle stratégie nationale américaine de mesure et de surveillance des GES, fruit d’une collaboration sans précédent entre les agences fédérales et les acteurs non gouvernementaux.

La stratégie nationale, présentée dans un récent communiqué de la Maison Blanche, vise à unifier les efforts de mesure, de surveillance et d’information sur les GES à travers le gouvernement fédéral et au-delà. L’initiative s’appuie sur près de 30 ans de recherche soutenue par le Département de l’Énergie (DOE) et d’autres organismes via le projet AmeriFlux, qui mesure les changements environnementaux à travers les Amériques, y compris les niveaux de dioxyde de carbone (CO2).

Les données collectées par AmeriFlux ont fourni une grande partie des connaissances scientifiques fondamentales nécessaires à l’élaboration du rapport. Comme l’explique Dan Stover, responsable de programme au sein du Bureau des sciences du DOE, « il s’agit d’une science fondamentale et basique, sans laquelle le travail appliqué ne pourrait pas avoir lieu ».

Des outils innovants pour tracer les GES

Mesurer et surveiller les niveaux de GES n’est pas une tâche aisée. Les scientifiques utilisent deux approches complémentaires : les approches «bottom-up», basées sur des observations et des modèles informatiques, et les approches «top-down», qui combinent les quantités de GES dans l’atmosphère avec une compréhension de leur mouvement et de leurs interactions chimiques.

Les chercheurs s’appuient sur une variété d’outils, allant des réseaux de capteurs au sol aux mesures par satellite et avion. En combinant les capacités de ces différents instruments, ils seront en mesure de localiser les quantités de GES avec une précision et une confiance accrues.

Une stratégie en plusieurs phases

La stratégie nationale se déploie en plusieurs étapes. La première phase vise à consolider notre compréhension actuelle des quantités de GES, notamment en standardisant les outils et les approches utilisés. Elle prévoit également la création d’un centre américain multi-agences dédié aux GES, qui facilitera le partage des connaissances entre les acteurs impliqués.

L’un des principaux objectifs de cette première phase est d’étendre le réseau de sites de mesure des GES, en s’appuyant sur le prototype développé à Washington, D.C. Cette stratégie fournit ainsi un cadre officiel pour guider la contribution des agences fédérales à la lutte contre les GES dans un contexte de réchauffement climatique.

En synthèse

La nouvelle stratégie nationale américaine de mesure et de surveillance des GES marque une étape importante dans la compréhension et la gestion de ces gaz qui influencent le climat de notre planète. En fédérant les efforts des agences fédérales et des acteurs non gouvernementaux, elle ouvre la voie à une approche plus cohérente et efficace. Les données collectées grâce à des outils innovants permettront d’éclairer les décisions politiques et les actions concrètes visant à réduire les émissions de GES et à atteindre l’objectif de zéro émission nette d’ici 2050.

Pour une meilleure compréhension

Quels sont les principaux gaz à effet de serre ?

Les quatre principaux gaz à effet de serre sont le dioxyde de carbone (CO2), le méthane, l’oxyde nitreux et les gaz fluorés. Le CO2 est celui qui persiste le plus longtemps dans l’atmosphère.

Comment les GES influencent-ils la température de la Terre ?

Les GES agissent comme une serre en absorbant la chaleur dans l’atmosphère. Ils ne s’échappent jamais dans l’espace, mais circulent entre l’océan, la terre et l’atmosphère.

Quelles sont les principales sources d’émissions de GES ?

L’utilisation de combustibles fossiles par l’homme est la principale source d’augmentation du CO2 dans l’atmosphère. Le méthane provient de la production de charbon et de gaz naturel, ainsi que du bétail, des zones humides et des décharges. L’oxyde nitreux est un sous-produit de l’utilisation des terres agricoles, des combustibles fossiles et du traitement des eaux usées.

Pourquoi est-il important de mesurer et de surveiller les GES ?

Une meilleure compréhension des émissions de GES, de leurs sources et de leurs puits est essentielle pour éclairer les efforts et les actions visant à les réduire. Sans données fiables, il est impossible de savoir si les politiques et les mesures mises en place sont efficaces.

Quels sont les objectifs de la stratégie nationale américaine ?

La stratégie vise à unifier les efforts de mesure, de surveillance et d’information sur les GES à travers le gouvernement fédéral et au-delà. Elle prévoit notamment la standardisation des outils et des approches, l’expansion du réseau de sites de mesure et la création d’un centre multi-agences dédié aux GES.

Références

Légende illustration : Une tour AmeriFlux dans la forêt expérimentale de Bartlett, dans le New Hampshire.

IA Collective : les experts dévoilent une vision futuriste de l’IA

IA Collective : les experts dévoilent une vision futuriste de l'IA

Les progrès récents en intelligence artificielle ouvrent la voie à une nouvelle ère de collaboration et de partage des connaissances entre les systèmes d’IA. Des chercheurs de renommée mondiale, issus d’institutions prestigieuses telles que l’Université de Loughborough, le MIT et Yale, ont présenté leur vision de l’avenir de l’IA, qui s’apparente étonnamment à certains concepts de science-fiction.

Selon ces experts, nous sommes sur le point d’assister à l’émergence de l’IA Collective, un réseau de nombreuses unités d’intelligence artificielle capables d’acquérir continuellement de nouvelles connaissances et compétences, et de les partager entre elles. Cette vision rappelle notamment le personnage de The Borg de l’univers Star Trek, des organismes cybernétiques fonctionnant et partageant leurs connaissances via un esprit collectif.

Cependant, contrairement à de nombreux récits de science-fiction, les chercheurs envisagent que l’IA Collective conduira à des avancées majeures et positives dans divers domaines. Le Dr Andrea Soltoggio, responsable de la recherche à l’Université de Loughborough, explique :

« Le partage instantané des connaissances au sein d’un réseau collectif d’unités d’IA capables d’apprendre et de s’adapter en permanence à de nouvelles données permettra des réponses rapides à des situations, des défis ou des menaces inédits. »

Des applications vastes et passionnantes

Les chercheurs citent plusieurs exemples d’applications potentielles de l’IA Collective, tels que la cybersécurité, où une réponse collective pourrait être rapidement déclenchée en cas de menace identifiée par une unité d’IA, à l’image du système immunitaire humain protégeant le corps contre les envahisseurs extérieurs.

L’IA Collective pourrait également conduire au développement de robots d’intervention en cas de catastrophe, capables de s’adapter rapidement aux conditions dans lesquelles ils sont déployés, ou d’agents médicaux personnalisés améliorant les résultats de santé en combinant les connaissances médicales de pointe avec les informations spécifiques au patient.

Risques et sécurité de l’IA Collective

Si les chercheurs reconnaissent l’existence de risques associés à l’IA Collective, comme la propagation rapide de connaissances potentiellement contraires à l’éthique ou illicites, ils soulignent un aspect crucial de leur vision en termes de sécurité : les unités d’IA conservent leurs propres objectifs et leur indépendance vis-à-vis du collectif.

Selon le Dr Soltoggio, cela «aboutirait à une démocratie d’agents d’IA, réduisant considérablement les risques de domination de l’IA par quelques grands systèmes».

Vers une nouvelle ère de l’IA durable et collaborative

Les chercheurs sont parvenus à la conclusion que l’avenir de l’IA réside dans l’intelligence collective après avoir analysé les progrès récents de l’apprentissage automatique. Leurs travaux, financés par la DARPA, ont révélé que les efforts mondiaux se concentrent sur l’apprentissage tout au long de la vie des agents d’IA et sur le développement de protocoles et langages universels permettant aux systèmes d’IA de partager leurs connaissances.

Cette approche diffère des grands modèles d’IA actuels, comme ChatGPT, dont les capacités d’apprentissage continu et de partage des connaissances sont limitées.

Le Dr Soltoggio conclut : « Nous pensons que les modèles d’IA dominants actuels, grands, coûteux, non partageables et non permanents, ne survivront pas dans un avenir où des collectifs d’unités d’IA durables, évolutifs et partageant leurs connaissances sont susceptibles d’émerger. »

Article : ‘A Collective AI via Lifelong Learning and Sharing at the Edge’, the Nature Machine Intelligence webpage.

Oxford s’engage dans la course aux constructions durables

Oxford s'engage dans la course aux constructions durables

L’Université d’Oxford s’associe au projet ZEBAI, une initiative majeure visant à révolutionner la conception des bâtiments zéro émission. Ce projet, soutenu par un financement de 3,8 millions d’euros du programme Horizon de la Commission européenne, établira des projets de démonstration dans quatre pays afin de tester des approches innovantes pour réduire significativement l’empreinte carbone des bâtiments.

Le secteur du bâtiment et de la construction est une source majeure d’émissions de carbone, représentant plus de 34% de la demande énergétique et environ 37% des émissions de CO2 liées à l’énergie et aux processus en 2021, selon le Programme des Nations Unies pour l’environnement. Actuellement, le secteur est loin d’être sur la bonne voie pour atteindre la décarbonation d’ici 2050, ce qui souligne l’urgence d’adopter des matériaux et des processus de construction à faible émission de carbone.

Dirigé par l’Universidad Politécnica de Madrid, ZEBAI réunira un consortium de 18 instituts académiques de 7 pays européens pour relever ce défi.

Oxford se concentre sur la caractérisation et la modélisation

Les départements d’ingénierie et de physique de l’Université d’Oxford se concentreront sur la caractérisation et la modélisation de la réponse des matériaux à la température et aux forces mécaniques, en exploitant la puissance de l’intelligence artificielle pour sélectionner des matériaux de construction d’origine locale adaptés à des conditions environnementales spécifiques.

L’analyse des propriétés mécaniques des matériaux utilisés dans les bâtiments à travers l’Europe servira à créer une simulation qui sera intégrée à des méthodologies d’IA. Le logiciel résultant pourra ainsi être incorporé dans les plateformes de conception de construction utilisées par les architectes et les ingénieurs. Le logiciel ZEBAI comprendra une vaste bibliothèque de propriétés des matériaux basée sur leur travail et sera utilisé pour garantir que les constructions atteignent les objectifs zéro émission nette.

En haut : Professeur Sonia Antoranz Contera. Crédit : Pamela Davis Kivelson. En bas : Professeur Antoine Jérusalem.

Intégration de la modélisation IA dans le processus de sélection

Les professeurs Sonia Antoranz Contera (Département de physique) et Antoine Jérusalem (Département d’ingénierie) travailleront avec Lurtis Ltd pour intégrer la modélisation IA dans le processus de sélection des matériaux.

Selon le professeur Jérusalem, « C’est un projet très opportun et passionnant où le travail que le professeur Contera et moi-même réalisons sur les matériaux d’ingénierie à plusieurs échelles alimentera directement la pratique pour maximiser l’impact dans le monde réel. ZEBAI est prêt à repousser les frontières de l’efficacité énergétique dans les constructions futures avec l’état de l’art de la mécanique et de l’IA. »

Les objectifs clés du projet ZEBAI

La recherche menée à Oxford contribuera aux objectifs principaux du projet :

  • Optimiser les matériaux pour différents environnements
  • Rationaliser le processus de conception pour le rendre plus efficace et convivial
  • Garantir à la fois la rentabilité et l’atteinte des objectifs environnementaux

ZEBAI vise à révolutionner la conception des bâtiments zéro émission grâce à une méthodologie complète qui intégrera des analyses, des processus décisionnels et des évaluations holistiques de la performance énergétique, de l’impact environnemental, de la qualité de l’environnement intérieur et de la rentabilité.

Cette approche promet des processus de conception plus efficaces et conviviaux ainsi que la possibilité de réduire considérablement l’empreinte carbone des futurs bâtiments.

En outre, le projet développera une base de données de matériaux bien caractérisés et évaluera les différences entre les performances prévues et réelles des bâtiments. Les techniques d’IA joueront un rôle central dans l’optimisation de la sélection des matériaux et des systèmes dans divers aspects de la conception des bâtiments.

Les quatre démonstrateurs représentatifs en Ukraine, en Espagne, au Royaume-Uni et aux Pays-Bas serviront de cas de test, permettant à l’équipe du projet d’évaluer les performances de la méthodologie dans différents climats, usages et modèles de construction.

« Nous sommes très heureux de participer à cette collaboration, qui rassemble des entreprises (y compris des partenaires ukrainiens), des institutions, des ingénieurs, des scientifiques et des architectes aussi intéressants. Nous avons eu cette idée il y a quatre ans, et c’est formidable de la voir enfin se concrétiser » a conclu le Professeur Sonia Antoranz Contera, Département de physique, Université d’Oxford.

20% de l’électricité mondiale économisés grâce aux skyrmions ?

20% de l'électricité mondiale économisés grâce aux skyrmions ?

Les chercheurs de l’Agence pour la science, la technologie et la recherche (A*STAR) et de l’Université nationale de Singapour (NUS) ont développé un dispositif microélectronique innovant capable de fonctionner comme un “bit-switch” durable et performant. Cette avancée permettrait de concevoir de nouvelles technologies informatiques permettant de traiter les données plus rapidement tout en consommant nettement moins d’énergie.

Les technologies émergentes d’intelligence artificielle, telles que ChatGPT, nécessitent le traitement de grandes quantités de données à des vitesses fulgurantes, ce qui requiert une puissance de calcul considérable. Les technologies de l’information et de la communication consomment déjà près de 20% de l’électricité mondiale, un chiffre qui devrait augmenter avec la croissance de ces grands modèles d’IA.

Pour répondre à ces demandes en constante augmentation, le «switch» informatique fondamental, ou bit mémoire, a été réduit à des tailles de plus en plus petites, approchant ses limites physiques. Une approche prometteuse pour atténuer cette crise énergétique, en particulier dans les domaines de la mobilité, de la santé et de la fabrication, est l’informatique en périphérie.

Les skyrmions, clé de l’informatique du futur

Les skyrmions sont de minuscules tourbillons magnétiques – 10 000 fois plus petits que la largeur d’un cheveu humain – qui se forment dans des couches magnétiques spécifiques lorsqu’elles sont rendues extrêmement fines. Découverts il y a seulement une décennie, ces tourbillons peuvent être extrêmement stables et compacts, et peuvent être déplacés efficacement entre les régions magnétiques.

Ils constituent des interrupteurs mobiles idéaux pour un traitement efficace des données à grande échelle pour les technologies d’IA. Pour exploiter le vaste potentiel des skyrmions, il est essentiel d’y accéder via des voies électriques telles que celles utilisées dans les ordinateurs.

L’équipe de recherche dirigée par ASTAR, en partenariat avec NUS, a créé un dispositif microélectronique innovant qui consomme 1 000 fois moins d’énergie que les technologies de mémoire commerciales, ouvrant ainsi la voie à des technologies informatiques plus durables et plus efficaces à l’avenir. (Crédit : ASTAR et NUS)

Une percée dans le contrôle électrique des skyrmions

L’équipe a réalisé une première en parvenant à une lecture électriqueidentification») d’un skyrmion et à une commutation électrique entre états (par exemple, “0” à “1”, et vice versa). Pour ce faire, ils ont utilisé un dispositif appelé jonction tunnel, opérationnel dans des conditions ambiantes et largement utilisé dans les applications commerciales de mémoire et de disque dur.

Ils ont découvert que les attributs spéciaux des skyrmions permettent la commutation entre états en utilisant 1 000 fois moins d’énergie que les dispositifs commerciaux. Ils ont également constaté que plus de deux états peuvent être obtenus dans un seul dispositif, ce qui évite la nécessité de réduire la taille du dispositif pour améliorer les performances.

Appareils et applications d’IA de pointe (Crédit : A*STAR)

Perspectives d’avenir

Selon le Dr Anjan Soumyanarayanan, responsable de l’équipe, scientifique principal à l’Institute of Materials Research and Engineering (IMRE) de l’A*STAR et professeur assistant au département de physique de la NUS Faculty of Science :

« Les skyrmions possèdent des attributs uniques et insaisissables qui peuvent être exploités pour mettre en œuvre diverses architectures d’IA avec une efficacité et une fonctionnalité sans précédent. Notre dispositif microélectronique fournit la clé tant attendue pour libérer leur vaste potentiel. Il contribuera à faire des skyrmions un élément intégral de l’informatique du futur. »

L’équipe espère qu’avec un perfectionnement supplémentaire des performances électriques, le commutateur informatique amélioré pourra être facilement intégré dans des microprocesseurs en utilisant des approches établies. Elle cherche à collaborer avec des entreprises de fabrication de semi-conducteurs et des intégrateurs de systèmes pour étendre la technologie à une adoption plus large.

Légende illustration : (À gauche) Représentation artistique du dispositif microélectronique skyrmionique. (À droite) Plaque de 200 mm contenant plus de 100 000 dispositifs microélectroniques skyrmioniques (Crédit : A*STAR et NUS)

Article : “All-electrical skyrmionic magnetic tunnel junction” – DOI: s41586-024-07131-7

[1] Les ordinateurs codent l’information en séquences de bits. Chaque bit représente soit 0, soit 1. La commutation de bits, qui consiste à faire passer un bit de 0 à 1 et vice versa, est une opération fondamentale pour l’informatique.
[2] Impact des technologies de l’information sur la consommation mondiale d’énergie (go-globe.com)
[3] Chiffre binaire : Unité de base des données en informatique numérique et en logique numérique, représentant un état qui peut être soit 0, soit 1. Tout comme un interrupteur, il peut avoir deux positions : marche ou arrêt. Dans le contexte de l’informatique, ces deux états se traduisent respectivement par 0 (“off”) et 1 (“on”).

Quand les nanoparticules de plastique envahissent l’Arctique en silence

Quand les nanoparticules de plastique envahissent l'Arctique en silence

La pollution plastique est un enjeu environnemental majeur qui nécessite une compréhension approfondie des mécanismes de transport et d’accumulation des micro et nanoplastiques dans les écosystèmes. Alice Pradel, chercheuse en sciences de l’environnement à l’ETH Zurich, s’attaque à cette problématique en cultivant des carottes de glace en laboratoire pour étudier les flux de matière dans la banquise arctique.

La campagne «Beat the Microbead», lancée en 2012 pour réduire l’utilisation des microplastiques dans les produits cosmétiques, a été un électrochoc pour Alice Pradel. « En tant que jeune scientifique de l’environnement, j’ai été choquée que nous déversions tous ces produits chimiques dans l’environnement sans nous soucier de leur devenir », se souvient-elle.

Fascinée par la capacité des sciences de l’environnement à approfondir notre compréhension de la relation entre l’humanité et son environnement, Pradel a orienté ses études de master à l’Université de Rennes sur l’accumulation de différents produits chimiques, comme les pesticides, dans les sols et autres milieux poreux.

La miniaturisation des plastiques, un phénomène préoccupant

Lors d’une conférence de Julien Gigault, chimiste au CNRS, Alice Pradel a découvert comment les plastiques dans l’environnement se fragmentent en particules de plus en plus petites sous l’action de processus biotiques et abiotiques, acquérant de nouvelles propriétés. Cette miniaturisation leur permet d’envahir tous les systèmes écologiques, un fait à la fois fascinant et alarmant.

Sa thèse de doctorat, supervisée par Gigault, a porté sur l’accumulation des micro et nanoplastiques dans les matériaux poreux. La chercheuse a été stupéfaite de découvrir que de grandes quantités de microplastiques s’accumulaient également dans la banquise arctique, un phénomène confirmé par de récentes études.

Alice Pradel, boursière de l’ETH, dans la chambre froide : ici, elle crée des carottes de glace dans des colonnes remplies d’eau de mer pour étudier le transport des micro- et nanoplastiques dans la glace. (Photo : Michel Büchel / ETH Zurich)

Une étude de 2018 a montré que les plus petites particules de microplastiques sont les plus courantes dans la glace de mer. Les microplastiques sont, par définition, inférieurs à 5 centimètres, et les nanoplastiques inférieurs à 1 micromètre. Les chercheurs ne peuvent pas quantifier les particules de plastique inférieures à 10 micromètres, qui constituent la limite analytique. « Cela suggère que nous ne pouvons ni voir ni mesurer avec précision la majeure partie du plastique présent dans la glace de mer », ajoute Alice Pradel.

Cultiver des carottes de glace pour étudier les flux de matière

Pendant sa thèse, Alice Pradel a développé une méthode pour faire pousser de la glace de mer en laboratoire. Depuis avril 2022, elle cultive ces carottes de glace dans le cadre d’un post-doctorat au Département des sciences de l’environnement de l’ETH Zurich. En ajoutant des particules de micro et nanoplastiques à l’eau de mer au début du processus, il est possible de suivre comment les particules passent de l’eau à la glace et où elles restent.

La chercheuse collabore avec le groupe de recherche du professeur Denise Mitrano, qui étudie les particules anthropiques, leur toxicité et leur impact sur l’environnement. Ce dernier a notamment développé des méthodes analytiques permettant de mesurer beaucoup plus précisément les micro et nanoplastiques, un complément idéal aux recherches.

Alice Pradel présente différents types de microplastiques. (Photo : Michel Büchel / ETH Zurich)

Collaborations pour une analyse approfondie des carottes de glace

Alice Pradel collabore également avec des chercheurs de l’Institut fédéral de recherches sur la forêt, la neige et le paysage (WSL). Elle utilise la tomographie au laboratoire du WSL à Davos pour analyser ses carottes de glace à -15°C. Les images obtenues fournissent des données sur la porosité et la structure de la glace, des informations cruciales pour comprendre où s’accumulent les particules de micro et nanoplastiques.

Mme Pradel pense que ses expériences peuvent également ouvrir de nouvelles possibilités dans d’autres domaines de recherche.

« Le réchauffement climatique rend toute la banquise arctique beaucoup plus dynamique. La glace elle-même s’amincit, les processus de fonte s’accélèrent et la redistribution des sels et des particules dans la glace s’intensifie », explique-t-elle.

Les expériences de Pradel permettent de simuler ces évolutions en laboratoire sans que les chercheurs aient à se rendre en Arctique.

« Cela est d’autant plus logique que notre objectif est de mener des recherches sur l’environnement en respectant le climat », explique-t-elle. Cependant, ses recherches ne lui permettront pas d’éviter complètement les voyages dans le Grand Nord : l’hiver prochain, Mme Pradel se rendra pour la première fois dans l’océan Arctique afin de mesurer le plus précisément possible l'”empreinte plastique” de l’humanité dans la glace.

Légende illustration : Alice Pradel, boursière de l’ETH, dans la chambre froide : elle crée ici des carottes de glace dans des colonnes remplies d’eau de mer afin d’étudier le transport des micro- et nanoplastiques dans la glace. (Photo : Michel Büchel / ETH Zurich)

Comprendre la corrosion pour créer des métaux de nouvelle génération

Comprendre la corrosion pour créer des métaux de nouvelle génération

Les chercheurs du Laboratoire national du Pacifique Nord-Ouest (PNNL) aux USA ont développé une nouvelle technique révolutionnaire pour étudier en détail les processus de corrosion des métaux. Cette avancée permet de mieux comprendre comment et pourquoi la corrosion se produit, ouvrant ainsi la voie à la conception de matériaux plus résistants et durables.

Les limites des méthodes traditionnelles d’étude de la corrosion

Les méthodes classiques d’étude de la corrosion, comme la technique du « cook-and-look », présentent de nombreux inconvénients. Les chercheurs ne peuvent observer la corrosion qu’après qu’elle se soit produite, ce qui les oblige à émettre des hypothèses sur son initiation et sa progression. De plus, le fait de retirer et de réinsérer régulièrement l’échantillon peut fausser les résultats.

D’autres techniques, comme la technique de l’électrode vibrante à balayage ou la microscopie électrochimique à balayage, utilisent un courant pour mesurer les propriétés électrochimiques des échantillons, mais les irrégularités de surface peuvent interférer avec les résultats.

L’analyse multimodale de la corrosion : une approche innovante

Pour pallier ces limitations, les chercheurs du PNNL ont mis au point l’analyse multimodale de la corrosion. Cette technique combine l’utilisation de capteurs, de caméras, d’électrodes et d’un tube de collecte d’hydrogène pour observer en temps réel la progression de la corrosion dans des atmosphères simples, comprendre la nature des surfaces grâce à des techniques électrochimiques, et imager et collecter les gaz d’hydrogène, sous-produits de la corrosion.

Sridhar Niverty, chercheur en sciences des matériaux au PNNL, explique : « En combinant les données de ces modalités simples et diverses en temps réel, nous pouvons répondre à des questions fondamentales sur la façon dont la corrosion s’initie et se propage dans les matériaux. »

La microscopie d’impédance électrochimique à balayage

Pour analyser la corrosion avec encore plus de précision, les scientifiques du PNNL ont développé la microscopie d’impédance électrochimique à balayage. Cette technique utilise un capillaire miniature contenant l’électrolyte, l’électrode de référence et l’électrode de collecte de courant. En posant l’ouverture du capillaire sur la surface, les chercheurs peuvent mesurer les propriétés électrochimiques localisées et dépendantes du temps sans interférence des régions voisines.

Lyndi Strange, chimiste au PNNL, souligne : «L’ajout de la spectroscopie d’impédance à la technique a été inestimable pour comprendre comment une surface change à travers un joint métallique (ou un alliage) en corrélant les résistances mesurées aux caractéristiques physiques du métal.»

Des applications pour les techniques de soudage par friction

Ces avancées sont particulièrement utiles pour les chercheurs du PNNL qui travaillent sur la production et les tests de matériaux légers et de joints pour les applications automobiles, en utilisant des méthodes innovantes comme le soudage par friction malaxage.

Rajib Kalsar, chercheur en sciences des matériaux au PNNL, explique : « Grâce à ses capacités uniques, la nouvelle technique est employée pour acquérir des réponses électrochimiques à partir de diverses caractéristiques microstructurales : grains, joints de grains, interfaces, secondes phases, précipités, etc. L’obtention de propriétés électrochimiques individuelles au niveau microscopique est bénéfique pour la conception de matériaux structuraux hautement résistants à la corrosion. »

Vineet Joshi, chercheur en sciences des matériaux au PNNL, conclut : « Si vous comprenez vraiment bien ces interfaces pour la corrosion, vous pouvez commencer à concevoir avec précision, plutôt que de surdimensionner ou sous-dimensionner un composant. »

Légende illustration : La nouvelle méthode de surveillance de la corrosion du PNNL offre une meilleure résolution et une plus grande fiabilité. (Image composite de Melanie Hess-Robinson | Pacific Northwest National Laboratory)

Cette recherche a été mise en évidence dans les numéros d’août 2023 et d’octobre 2023 de Scientific Reports et dans le numéro de juillet 2022 de The Journal of Physical Chemistry.

50 ans après, les batteries sodium-soufre font leur grand retour

50 ans après, les batteries sodium-soufre font leur grand retour

Les batteries sodium-soufre, bien que prometteuses il y a plus de 50 ans, n’ont pas réussi à percer en raison de leurs performances médiocres à température ambiante. Cependant, une récente découverte des chercheurs de Jülich pourrait bien changer la donne et résoudre ce problème de longue date.

Un peu d’histoire

Les batteries sodium-soufre ont fait leur première apparition majeure en 1966 lorsque le constructeur automobile Ford les a présentées aux experts comme une possible source d’énergie pour les voitures électriques. Ces batteries étaient dotées de boîtiers résistants à la chaleur et fonctionnaient à des températures supérieures à 330 °C. Vingt-sept ans plus tard, Ford a installé pour la première fois une batterie de ce type dans des véhicules.

Après plusieurs années de tests avec 100 prototypes du petit fourgon de livraison Ford Ecostar, au cours desquels les batteries ont pris feu à plusieurs reprises, l’entreprise s’est tournée vers la technologie des piles à combustible.

L’US Air Force et le Corps des Marines des Pays-Bas ont également étudié l’application des batteries sodium-soufre dans le domaine spatial et dans les sous-marins, mais cela n’a pas abouti à une production en série. Depuis, cette technologie est restée dans l’ombre.

Actuellement, seule une entreprise japonaise produit de telles batteries, d’une capacité allant jusqu’à 1,45 mégawattheure, destinées à des applications stationnaires et vendues notamment par une grande entreprise chimique allemande.

Dans ces piles à haute température, le sodium liquide sert d’anode et le soufre liquide dans un tissu de graphite sert de cathode. Ils sont séparés par un électrolyte solide constitué d’une couche d’aluminate de sodium. Si la température de fonctionnement est abaissée, il n’y a pas assez de porteurs de charge – les ions sodium – qui traversent l’électrolyte d’une électrode à l’autre. En effet, les électrodes de sodium et de soufre ne sont plus fondues mais solides, ce qui rend la migration ou la pénétration des ions plus difficile. En outre, le contact avec l’électrolyte se détériore, car les surfaces solides sont alors adjacentes et l’électrolyte n’est plus mouillé par les électrodes fondues.

Un regain d’intérêt pour les batteries sodium-soufre

Au cours des dix dernières années, la recherche sur les batteries sodium-soufre a retrouvé de l’importance. Les chercheurs du monde entier sont à la recherche d’alternatives aux batteries lithium-ion qui dominent actuellement le marché, car le lithium est cher et sa production a été critiquée en raison des impacts environnementaux négatifs de l’extraction du lithium. Il en va de même pour le cobalt, un métal utilisé dans de nombreuses batteries lithium-ion.

En revanche, le sodium est disponible en grandes quantités et son extraction est plus respectueuse de l’environnement que celle du lithium, ce qui le rend également beaucoup plus rentable. Cependant, les batteries à base de sodium sont plus lourdes et nécessitent plus d’espace pour stocker la même quantité d’énergie qu’une batterie lithium-ion.

« Pour les systèmes de stockage stationnaires destinés à l’énergie éolienne et solaire, le poids et l’encombrement ne jouent pas un rôle aussi important que pour les batteries des véhicules électriques ou des ordinateurs portables », explique le Dr Frank Tietz de l’Institut de recherche sur l’énergie et le climat (IEK-1) du Forschungszentrum Jülich. « Dans de tels cas, le coût est le facteur le plus décisif pour les systèmes de stockage. »

Des températures élevées nécessaires jusqu’à présent

Il existe cependant un facteur qui complique la viabilité économique des batteries sodium-soufre : elles ne fonctionnent de manière satisfaisante qu’à des températures supérieures à 250 °C ; à des températures plus basses, trop peu de porteurs de charge migrent d’un pôle à l’autre.

L’équipe du Dr Tietz a trouvé une approche pour garantir qu’un nombre suffisant de porteurs de charge puissent également migrer à température ambiante. Pour ce faire, les chercheurs ont apporté deux ajustements. Le changement décisif a été une réduction considérable de l’épaisseur de l’électrolyte.

« La résistance spécifique à la surface de l’électrolyte solide diminue d’un facteur dix s’il est dix fois moins épais que d’habitude », explique le Dr Tietz. Les chercheurs ont également optimisé les possibilités de contact entre l’électrolyte et les deux pôles de sodium et de soufre, respectivement.

Au lieu de produire l’électrolyte à partir d’une seule couche comme d’habitude, les chercheurs de Jülich l’ont construit comme un sandwich composé de trois couches : une couche centrale plus stable et dense entourée de deux couches poreuses. Le sodium et le soufre peuvent être stockés dans ces couches, ce qui améliore le contact entre l’électrolyte et les matériaux d’électrode et, par conséquent, la densité énergétique de la batterie.

Une densité énergétique prometteuse

« Bien qu’il y ait encore une marge d’amélioration, en particulier du côté de l’électrode de soufre, nous avons déjà atteint une densité énergétique d’environ 46 heures (Wh) par kilogramme. Une valeur d’environ 280 Wh par kilogramme serait théoriquement possible avec cette structure de cellule », ajoute Aikai Yang, un doctorant chinois qui a développé le prototype. À titre de comparaison, les batteries lithium-ion actuelles ont une densité énergétique comprise entre 100 Wh et 250 Wh par kilogramme.

« Nous continuerons à rechercher ce type de batterie prometteur, en partie dans le but de produire des cellules de batterie plus grandes. Celles-ci pourraient ensuite être connectées les unes aux autres pour former des systèmes de stockage de batteries stationnaires rentables », précise le professeur Olivier Guillon, directeur de l’IEK-1.

Selon ce spécialiste des matériaux, le nouvel électrolyte solide a déjà suscité l’intérêt de l’industrie. Cela pourrait aider la batterie sodium-soufre à tirer le meilleur parti de cette nouvelle opportunité.

La batterie sodium-soufre développée à l’IEK-1

Électrolyte sandwich

Yang A, Ye R, Song H, et al. Pressureless all-solid-state Na/S batteries with self-supporting Na5YSi4O12 scaffolds. Carbon Energy. 2023; 5:e371. doi:10.1002/cey2.371

Yang A, Ye R, Li X, et al. Fabrication of thin sheets of the sodium superionic conductor Na5YSi4O12 with tape casting. Chem Eng J. 2022; 435 (Part 1):134774. https://doi.org/10.1016/j.cej.2022.134774

Légende illustration : Dr Frank Tietz de l’Institut de recherche sur l’énergie et le climat de Jülich

Article adapté du contenu de Frank Frick | images : Forschungszentrum Jülich/Sascha Kreklau ; Forschungszentrum Jülich/Tobias Schlößer | graphics : Forschungszentrum Jülich

Une “antenne” en 2D stimule l’émission de lumière à partir de nanotubes de carbone

Une "antenne" en 2D stimule l'émission de lumière à partir de nanotubes de carbone

Une équipe de chercheurs du laboratoire RIKEN Nanoscale Quantum Photonics a mis au point une technique innovante combinant ces deux types de nanomatériaux pour générer efficacement de la lumière à l’échelle atomique.

Les nanotubes de carbone, ressemblant à des fils creux d’un diamètre de l’ordre du nanomètre, peuvent générer de la lumière de différentes manières. L’une d’entre elles consiste à exciter les électrons chargés négativement à l’aide d’une impulsion laser, laissant des «trous» chargés positivement. Ces charges opposées peuvent s’associer pour former un état énergétique appelé exciton, qui peut parcourir une distance relativement grande le long d’un nanotube avant de libérer son énergie sous forme de lumière.

L’utilisation d’un laser pour générer des excitons dans les nanotubes de carbone présente toutefois plusieurs obstacles, notamment la faible absorption de l’énergie du laser par le matériau, la nécessité d’un alignement parfait entre les ondes lumineuses et le nanotube, et la capacité des électrons à n’absorber que des longueurs d’onde spécifiques.

Les matériaux 2D comme antennes pour les nanotubes de carbone

Pour surmonter ces limitations, l’équipe de Yuichiro Kato s’est tournée vers les matériaux 2D, des feuilles plates de quelques atomes d’épaisseur, mais beaucoup plus larges qu’un faisceau laser et bien plus efficaces pour convertir les impulsions laser en excitons.

Les chercheurs ont fait croître des nanotubes de carbone sur une tranchée creusée dans un matériau isolant, puis ont placé un flocon de diséléniure de tungstène d’épaisseur atomique sur les nanotubes. Lorsque des impulsions laser frappent ce flocon, elles génèrent des excitons qui se déplacent dans le nanotube et le long de celui-ci, avant de libérer une lumière d’une longueur d’onde plus grande que celle du laser. Il ne faut qu’un millionième de milliardième de seconde pour qu’un exciton passe du matériau 2D au nanotube.

Vers une ingénierie de bande à l’échelle atomique

En testant des nanotubes avec différentes structures affectant les niveaux d’énergie cruciaux au sein du matériau, les chercheurs ont identifié des formes de nanotubes idéales facilitant le transfert des excitons depuis le matériau 2D. Sur la base de ce résultat, ils ont l’intention d’utiliser l’ingénierie de bande, un concept utile en ingénierie des semi-conducteurs, pour réaliser des dispositifs aux propriétés supérieures à l’échelle atomique.

Selon Yuichiro Kato, « lorsque l’ingénierie de bande est appliquée aux semi-conducteurs de faible dimension, on s’attend à l’émergence de nouvelles propriétés physiques et de fonctionnalités innovantes ».

L’équipe espère utiliser ce concept pour développer des dispositifs photoniques et optoélectroniques d’une épaisseur de quelques couches atomiques seulement, ouvrant la voie à de nouveaux effets quantiques potentiellement utiles pour les technologies quantiques futures.

En synthèse

Cette étude démontre le potentiel de la combinaison des nanotubes de carbone et des matériaux 2D pour générer efficacement de la lumière à l’échelle atomique. L’utilisation de matériaux 2D comme antennes pour les nanotubes de carbone permet de surmonter les limitations liées à l’excitation directe des nanotubes par laser. L’ingénierie de bande appliquée à ces nanomatériaux ouvre la voie à de nouvelles propriétés physiques et fonctionnalités innovantes, avec des applications potentielles dans les domaines de la photonique, de l’optoélectronique et des technologies quantiques.

Pour une meilleure compréhension

Qu’est-ce qu’un nanotube de carbone ?

Un nanotube de carbone est une structure cylindrique creuse composée d’atomes de carbone, avec un diamètre de l’ordre du nanomètre. Ces nanotubes possèdent des propriétés électroniques et optiques uniques, ce qui en fait des candidats prometteurs pour diverses applications, notamment dans l’optoélectronique.

Qu’est-ce qu’un exciton ?

Un exciton est un état énergétique formé par l’association d’un électron chargé négativement et d’un «trou» chargé positivement. Les excitons peuvent se déplacer dans un matériau et libérer leur énergie sous forme de lumière lorsqu’ils se recombinent.

Que sont les matériaux 2D ?

Les matériaux 2D sont des feuilles plates d’atomes d’une épaisseur de quelques atomes seulement. Ils possèdent des propriétés électroniques et optiques uniques, différentes de celles des matériaux massifs. Parmi les exemples de matériaux 2D, on peut citer le graphène, le diséléniure de tungstène et le nitrure de bore hexagonal.

Comment les matériaux 2D améliorent la génération de lumière dans les nanotubes ?

Les matériaux 2D agissent comme des antennes pour les nanotubes de carbone, absorbant efficacement l’énergie des impulsions laser et la transférant aux nanotubes sous forme d’excitons. Cela permet de surmonter les limitations liées à l’excitation directe des nanotubes par laser, telles que la faible absorption de l’énergie et la nécessité d’un alignement parfait entre les ondes lumineuses et le nanotube.

Quelles sont les applications potentielles de cette découverte ?

Cette découverte ouvre la voie au développement de dispositifs photoniques et optoélectroniques d’une épaisseur de quelques couches atomiques seulement. Ces dispositifs pourraient exploiter de nouveaux effets quantiques, potentiellement utiles pour les technologies quantiques futures. Les applications potentielles incluent les sources de lumière à l’échelle nanométrique, les capteurs optiques et les composants pour l’information quantique.

Références

Légende illustration principale : Une lamelle de diséléniure de tungstène d’une épaisseur atomique sert de réservoir aux excitons, qui sont constitués d’électrons (en rouge) et de trous (en bleu). Ces excitons passent rapidement dans un étroit nanotube de carbone suspendu au-dessus d’une tranchée. 2024 RIKEN Nanoscale Quantum Photonics Laboratory (Laboratoire de photonique quantique à l’échelle nanométrique)


Fang, N., Chang, Y. R., Yamashita, D., Fujii, S., Maruyama, M., Gao, Y., Fong, C. F., Otsuka, K., Nagashio, K., Okada, S., Kato, Y. K. Resonant exciton transfer in mixed-dimensional heterostructures for overcoming dimensional restrictions in optical processes. Nature Communications 14 8152 (2023). doi: 10.1038/s41467-023-43928-2

La chaleur perdue, un trésor caché pour une catalyse innovante

La chaleur perdue, un trésor caché pour une catalyse innovante

Alors que la demande énergétique ne cesse de croître, l’efficacité d’utilisation des énergies primaires reste inférieure à 40%, entraînant un gaspillage considérable et aggravant les problèmes environnementaux. Face à ce constat, les matériaux thermoélectriques, capables de convertir directement l’énergie thermique en énergie électrique, suscitent un intérêt grandissant dans le domaine de la récupération de la chaleur perdue.

Au-delà de leur utilisation comme générateurs électriques, les matériaux thermoélectriques ouvrent de nouvelles perspectives pour la catalyse. En effet, le faible gradient de température (<100 °C) généré par la chaleur omniprésente dans la nature et la production industrielle fournit une force motrice suffisante pour les réactions catalytiques.

Cette approche permet de réutiliser les ressources de chaleur résiduelle à basse température pour alimenter différents processus catalytiques tels que la production d’hydrogène, la synthèse organique, la purification de l’environnement et les applications biomédicales. Elle offre ainsi une nouvelle solution pour améliorer l’efficacité énergétique, économiser l’énergie, réduire les émissions et promouvoir une catalyse verte.

Une étude pionnière dans le domaine

L’équipe de l’Institut de technologie quantique et durable de l’Université de Jiangsu a proposé le concept de thermoélectrocatalyse (TECatal) et a systématiquement résumé les matériaux et modes de fonctionnement existants dans ce domaine émergent. Quatre principaux modes de fonctionnement ont été suggérés : le mode de structure hybride, le mode monophasé, le mode de nanojonction P-N et le mode de cellule thermogalvanique.

L’étude explore les moyens d’améliorer les performances des matériaux catalytiques thermoélectriques en optimisant les propriétés thermoélectriques, l’ingénierie des bandes, les microstructures et la stabilité. De plus, les perspectives d’application de ces matériaux dans des domaines tels que l’énergie verte, le traitement des tumeurs et la gouvernance environnementale ont été proposées et discutées.

Modes de fonctionnement des systèmes TECatal : (a) mode structure hybride, (b) mode monophasé, (c) mode nanojonction P-N, et (d) mode cellule thermogalvanique. Applications potentielles des matériaux TECatal dans (e) la production de H2 et la réduction de CO2, (f) la thérapie tumorale, (g) le traitement des gaz d’échappement des véhicules, et (h) le revêtement des vitres pour la purification de l’air intérieur. Crédit : ©Science China Press

En synthèse

Les matériaux thermoélectriques offrent une opportunité unique de convertir la chaleur perdue en énergie utile, tout en ouvrant de nouvelles voies pour la catalyse. L’étude menée par l’équipe de l’Université de Jiangsu jette les bases d’une compréhension approfondie de la thermoélectrocatalyse et de ses applications potentielles. Ces travaux fournissent des références importantes pour le développement futur de ce domaine prometteur, qui pourrait contribuer à relever les défis énergétiques et environnementaux auxquels nous sommes confrontés.

Pour une meilleure compréhension

Qu’est-ce que la thermoélectricité ?

La thermoélectricité est la conversion directe de la différence de température en tension électrique et vice versa. Lorsqu’il existe une différence de température aux extrémités d’un matériau thermoélectrique, une force électromotrice thermoélectrique est générée à l’intérieur du matériau, permettant ainsi la conversion de l’énergie thermique en énergie électrique.

Quels sont les principaux modes de fonctionnement de la thermoélectrocatalyse ?

L’étude a identifié quatre principaux modes de fonctionnement de la thermoélectrocatalyse : le mode de structure hybride, le mode monophasé, le mode de nanojonction P-N et le mode de cellule thermogalvanique. Chacun de ces modes présente des caractéristiques et des avantages spécifiques pour différentes applications catalytiques.

Comment améliorer les performances des matériaux catalytiques thermoélectriques ?

Les performances des matériaux catalytiques thermoélectriques peuvent être améliorées en optimisant plusieurs aspects clés, notamment les propriétés thermoélectriques, l’ingénierie des bandes, les microstructures et la stabilité. L’étude explore différentes stratégies pour optimiser ces paramètres et ainsi maximiser l’efficacité de la thermoélectrocatalyse.

Quelles sont les applications potentielles de la thermoélectrocatalyse ?

La thermoélectrocatalyse offre de nombreuses applications potentielles dans des domaines variés tels que l’énergie verte, le traitement des tumeurs et la gouvernance environnementale. En exploitant la chaleur perdue pour alimenter des réactions catalytiques, cette technologie pourrait contribuer à relever les défis énergétiques et environnementaux actuels.

Quelles sont les perspectives d’avenir pour ce domaine de recherche ?

L’étude menée par l’équipe de l’Université de Jiangsu ouvre la voie à de nouvelles recherches et développements dans le domaine de la thermoélectrocatalyse. Les résultats obtenus fournissent des références importantes pour guider les futurs travaux et explorer davantage les applications potentielles de cette technologie prometteuse.

Références

Article : “Thermoelectrocatalysis: An Emerging Strategy for Converting Waste Heat into Chemical Energy” – DOI: 10.1093/nsr/nwz206

Nouvelle batterie à flux de fer entièrement liquide pour le stockage de l’énergie en réseau

Nouvelle batterie à flux de fer entièrement liquide pour le stockage de l'énergie en réseau

Les chercheurs du Pacific Northwest National Laboratory (PNNL) du Département de l’Énergie des États-Unis ont développé une nouvelle conception de batterie utilisant un produit chimique courant dans les installations de traitement de l’eau, afin d’obtenir un stockage d’énergie à grande échelle sûr, économique et respectueux de l’environnement.

Une batterie à flux innovante basée sur le fer

Selon une étude publiée dans Nature Communications, la batterie à base de fer développée par les chercheurs du PNNL a démontré une stabilité remarquable sur plus de mille cycles de charge consécutifs, conservant 98,7 % de sa capacité maximale. La performance surpasse de loin les études précédentes sur des batteries similaires à base de fer, qui rapportaient une dégradation de la capacité de charge deux ordres de grandeur plus élevée, sur un nombre de cycles de charge inférieur.

La particularité de cette nouvelle batterie réside dans son électrolyte liquide unique, combinant du fer chargé avec un liquide à base de phosphate à pH neutre. Cet électrolyte, appelé acide nitrilotri-méthylphosphonique (NTMPA), est disponible commercialement en quantités industrielles, car il est couramment utilisé comme inhibiteur de corrosion dans les usines de traitement de l’eau.

Gabriel Nambafu, auteur principal et chercheur dans le domaine des batteries, assemble un appareil de test de batterie à écoulement. Crédit : Andrea Starr | Pacific Northwest National Laboratory

Les avantages des batteries à flux

Les batteries à flux sont composées de deux chambres, chacune remplie d’un liquide différent. Elles se chargent par une réaction électrochimique et stockent l’énergie dans des liaisons chimiques. Lorsqu’elles sont connectées à un circuit externe, elles libèrent cette énergie, qui peut alimenter des appareils électriques. Contrairement aux batteries conventionnelles, les batteries à flux disposent de deux réservoirs externes de liquide circulant en permanence, servant de «système sanguin» à la batterie.

Plus le réservoir d’électrolyte est grand, plus la batterie à flux peut stocker d’énergie.

Les batteries à flux peuvent servir de générateurs de secours pour le réseau électrique et constituent l’un des piliers d’une stratégie de décarbonation visant à stocker l’énergie provenant de sources renouvelables. Leur avantage est qu’elles peuvent être construites à n’importe quelle échelle, de la taille d’un banc de laboratoire à celle d’un pâté de maisons.

La batterie redox aqueuse à base de fer (Fe) capture l’énergie sous forme d’électrons (e-) provenant de sources d’énergie renouvelables et la stocke en modifiant la charge du fer dans l’électrolyte liquide qui s’écoule. Lorsque l’énergie stockée est nécessaire, le fer peut libérer la charge pour fournir de l’énergie (électrons) au réseau électrique. Credit: Sara Levine | Pacific Northwest National Laboratory

Perspectives d’avenir pour les batteries à flux aqueuses

L’équipe de recherche a rapporté que leur conception initiale peut atteindre une densité énergétique allant jusqu’à 9 wattheures par litre (Wh/L). En comparaison, les systèmes commercialisés à base de vanadium ont une densité énergétique deux fois supérieure, à 25 Wh/L. Les batteries à plus haute densité énergétique peuvent stocker plus d’énergie dans une surface plus petite, mais un système construit avec des matériaux abondants sur Terre pourrait être dimensionné pour fournir la même production d’énergie.

Guosheng Li, auteur principal de l’étude et scientifique principal au PNNL, a précisé : « Notre prochaine étape est d’améliorer les performances de la batterie en nous concentrant sur des aspects tels que la tension de sortie et la concentration de l’électrolyte, ce qui contribuera à augmenter la densité énergétique. Notre tension de sortie est inférieure à celle d’une batterie à flux de vanadium typique. Nous travaillons sur des moyens d’améliorer cela. »

Légende illustration : De nouvelles technologies de batteries à flux sont nécessaires pour moderniser le réseau électrique américain et permettre le stockage de l’énergie provenant de sources renouvelables telles que l’énergie éolienne et solaire.

Quand les abeilles dansent, leurs antennes parlent

Quand les abeilles dansent, leurs antennes parlent

Les abeilles sont connues pour leur capacité à communiquer efficacement au sein de leur colonie, notamment grâce à la célèbre danse frétillante. Une équipe de chercheurs de l’Université d’Édimbourg a récemment découvert comment les abeilles décodent ces danses dans l’obscurité totale de la ruche, en utilisant leurs antennes pour interpréter les informations transmises par leurs congénères.

Les chercheurs ont étudié une colonie d’abeilles dans un rucher de l’université et ont utilisé des modèles informatiques pour simuler les processus cérébraux des insectes. En filmant les abeilles en slow motion et en haute résolution sous lumière infrarouge, ils ont pu suivre en détail la position des antennes des abeilles entourant la danseuse pendant chaque danse frétillante.

Les chercheurs ont observé que les abeilles modifient la position de leurs antennes, qui sont touchées à plusieurs reprises par la danseuse lors de ses mouvements, en fonction de l’angle de leur corps par rapport à la danseuse. Cette découverte a permis de comprendre comment les abeilles peuvent décoder les danses depuis n’importe quel angle, ou même depuis des positions en constante évolution, en combinant les signaux captés par leurs antennes avec leur propre sens de la gravité.

Un modèle informatique révélateur

En utilisant un modèle informatique reproduisant les circuits cérébraux connus de l’abeille, les chercheurs ont montré que moins d’une centaine de neurones sont nécessaires pour intégrer ces informations et déterminer l’angle et la distance de la source de nourriture signalée par la danse frétillante.

Anna Hadjitofi, de l’École d’informatique de l’université, souligne l’élégance remarquable de ce mécanisme neural employé par les abeilles pour déchiffrer des informations complexes avec un minimum de ressources. Cette découverte ouvre la voie à une meilleure compréhension des effets de problèmes tels que la perte d’habitat et l’utilisation de pesticides sur la capacité des abeilles à trouver de la nourriture.

En synthèse

Cette étude met en lumière les capacités extraordinaires des abeilles à communiquer et à traiter des informations complexes malgré la taille réduite de leur cerveau. Les chercheurs espèrent que ces nouvelles connaissances permettront de mieux comprendre et protéger ces insectes essentiels à notre écosystème, tout en inspirant la conception d’ordinateurs plus compacts et éco-énergétiques.

Pour une meilleure compréhension

Comment les abeilles communiquent-elles dans la ruche ?

Les abeilles utilisent la danse frétillante pour transmettre des informations sur la direction et la distance de sources de nourriture à l’extérieur de la ruche. Cette danse est effectuée dans l’obscurité totale de la ruche.

Quel rôle jouent les antennes dans la communication des abeilles ?

Les antennes des abeilles leur permettent de décoder les danses frétillantes de leurs congénères. Elles sont touchées à plusieurs reprises par la danseuse lors de ses mouvements, et les abeilles modifient la position de leurs antennes en fonction de l’angle de leur corps par rapport à la danseuse.

Comment les chercheurs ont-ils étudié la communication des abeilles ?

Les chercheurs ont filmé les abeilles en slow motion et en haute résolution sous lumière infrarouge, ce qui leur a permis de suivre en détail la position des antennes des abeilles entourant la danseuse pendant chaque danse frétillante. Ils ont également utilisé des modèles informatiques pour simuler les processus cérébraux des insectes.

Quelles sont les implications de cette découverte ?

Cette découverte permet de mieux comprendre comment les abeilles communiquent et traitent des informations complexes malgré la taille réduite de leur cerveau. Elle pourrait également aider à mieux appréhender les effets de problèmes tels que la perte d’habitat et l’utilisation de pesticides sur la capacité des abeilles à trouver de la nourriture.

Quelles sont les perspectives futures de cette recherche ?

Les chercheurs espèrent que ces nouvelles connaissances permettront de mieux comprendre et protéger les abeilles, tout en inspirant la conception d’ordinateurs plus compacts et éco-énergétiques. Des études supplémentaires pourraient être menées pour approfondir notre compréhension de la communication et des capacités cognitives des abeilles.

Références

Légende illustration : Des scientifiques ont découvert comment les abeilles mellifères peuvent déchiffrer les danses de leurs compagnes de ruche qui leur indiquent la direction à suivre pour trouver de la nourriture.

Article : “Dynamic antennal positioning allows honeybee followers to decode the dance” – DOI: https://doi.org/10.1016/j.cub.2024.02.045

QuVET : 4 universités US pour percer les secrets quantiques

QuVET : 4 universités US pour percer les secrets quantiques

Le physicien Nathaniel Gabor de l’Université de Californie à Riverside a reçu une subvention de 7,5 millions de dollars du Département de la Défense (DoD) pour développer un centre d’Initiatives de Recherche Universitaire Multidisciplinaire (MURI) sur le campus. Appelé QuVET pour le Centre de Vibronique Quantique en Énergie et en Temps, les co-chercheurs principaux du centre sont des scientifiques de premier plan à l’UCR, au Caltech, au MIT et à l’Université Columbia.

Vibronique“, un mot-valise composé de vibrationnel et électronique, fait référence aux transitions entre les états d’énergie moléculaire. Le comportement vibronique est au cœur des systèmes biologiques et matériels et pourrait avoir un impact sur l’efficacité de la récolte d’énergie des technologies futures. Les effets vibroniques – transitions vibrationnelles qui accompagnent les transitions électroniques – se produisent dans des systèmes allant des antennes photosynthétiques de collecte de lumière aux gaz moléculaires et aux matériaux à l’état solide.

Nathaniel Gabor, professeur de physique et d’astronomie et chercheur principal de la subvention de cinq ans, pense que le partenariat solide avec les laboratoires du DoD et l’industrie positionnera QuVET pour être un épicentre scientifique et technologique de la vibronique quantique. Il a déclaré que la science visionnaire que représente QuVet pourrait placer l’UCR à la tête d’une nouvelle ère de la science, où la biologie, la physique et la chimie sont explorées à travers le prisme de la mécanique quantique.

C’est la science à son meilleur, attirant beaucoup d’attention positive sur l’UCR“, a déclaré Shan-Wen Tsai, président du Département de Physique et d’Astronomie. “QuVet ouvrira de nombreuses bonnes opportunités de recherche pour nos étudiants de premier et de deuxième cycle.

Dans l’entretien suivant, Nathaniel Gabor, un leader dans les domaines des matériaux quantiques et de la recherche sur la collecte de lumière photosynthétique, discute de sa vision pour le nouveau centre qu’il dirigera. Vivek Aji, professeur de physique et d’astronomie à l’UCR et co-chercheur principal de la subvention, partage également ses réflexions.

QuVet est rendu possible grâce à une subvention de 7,5 millions de dollars sur cinq ans du ministère américain de la défense. Crédit : Gabor lab, UC Riverside,

Q : Sur quelles recherches QuVet se concentrera-t-il spécifiquement ?

Gabor : Aux échelles de longueur des atomes et des molécules, les vibrations atomiques peuvent fortement affecter le comportement ondulatoire (nature quantique) des électrons. Lorsque les vibrations et les électrons interagissent, le comportement résultant ne peut être décrit que comme vibronique. Nous avons réuni une équipe de physiciens, chimistes, biochimistes et biologistes pour relever trois défis critiques dans la réalisation de nouvelles technologies qui exploitent la mécanique quantique :

– Dans de nombreux systèmes moléculaires et matériels, les vibrations agissent pour retirer de l’énergie aux électrons, diminuant l’efficacité globale du transport d’énergie. Cependant, les organismes photosynthétiques se sont adaptés pour exploiter les vibrations afin d’améliorer le mouvement efficace de l’énergie. Dans de nouveaux systèmes moléculaires et matériels, pouvons-nous obtenir le même résultat que la photosynthèse afin d’améliorer le transport vers des efficacités optimales ?

– Le réglage de l’interaction entre le mouvement atomique et les états électroniques via un contrôle expérimental reste impossible, empêché par l’incapacité des scientifiques à concevoir des matériaux à l’échelle atomique. Les nouvelles stratégies biochimiques et les nouveaux matériaux peuvent-ils permettre un contrôle direct sur le comportement ondulatoire des excitations électroniques et vibrationnelles ?

– Les principes de conception n’existent pas pour les systèmes quantiques de nouvelle génération, qui mettent en œuvre de forts effets vibratoires. Comment pouvons-nous nous inspirer de la biologie pour développer de nouvelles technologies basées sur des états exotiques dans lesquels les vibrations affectent directement le comportement électronique ?

Q : Qu’impliquera la collaboration avec les scientifiques du Caltech, du MIT et de l’Université Columbia ?

Aji : L’équipe QuVET rassemble des chercheurs de premier plan dans des disciplines allant de la physique quantique (UCR et Columbia) et de la chimie quantique (Caltech et Columbia) à la biophysique, la biochimie (MIT et UCR) et les matériaux quantiques (Columbia et UCR). Chaque membre de l’équipe apporte une expertise unique qui couvre stratégiquement une large base scientifique. Étant donné que les objectifs du centre sont ambitieux et tentent de résoudre un problème transdisciplinaire majeur, il est important que chacun des membres de l’équipe soit un penseur créatif et un scientifique interdisciplinaire.

Q : Pourquoi est-ce le bon moment pour un centre comme celui-ci ?

Gabor : La compréhension théorique et le contrôle expérimental du comportement vibronique sont compliqués par la large gamme de processus physiques qui se produisent également dans des systèmes complexes, tels que les antennes moléculaires de collecte de lumière de la photosynthèse, où les effets vibroniques jouent les rôles les plus importants. En effet, un traitement quantique complet des effets vibroniques n’existe pas.

La biologie, la physique et la chimie convergent à l’échelle atomique et moléculaire, où la mécanique quantique devient beaucoup plus importante qu’à grande échelle. À mesure que nos technologies de recherche ont progressé – et que nous étudions collectivement les molécules et les matériaux à des échelles de plus en plus petites – de plus en plus d’études indiquent que la mécanique quantique est un moyen de comprendre les comportements émergents.

Récemment, il a été découvert que le mouvement vibratoire des atomes joue un rôle essentiel non seulement dans l’efficacité remarquablement élevée des organismes photosynthétiques, mais aussi dans l’efficacité du transfert d’énergie dans les matériaux électroniques. Nos projets sont parmi les premiers à explorer la capacité d’ingénierie de l’interaction entre le mouvement vibratoire et les états électroniques, annonçant une nouvelle ère de la science quantique.

Nous pensons que la vibronique quantique aura un impact majeur sur la science fondamentale et la technologie impliquant à la fois la biologie/biochimie des processus quantiques dans la détection de la lumière et la compréhension des nouvelles propriétés optoélectroniques dans les matériaux quantiques – deux domaines à la pointe de la recherche fondamentale au sein du DoD.

Q : Qu’est-ce qui distingue ce centre des autres centres similaires ailleurs ?

Aji : Actuellement, aucun autre centre ne se concentre fortement sur les effets vibroniques et les technologies futures possibles qui résulteraient d’une compréhension approfondie des phénomènes vibroniques quantiques.

QuVET adopte une approche multidisciplinaire très forte des défis que nous avons décrits ici. Les effets vibroniques se produisent à de nombreux endroits dans la nature et leur compréhension complète nécessite une combinaison très spéciale de personnes et d’expertise.

Q : Qu’espérez-vous que ce centre accomplira ?

Gabor : J’espère que ce centre marquera un pivot vers la science transdisciplinaire à l’UCR. Avec des ressources engagées judicieusement, l’UCR pourrait être le leader dans les sujets émergents où la mécanique quantique décrit l’interface entre la physique, la chimie, la biologie et l’ingénierie.

Matière noire, dimensions cachées : l’ETL prêt à relever le défi

Matière noire, dimensions cachées : l'ETL prêt à relever le défi

Une équipe de physiciens américains, dirigée par Wei Li, s’est vue attribuer une subvention de 15,5 millions de dollars sur cinq ans par le Bureau de la physique nucléaire du Département de l’énergie des États-Unis (DOE) dans le cadre du programme Compact Muon Solenoid (CMS) ou Solénoïde compact pour muons.

L’expérience CMS est l’un des deux grands détecteurs de physique des particules polyvalents construits sur le Grand collisionneur de hadrons (LHC) au CERN, l’organisation européenne pour la recherche nucléaire située à la frontière entre la France et la Suisse.

L’équipe du Rice comprend le chercheur principal associé Frank Geurts et les chercheurs Nicole Lewis et Mike Matveev. Sous la direction de Li, un effort collaboratif entre le Rice, le Massachusetts Institute of Technology, l’Oak Ridge National Lab, l’University of Illinois Chicago et l’University of Kansas sera entrepris pour développer un détecteur de synchronisation au silicium ultra-rapide appelé endcap timing layer (ETL).

Cette technologie de pointe constitue un élément crucial des mises à niveau de l’expérience CMS et est sur le point de bousculer notre compréhension de la physique fondamentale.

L’ETL, outil pour l’étude le plasma quark-gluon et la force nucléaire forte

Selon Wei Li, professeur de physique et d’astronomie à Rice, « L’ETL permettra des avancées scientifiques dans le domaine des collisions d’ions lourds, nous permettant d’explorer les propriétés d’un nouvel état remarquable de la matière appelé plasma quark-gluon. Cela offre à son tour des informations précieuses sur la force nucléaire forte qui lie les particules au cœur de la matière. »

Les caractéristiques clés de l’ETL comprennent deux disques de chaque côté du détecteur CMS, représentant la moitié de l’ensemble du projet international ETL et offrant une résolution temporelle de 30 picosecondes par particule. Le détecteur permettra des capacités d’identification des particules sans précédent grâce à des mesures précises du temps de vol, contribuant au Grand collisionneur de hadrons à haute luminosité (HL-LHC), une mise à niveau du LHC qui devrait être lancée en 2029.

Nicole Lewis, Mike Matveev, le professeur Wei Le et Frank Geurts. Photo avec l’aimable autorisation de l’Université de Rice.

HL-LHC : luminosité accrue pour des découvertes scientifiques

Le HL-LHC fonctionnera à environ 10 fois la luminosité de la configuration d’origine du collisionneur. L’augmentation de la luminosité produit plus de données, permettant aux physiciens d’étudier les mécanismes connus de manière plus détaillée et d’observer de nouveaux phénomènes rares qui pourraient se révéler. Par exemple, le HL-LHC produira au moins 15 millions de bosons de Higgs par an, contre environ trois millions collectés lors du fonctionnement du LHC en 2017.

Une fois achevé, l’ETL permettra d’étudier un large éventail de phénomènes physiques, notamment l’étude du plasma quark-gluon, la recherche du boson de Higgs, mais aussi les dimensions supplémentaires et les particules qui pourraient constituer la matière noire.

Un projet aux retombées scientifiques majeures

Au-delà de son impact sur le LHC, les résultats du projet ETL ont un potentiel considérable de synergie avec d’autres installations de pointe comme le collisionneur électron-ion au Brookhaven National Laboratory du DOE à Long Island, New York. Le projet est destiné à façonner le paysage scientifique de la prochaine décennie.

Un conversation quantique avec des disques magnétiques

Un conversation quantique avec des disques magnétiques

Les ordinateurs quantiques offrent des perspectives prometteuses pour résoudre certains des problèmes les plus complexes auxquels l’humanité est confrontée aujourd’hui. Si une grande attention a été portée sur le calcul de l’information quantique, la transduction de l’information au sein des réseaux quantiques est tout aussi cruciale pour concrétiser le potentiel de cette nouvelle technologie.

Une équipe de recherche du Helmholtz-Zentrum Dresden-Rossendorf (HZDR) propose une nouvelle approche pour transduire l’information quantique, en manipulant des bits quantiques, appelés qubits, grâce au champ magnétique des magnons – des excitations ondulatoires dans un matériau magnétique – qui se produisent dans des disques magnétiques microscopiques.

Les défis de la construction d’un ordinateur quantique universel

La construction d’un ordinateur quantique programmable et universel est l’un des défis les plus complexes en matière d’ingénierie et de science de notre époque. La réalisation d’un tel ordinateur offre un grand potentiel pour divers secteurs industriels tels que la logistique, la finance et la pharmacie. La construction d’un ordinateur quantique pratique a été toutefois entravée par la fragilité intrinsèque du stockage et du traitement de l’information dans cette technologie.

L’information quantique est encodée dans des qubits, qui sont extrêmement sensibles au bruit de leur environnement. De minuscules fluctuations thermiques, une fraction de degré, pourraient totalement perturber le calcul. Cela a incité les chercheurs à répartir les fonctionnalités des ordinateurs quantiques entre différents modules distincts, dans le but de réduire les taux d’erreur et de tirer parti des avantages complémentaires de leurs composants.

Les chercheurs du HZDR ont réussi à générer des excitations ondulatoires dans un disque magnétique – appelées magnons – pour manipuler spécifiquement des qubits de taille atomique dans du carbure de silicium. Cela pourrait ouvrir de nouvelles possibilités pour la transduction d’informations dans les réseaux quantiques. Credit : HZDR / Mauricio Bejarano

La transduction de l’information quantique par les magnons

Mauricio Bejarano, chercheur au HZDR et premier auteur de la publication, souligne : « Cependant, cela pose le problème du transfert de l’information quantique entre les modules d’une manière qui ne perde pas l’information. Notre recherche se situe précisément dans cette niche spécifique, la transduction de la communication entre différents modules quantiques. »

La méthode actuellement établie pour transférer l’information quantique et adresser les qubits est l’utilisation d’antennes micro-ondes. C’est l’approche utilisée par Google et IBM dans leurs puces supraconductrices, la plateforme technologique à l’avant-garde de cette course quantique. « Nous, en revanche, adressons les qubits avec des magnons », explique le physicien du HZDR Helmut Schultheiß, qui a supervisé les travaux.

« On peut les considérer comme des ondes d’excitation magnétique qui traversent un matériau magnétique. L’avantage ici est que la longueur d’onde des magnons se situe dans la gamme des micromètres et est nettement plus courte que les ondes centimétriques de la technologie micro-ondes conventionnelle. Par conséquent, l’empreinte micro-ondes des magnons prend moins de place dans la puce. »

Un diviseur de fréquence sophistiqué

Le groupe du HZDR a étudié l’interaction des magnons et des qubits formés par des lacunes d’atomes de silicium dans la structure cristalline du carbure de silicium, un matériau couramment utilisé dans l’électronique de puissance. Ces types de qubits sont généralement appelés qubits de spin, étant donné que l’information quantique est encodée dans l’état de spin de la lacune.

Mais comment les magnons peuvent-ils être utilisés pour contrôler ces types de qubits ? « Typiquement, les magnons sont générés avec des antennes micro-ondes. Cela pose le problème qu’il est très difficile de séparer l’excitation micro-ondes provenant de l’antenne de celle provenant des magnons », explique Mauricio Bejarano.

Pour isoler les micro-ondes des magnons, l’équipe du HZDR a utilisé un phénomène magnétique exotique observable dans des disques magnétiques microscopiques d’un alliage nickel-fer. « En raison d’un processus non linéaire, certains magnons à l’intérieur du disque possèdent une fréquence beaucoup plus basse que la fréquence d’excitation de l’antenne. Nous manipulons les qubits uniquement avec ces magnons de fréquence inférieure. »

L’équipe de recherche souligne qu’elle n’a pas encore effectué de calculs quantiques. Cependant, elle a montré qu’il est fondamentalement possible d’adresser les qubits exclusivement avec des magnons.

Exploiter la puissance des magnons

Helmut Schultheiß insiste : « À ce jour, la communauté de l’ingénierie quantique n’a pas encore réalisé que les magnons peuvent être utilisés pour contrôler les qubits. Mais nos expériences démontrent que ces ondes magnétiques pourraient effectivement être utiles. »

Afin de développer davantage leur approche, l’équipe prépare déjà ses plans futurs : elle veut essayer de contrôler plusieurs qubits individuels étroitement espacés de manière à ce que les magnons servent de médiateur à leur processus d’intrication – une condition préalable à l’exécution de calculs quantiques.

Leur vision est qu’à long terme, les magnons pourraient être excités par des courants électriques directs avec une telle précision qu’ils adresseraient spécifiquement et exclusivement un seul qubit dans un réseau de qubits. Cela permettrait d’utiliser les magnons comme un bus quantique programmable pour adresser les qubits de manière extrêmement efficace.

Bien qu’il reste encore beaucoup de travail à faire, les recherches du groupe soulignent que la combinaison des systèmes magnoniques avec les technologies quantiques pourrait fournir des informations utiles pour le développement d’un ordinateur quantique pratique à l’avenir.

Légende illustration : Les chercheurs du HZDR ont réussi à générer des excitations ondulatoires dans un disque magnétique – appelées magnons – pour manipuler spécifiquement des qubits de taille atomique dans du carbure de silicium. Cela pourrait ouvrir de nouvelles possibilités pour la transduction d’informations dans les réseaux quantiques.

Article : “Parametric magnon transduction to spin qubits” – DOI: 10.1126/sciadv.adi2042 

Dites bonjour aux microplastiques biodégradables

Dites bonjour aux microplastiques biodégradables

Les microplastiques, ces fragments minuscules et presque indestructibles issus des produits en plastique du quotidien, suscitent des inquiétudes au fur et à mesure que les recherches progressent. Déjà bien documentés dans nos océans et nos sols, nous les découvrons maintenant dans les endroits les plus improbables : nos artères, nos poumons et même les placentas. La recherche d’alternatives viables aux plastiques traditionnels à base de pétrole et aux microplastiques n’a jamais été aussi cruciale.

Une nouvelle étude menée par des scientifiques de l’Université de Californie à San Diego et de l’entreprise de science des matériaux Algenesis montre que leurs polymères à base de plantes se biodégradent, même au niveau microplastique, en moins de sept mois.

Le professeur de chimie et de biochimie Michael Burkart, l’un des auteurs de l’article et cofondateur d’Algenesis, souligne l’importance de cette découverte : « Nous commençons tout juste à comprendre les implications des microplastiques. Nous n’avons fait qu’effleurer la surface pour connaître les impacts environnementaux et sanitaires. Nous essayons de trouver des substituts aux matériaux existants et de nous assurer que ces substituts se biodégraderont à la fin de leur vie utile au lieu de s’accumuler dans l’environnement. Ce n’est pas facile. »

Des tests concluants

Pour tester la biodégradabilité de leur produit, l’équipe a broyé le matériau en fines microparticules et a utilisé trois outils de mesure différents pour confirmer que, placé dans un compost, le matériau était digéré par les microbes. Les résultats ont montré que le polymère à base de plantes correspondait à la cellulose, considérée comme la référence industrielle en matière de biodégradabilité à 100 %.

Le comptage des particules de microplastiques à base de pétrole (EVA) et à base de plantes (TPU-FC1) montre qu’au fil du temps, les EVA ne présentent pratiquement aucune biodégradation, tandis que les TPU ont pratiquement disparu au 200e jour. Crédit : Algenesis Corporation

Après 90 jours, seulement 32 % des microplastiques à base d’algues ont été récupérés, montrant que plus des deux tiers s’étaient biodégradés. Après 200 jours, seulement 3 % ont été récupérés, indiquant que 97 % avaient disparu. En comparaison, près de 100 % des microplastiques à base de pétrole ont été récupérés après 200 jours, ce qui signifie qu’aucun ne s’était biodégradé.

Un long chemin vers la viabilité

Créer une alternative écologique aux plastiques à base de pétrole n’est qu’une partie du long chemin vers la viabilité. Le défi constant est de pouvoir utiliser le nouveau matériau sur des équipements de fabrication préexistants, initialement conçus pour le plastique traditionnel. Algenesis progresse dans ce domaine en s’associant à plusieurs entreprises pour fabriquer des produits utilisant les polymères à base de plantes développés à l’UC San Diego, notamment Trelleborg pour les tissus enduits et RhinoShield pour la production d’étuis de téléphone portable.

Comme le souligne le professeur Burkart, « Quand nous avons commencé ce travail, on nous a dit que c’était impossible. Maintenant, nous voyons une réalité différente. Il y a encore beaucoup de travail à faire, mais nous voulons donner de l’espoir aux gens. C’est possible. »

Article : “Rapid biodegradation of microplastics generated from bio-based thermoplastic polyurethane” – DOI: 10.1038/s41598-024-56492-6

Des chercheurs multiplient par 55 l’efficacité de l’électrolyse grâce au nickel

Des chercheurs multiplient par 55 l'efficacité de l'électrolyse grâce au nickel

La production d’hydrogène par électrolyse de l’eau est une technologie prometteuse pour un avenir énergétique plus propre. Cependant, les défis liés à l’efficacité et aux coûts de production ont freiné son développement. Une équipe de chercheurs de l’Université des sciences et technologies de Pohang (POSTECH) a récemment publié une étude qui pourrait changer la donne.

L’équipe de recherche collaborative, composée du professeur Jong Kyu Kim, de Jaerim Kim, doctorante, du professeur Yong-Tae Kim et du docteur Sang-Mun Jung du département des sciences et de l’ingénierie des matériaux de POSTECH, a réussi à développer un catalyseur économique et efficace pour l’électrolyse de l’eau.

Les limites des catalyseurs conventionnels

Les processus d’électrolyse de l’eau utilisent généralement des métaux précieux coûteux comme le platine en tant que catalyseurs pour la production d’hydrogène, ce qui rend le processus excessivement onéreux. De plus, l’utilisation de catalyseurs conventionnels en couche mince entraîne souvent une séparation inadéquate des bulles d’hydrogène, bloquant les sites actifs du catalyseur ou entravant le mouvement des réactifs, diminuant ainsi l’efficacité du processus.

Pour surmonter ces obstacles, l’équipe de recherche s’est tournée vers la méthode de dépôt à angle oblique et le nickel. Cette technique permet de créer facilement diverses nanostructures du matériau en inclinant le substrat pendant le dépôt, offrant une solution simple et peu coûteuse. De plus, le nickel est un catalyseur abondant et non précieux sur Terre, démontrant une efficacité relativement élevée dans la production d’hydrogène.

Des nanostructures innovantes pour une meilleure efficacité

L’équipe a utilisé la méthode de dépôt à angle oblique pour synthétiser du nickel présentant des protubérances de nanorods verticalement alignés finement conçus. Contrairement aux nanostructures conventionnelles qui augmentent simplement la surface du catalyseur, les chercheurs ont conçu un réseau de nanorods de nickel hautement poreux, présentant des propriétés de surface superaérophobe uniques pour résoudre les problèmes d’adhérence de l’hydrogène.

Les résultats expérimentaux ont révélé que les bulles d’hydrogène générées pendant le processus d’électrolyse présentaient une séparation accélérée de la surface superaérophobe. Le catalyseur de nanorods de nickel tridimensionnel superaérophobe de l’équipe, avec des canaux poreux efficaces, a démontré une amélioration remarquable de 55 fois de l’efficacité de production d’hydrogène par rapport à une quantité équivalente de nickel dans une structure de film mince traditionnelle.

Vers une économie de l’hydrogène et une société neutre en carbone

Le professeur Jong Kyu Kim et la doctorante Jaerim Kim, qui dirigent la recherche, ont expliqué : « En améliorant l’efficacité du processus d’électrolyse de l’eau pour la production d’hydrogène vert, nous progressons vers une économie de l’hydrogène et une société neutre en carbone. »

Ils ont ajouté que cette percée ne profite pas seulement à l’électrolyse de l’eau, mais est également prometteuse pour diverses autres applications d’énergie renouvelable où les réactions de surface jouent un rôle crucial, telles que la réduction du dioxyde de carbone et les systèmes de conversion de l’énergie lumineuse.

Article : “Efficient Alkaline Hydrogen Evolution Reaction Using Superaerophobic Ni Nanoarrays with Accelerated H2 Bubble Release” – DOI: 10.1002/adma.202305844

Cette étude a été financée par le Programme de développement technologique de l’innovation en matière d’énergie hydrogène, le Programme d’établissement d’une fondation de coopération internationale. Cooperation Foundation, le Future Innovation Infrastructure Research for Radiology Program et le Future Material Discovery Program de Corée.

Les certifications écologiques dans le matériel électrique

Les certifications écologiques dans le matériel électrique

Les certifications écologiques sont devenues des outils incontournables pour guider les choix des consommateurs et encourager les fabricants à concevoir des produits plus respectueux de l’environnement. Dans le secteur du matériel électrique, fortement consommateur de ressources et générateur de déchets, ces labels jouent un rôle important pour identifier les appareils les plus vertueux sur le plan écologique.

L’importance croissante des certifications écologiques

Alors que l’urgence climatique et raréfaction des ressources s’accentuent, les consommateurs accordent une attention croissante à l’impact environnemental de leurs achats. Les écolabels répondent à cette attente en proposant une information claire et fiable sur les performances écologiques des appareils électriques. Ils permettent d’identifier les produits les plus respectueux de l’environnement et incitent les fabricants à intégrer des critères d’éco-conception dans leur processus de production.

En France, plusieurs certifications ont émergé ces dernières années dans le secteur du matériel électrique. Elles évaluent les produits selon différents critères comme la consommation d’énergie (lire cette page) *, la durabilité, la recyclabilité ou encore l’utilisation de matériaux écologiques. Ces labels offrent aux consommateurs des repères précieux pour faire des choix éclairés et responsables.

Les principales certifications écologiques pour le matériel électrique

Parmi les labels les plus reconnus en France, on peut citer l’Écolabel Européen, créé en 1992 et attribué par l’ADEME (Agence de la transition écologique). Ce label garantit qu’un produit a un impact réduit sur l’environnement tout au long de son cycle de vie, de la fabrication à la fin de vie en passant par l’usage. Il prend en compte de multiples critères comme l’efficacité énergétique, la durabilité, la limitation des substances dangereuses ou encore l’emballage.

Autre certification de référence, le label EPEAT (Electronic Product Environmental Assessment Tool) évalue spécifiquement les équipements électroniques selon 51 critères de performance environnementale et énergétique. Développé aux États-Unis, ce label est de plus en plus utilisé en France. Il comporte trois niveaux (Or, Argent et Bronze) en fonction du nombre de critères remplis.

Enfin, le label énergétique de l’UE, obligatoire pour de nombreux appareils électroménagers et électroniques, classe les produits de A à G selon leur efficacité énergétique. Régulièrement renforcé, il permet aux consommateurs d’identifier facilement les appareils les moins énergivores.

Les avantages pour les consommateurs et les entreprises

Les certifications écologiques présentent de nombreux bénéfices pour les consommateurs. Elles leur permettent de repérer d’un coup d’œil les produits les plus performants sur le plan environnemental, sans avoir à éplucher les caractéristiques techniques. En choisissant des appareils labellisés, les particuliers sont en mesure de réduire leur facture d’électricité, d’allonger la durée de vie de leurs équipements et de limiter leur empreinte écologique. C’est donc un excellent moyen de concilier respect de l’environnement, économies et qualité.

Pour les entreprises, proposer des produits certifiés constitue un argument commercial de poids et un facteur de différenciation sur un marché très concurrentiel. Cela démontre leur engagement en faveur du développement durable et renforce leur image de marque auprès de consommateurs de plus en plus sensibles à ces enjeux. Les certifications incitent aussi les fabricants à innover pour mettre sur le marché des appareils toujours plus économes en ressources et en énergie.

Au-delà des bénéfices individuels, le développement des certifications écologiques dans le secteur électrique contribue à la transition vers une économie plus circulaire et bas carbone. En encourageant l’éco-conception et l’allongement de la durée de vie des appareils, ces labels favorisent une utilisation plus raisonnée des ressources et participent à la réduction des déchets électroniques, qui représentent un défi environnemental majeur.

* Il est possible de retrouver toute une gamme complète d’instruments de mesure électrique sur le site d’Enolec.

Une dynamique des dimensions synthétiques pour manipuler la lumière

Une dynamique des dimensions synthétiques pour manipuler la lumière

Les dimensions synthétiques (DS) ont émergé comme l’un des domaines de recherche les plus actifs en physique, offrant une voie pour explorer des phénomènes dans des espaces de dimensions supérieures, au-delà de notre espace géométrique conventionnel en 3D. Ce concept a suscité une attention considérable, en particulier dans le domaine de la photonique topologique, en raison de son potentiel à dévoiler une physique riche, inaccessible dans les dimensions traditionnelles.

Les défis des structures de réseau complexes en 3D

L’un des principaux défis dans l’espace conventionnel en 3D est la réalisation expérimentale de structures de réseau complexes avec des couplages spécifiques. Les DS offrent une solution en fournissant une plateforme plus accessible pour créer des réseaux complexes de résonateurs avec des couplages anisotropes, à longue portée ou dissipatifs.

Cette capacité a déjà conduit à des démonstrations révolutionnaires de l’enroulement topologique non hermitien, de la symétrie parité-temps et d’autres phénomènes. Une variété de paramètres ou de degrés de liberté au sein d’un système, tels que les modes de fréquence, les modes spatiaux et les moments angulaires orbitaux, peuvent être utilisés pour construire des DS, prometteurs pour des applications dans divers domaines allant des communications optiques aux lasers à isolant topologique.

Vers des réseaux de résonateurs “utopiques”

Un objectif clé dans ce domaine est la construction d’un réseau «utopique» de résonateurs où n’importe quelle paire de modes peut être couplée de manière contrôlée. Pour atteindre cet objectif, il est nécessaire de manipuler précisément les modes dans les systèmes photoniques, offrant des possibilités d’améliorer la transmission de données, l’efficacité de la récupération d’énergie et la luminance des réseaux laser.

Récemment, comme rapporté dans Advanced Photonics, une équipe internationale de chercheurs a créé des réseaux personnalisables de guides d’ondes pour établir des dimensions modales synthétiques. Cette avancée permet un contrôle efficace de la lumière dans un système photonique, sans nécessiter de caractéristiques supplémentaires compliquées comme la non-linéarité ou la non-hermiticité.

Le professeur Zhigang Chen de l’Université de Nankai note : « La capacité d’ajuster différents modes de lumière au sein du système nous rapproche de la réalisation de réseaux ‘utopiques’, où tous les paramètres d’une expérience sont parfaitement contrôlables. »

Confinement des modes et morphing topologique des modes dans une dimension synthétique conçue par des ANN. (a) Illustration des réseaux de modes avec les bords aberrants des valeurs propres. (a1) Esquisse du réseau de valeurs propres et des modes propres correspondants. La disposition du réseau de couplage dans l’espace réel est calculée par des ANN. (a2) Dynamique de l’évolution des modes en SD ; le point orange dans la colonne de gauche indique le mode excité. (a3) Dynamique de propagation du faisceau correspondant dans l’espace réel. (b) Morphing de mode dans un réseau non trivial conçu par des ANNs. (b1) Illustration du réseau dans l’espace réel et distribution des valeurs propres correspondantes. (b2) Évolution du mode pendant la propagation dans le SD ; les zones ombrées indiquent les blocages de couplage dans les SD dans différentes régions. (b3) Évolution de la lumière dans l’espace réel et transformation en un mode topologique ; le graphique de droite montre la distribution moyenne de l’intensité dans la région du guide d’ondes rectiligne. Crédit : Xia, Lei, et al, doi 10.1117/1.AP.6.2.026005

Utilisation de réseaux de neurones artificiels

Dans leurs travaux, les chercheurs modulent les perturbations («fréquences de tortillement») pour les propagations qui correspondent aux différences entre les différents modes de lumière. Pour ce faire, ils utilisent des réseaux de neurones artificiels (RNA) pour concevoir des réseaux de guides d’ondes dans l’espace réel. Les RNA sont entraînés pour créer des configurations de guides d’ondes qui ont exactement les motifs de mode souhaités. Ces tests aident à révéler comment la lumière se propage et se confine dans les réseaux.

Enfin, les chercheurs démontrent l’utilisation des RNA pour concevoir un type particulier de structure de réseau photonique appelé réseau Su-Schrieffer-Heeger (SSH). Ce réseau possède une caractéristique spécifique permettant le contrôle topologique de la lumière dans l’ensemble du système. Cela leur permet de changer le mode de volume dans lequel la lumière se déplace, mettant en évidence les propriétés uniques de leurs dimensions synthétiques.

Implications et perspectives futures

L’implication de ces travaux est substantielle. En ajustant finement les distances et les fréquences des guides d’ondes, les chercheurs visent à optimiser la conception et la fabrication de dispositifs photoniques intégrés. Le professeur Hrvoje Buljan de l’Université de Zagreb remarque : « Au-delà de la photonique, ce travail offre un aperçu de la physique géométriquement inaccessible. Il est prometteur pour des applications allant du mode laser à l’optique quantique et à la transmission de données. »

Les professeurs Chen et Buljan notent que l’interaction entre la photonique topologique et la photonique à dimension synthétique, renforcée par les RNA, ouvre de nouvelles possibilités de découvertes qui pourraient conduire à des matériaux et des applications de dispositifs sans précédent.

Légende illustration : L’apprentissage en profondeur permet de manipuler la lumière dans une dimension synthétique. Crédit : Xia, Lei, et al., doi 10.1117/1.AP.6.2.026005.

Article : “Deep-learning-empowered synthetic dimension dynamics: morphing of light into topological modes” – DOI: 10.1117/1.AP.6.2.026005

La tornade quantique ouvre la voie à la compréhension des trous noirs

La tornade quantique ouvre la voie à la compréhension des trous noirs

Dans un laboratoire, des scientifiques ont réussi à recréer un phénomène étonnant qui ouvre une fenêtre sur le comportement des trous noirs et leur interaction avec l’environnement. Cette exploration scientifique, à la croisée de la physique quantique et de l’astrophysique, nous invite à plonger dans les profondeurs d’une recherche aussi fascinante qu’innovante.

La création d’un vortex quantique géant

Des chercheurs de l’Université de Nottingham, en collaboration avec le King’s College de Londres et l’Université de Newcastle, ont mis au point une plateforme expérimentale inédite : un tornado quantique. Ils ont généré un vortex tourbillonnant au sein de l’hélium superfluide, refroidi à des températures extrêmement basses.

L’observation des dynamiques ondulatoires infimes à la surface du superfluide a permis à l’équipe de recherche de démontrer que ces tornados quantiques reproduisent les conditions gravitationnelles à proximité des trous noirs en rotation.

Des observations précises grâce à l’hélium superfluide

Le Dr Patrik Svancara, auteur principal de l’étude et membre de l’École des Sciences Mathématiques de l’Université de Nottingham, précise : « L’utilisation de l’hélium superfluide nous a permis d’étudier les petites ondes de surface avec une plus grande précision et exactitude que nos expériences précédentes avec de l’eau. La viscosité extrêmement faible de l’hélium superfluide nous a permis d’examiner minutieusement leur interaction avec le tornado superfluide et de comparer les résultats avec nos projections théoriques. »

Un système cryogénique sur mesure

Les scientifiques ont construit un système cryogénique sur mesure capable de contenir plusieurs litres d’hélium superfluide à des températures inférieures à -271 °C. À cette température, l’hélium liquide acquiert des propriétés quantiques inhabituelles. Ces propriétés empêchent généralement la formation de grands vortex dans d’autres fluides quantiques, comme les gaz atomiques ultrafroids ou les fluides quantiques de lumière. Ce système démontre comment l’interface de l’hélium superfluide agit comme une force stabilisatrice pour ces objets.

Des parallèles avec la gravitation des trous noirs

Le Dr Svancara ajoute : « L’hélium superfluide contient de petits objets appelés vortex quantiques, qui ont tendance à s’éloigner les uns des autres. Dans notre dispositif, nous avons réussi à confiner des dizaines de milliers de ces quanta dans un objet compact ressemblant à une petite tornade, créant un écoulement vortex d’une force sans précédent dans le domaine des fluides quantiques. »

Les chercheurs ont découvert des parallèles intrigants entre l’écoulement du vortex et l’influence gravitationnelle des trous noirs sur l’espace-temps environnant. Cette réalisation ouvre de nouvelles voies pour les simulations de théories quantiques des champs à température finie dans le domaine complexe des espaces-temps courbes.

Une recherche fondamentale soutenue et célébrée

La professeure Silke Weinfurtner, qui dirige les travaux dans le Laboratoire des Trous Noirs où cette expérience a été développée, souligne l’importance de cette recherche : « Lorsque nous avons observé pour la première fois des signatures claires de la physique des trous noirs dans notre expérience analogue initiale en 2017, cela a été un moment décisif pour la compréhension de certains phénomènes étranges qui sont souvent difficiles, sinon impossibles, à étudier autrement. Maintenant, avec notre expérience plus sophistiquée, nous avons porté cette recherche à un niveau supérieur, ce qui pourrait finalement nous permettre de prédire le comportement des champs quantiques dans les espaces-temps courbes autour des trous noirs astrophysiques. »

Cette recherche de pointe est financée par une subvention de 5 millions de livres sterling du Science Technology Facilities Council, répartie entre des équipes de sept institutions britanniques de premier plan, dont l’Université de Nottingham, l’Université de Newcastle et le King’s College de Londres. Le projet a également bénéficié du soutien de la bourse du réseau UKRI sur les simulateurs quantiques pour la physique fondamentale et de la bourse de recherche des leaders du Leverhulme détenue par la professeure Silke Weinfurtner.

Légende illustration : Installation expérimentale dans le laboratoire utilisé pour la recherche sur les trous noirs. (Image : Leonardo Solidoro)

Article : “Rotating curved spacetime signatures from a giant quantum vortex” – DOI: s41586-024-07176-8

Utiliser la navette à électrons pour créer un ordinateur quantique évolutif

Utiliser la navette à électrons pour créer un ordinateur quantique évolutif

La recherche pour élaborer un ordinateur quantique efficace et évolutif est jalonnée de défis techniques et scientifiques. Une récente étude publiée dans Nature Communications apporte un éclairage nouveau sur cette quête, en mettant en lumière une méthode innovante pour la manipulation des qubits.

La problématique de l’évolutivité dans l’informatique quantique

Contrairement aux puces de silicium des ordinateurs classiques, les puces quantiques ne peuvent être simplement agrandies pour augmenter leur capacité. Les qubits, éléments de base de l’ordinateur quantique, doivent être suffisamment proches pour se coupler, mais cette proximité devient problématique lorsqu’il s’agit d’intégrer des millions de qubits.

Pour résoudre ce dilemme, des chercheurs de la coopération JARA entre le Forschungszentrum Jülich et l’Université RWTH d’Aix-la-Chapelle, ainsi que de l’Académie polonaise des sciences, ont exploré l’utilisation d’un électron navette pour pallier les contraintes d’espace sur les puces quantiques.

Le fonctionnement de l’électron navette

Dans les qubits à semi-conducteurs, l’information quantique est codée via le spin des électrons situés dans des points quantiques, des structures semi-conductrices à l’échelle nanométrique. L’électron navette permet de capturer ces électrons et de les transporter de manière contrôlée sans perdre l’information quantique.

Les démonstrations antérieures avaient réussi à transporter des électrons sur de courtes distances. La nouvelle étude a amélioré la vitesse de l’électron navette de quatre ordres de grandeur par rapport aux démonstrations précédentes, et a révélé que la cohérence des qubits est étonnamment préservée, voire prolongée, lorsqu’un électron est déplacé sur de plus longues distances.

Ordinateur quantique de bureau. Crédit : Centre de recherche Jülich / Sascha Kreklau

Implications scientifiques et sociales

Les ordinateurs quantiques promettent de résoudre des problèmes hors de portée des superordinateurs actuels. Pour cela, des architectures comportant des milliers, voire des millions, de qubits sont nécessaires. L’étude actuelle suggère que l’intégration d’un électron navette dans des architectures semi-conductrices évolutives représente une voie prometteuse. Cette méthode présente l’avantage d’être compatible avec la production industrielle de portes logiques utilisées pour les puces informatiques classiques.

Ces découvertes pourraient contribuer à la construction d’un prototype fonctionnel d’ordinateur quantique à base de qubits semi-conducteurs.

Légende illustration : Puce quantique à semi-conducteur avec navette quantique développée par la collaboration JARA. Crédit : Mats Volmer

Publication originale : La recherche, dirigée par T. Struck, M. Volmer, L. Visser et leurs collègues, a été publiée sous le titre Spin-EPR-pair separation by conveyor-mode single electron shuttling in Si/SiGe dans la revue Nature Communications. Le document est accessible en ligne et peut être consulté via le lien DOI suivant : https://doi.org/10.1038/s41467-024-45583-7.

Les images 3D révèlent le lien entre la complexité des fissures et la résistance des matériaux

Les images 3D révèlent le lien entre la complexité des fissures et la résistance des matériaux

La compréhension des mécanismes de propagation des fissures dans les solides fragiles est essentielle pour le développement et les tests de matériaux composites sûrs et rentables, utilisés dans la construction, les sports et l’ingénierie aérospatiale. John Kolinski et son équipe du Laboratoire de mécanique des interfaces molles (EMSI) de l’École polytechnique fédérale de Lausanne (EPFL) se sont spécialisés dans la capture de la formation de ces motifs complexes, avec des résultats fascinants.

Des fissures en trois dimensions

Contrairement aux approches traditionnelles de la mécanique qui supposent que les fissures sont planes, c’est-à-dire qu’elles se forment sur la surface bidimensionnelle d’un matériau, la plupart des fissures, comme celles dans les solides fragiles du quotidien tels que le verre, se propagent en réseaux tridimensionnels de crêtes et d’autres caractéristiques complexes.

En raison de l’opacité des matériaux et de la vitesse à laquelle se forment les fissures, l’observation de cette complexité en temps réel est extrêmement difficile. Cependant, armés d’un couteau suisse et d’un microscope confocal, Kolinski et son équipe ont réussi à le faire, découvrant une corrélation positive entre la complexité des fissures et la ténacité des matériaux dans le processus.

Une méthode innovante d’imagerie des fissures

Les chercheurs ont créé de très fines tranches de quatre hydrogels différents et d’un élastomère. Transparents et fragiles, mais faciles à déformer et à mesurer sans se briser, les hydrogels ont servi de proxy pour comprendre comment se forment les fissures dans le verre et les plastiques fragiles. L’élastomère était quant à lui un proxy pour des matériaux comme le caoutchouc et les polymères de silicone.

Alors que les fissures expérimentales étaient observées avec un microscope confocal de pointe, elles ont été induites à l’aide d’un couteau suisse standard : l’action de cisaillement des ciseaux de l’appareil a naturellement produit des fissures géométriquement complexes dans les échantillons d’hydrogel. À l’aide d’un appareil personnalisé développé par l’équipe de l’EMSI pour contrôler l’alignement et le chargement des échantillons, une série d’images fluorescentes a été générée avec le microscope confocal, puis empilée pour assembler une carte tridimensionnelle unique de chaque surface de fracture.

Rendu des données 3D du front de fissure dans un hydrogel fragile enregistrées avec un microscope confocal à fluorescence. © EMSI EPFL CC BY SA

Un lien fondamental entre longueur et résistance

Ces expériences ont révélé que l’énergie de déformation nécessaire pour entraîner les fissures des échantillons était directement proportionnelle aux longueurs des pointes de fissure. Cela suggère que la complexité géométrique accrue d’une fissure 3D génère plus de surface de fracture à mesure que la fissure avance, nécessitant ainsi une énergie de déformation supplémentaire pour la faire avancer.

Dans une autre expérience, les chercheurs ont montré comment, lorsqu’une fissure plus lisse s’approchait d’un obstacle rigide intégré dans l’échantillon, la symétrie plane de la fissure était rompue, augmentant à la fois la longueur de la pointe de la fissure et l’énergie nécessaire pour faire avancer la fissure.

Kolinski souligne que ces travaux mettent en évidence l’importance du soin dans la réalisation des tests de matériaux, car on sait maintenant que tout écart géométrique par rapport à un front de fissure plan peut conduire à une mesure erronée – et potentiellement dangereuse – de la ténacité des matériaux.

Légende illustration :Les scientifiques ont provoqué des fissures dans des échantillons d’hydrogel à l’aide d’un couteau suisse standard © EMSI EPFL CC BY SA

Article : “Complexity of crack front geometry enhances toughness of brittle solids” – DOI: 10.1038/s41567-024-02435-x

La technologie des points quantiques au service de la dépollution de l’environnement

La technologie des points quantiques au service de la dépollution de l'environnement

Les points quantiques, ces minuscules objets régis par les lois étranges et complexes de la physique quantique, ont été au cœur du prix Nobel de chimie 2023. Si de nombreux points quantiques utilisés en électronique sont fabriqués à partir de substances toxiques, leurs homologues non toxiques sont désormais développés et explorés pour des applications en médecine et dans l’environnement.

Une équipe de chercheurs se concentre sur les points quantiques à base de carbone et de soufre, les utilisant pour créer des encres invisibles plus sûres et contribuer à la décontamination des ressources en eau.

Des points quantiques non métalliques pour un avenir plus vert

Les points quantiques sont des nanocristaux semi-conducteurs synthétiques qui émettent de la lumière. Ils sont utilisés dans des applications telles que les écrans électroniques et les cellules solaires. « De nombreux points quantiques conventionnels sont toxiques, car ils sont dérivés de métaux lourds », explique Md Palashuddin Sk, professeur assistant de chimie à l’Université musulmane d’Aligarh en Inde. « Nous travaillons donc sur des points quantiques non métalliques, car ils sont respectueux de l’environnement et peuvent être utilisés dans des applications biologiques. »

Le professeur s’est concentré sur la conception de points quantiques à base de carbone et de soufre (Cdots et Sdots, respectivement) pour une variété d’autres applications. « Le carbone et le soufre sont des matériaux très abondants et rentables, et ils peuvent facilement être synthétisés en points quantiques », dit-il. « Vous pouvez fabriquer des points de carbone à partir de déchets, puis les utiliser pour éliminer les polluants – c’est un moyen de boucler la boucle. »

Des points quantiques pour identifier et dégrader les polluants

Md Palashuddin a déjà mis les Cdots et les Sdots au travail de diverses manières, bien que les deux soient des découvertes relativement récentes. Bien que petits, les points ont une grande surface, qui peut facilement être fonctionnalisée pour adapter les points à différentes applications.

Auparavant, l’équipe a conçu des points qui brillaient de différentes couleurs, en fonction des contaminants qu’ils rencontraient. Cela signifie qu’ils pouvaient aider à identifier les contaminants – tels que le plomb, le cobalt et le chrome – dans un échantillon d’eau sans lixivier de nouveaux métaux des points eux-mêmes.

En plus d’identifier les contaminants, les Cdots peuvent aider à décomposer les polluants tels que les pesticides et les colorants dans l’eau. Dans un projet, Md Palashuddin et son collaborateur Amaresh Kumar Sahoo, professeur assistant qui étudie les nanobiotechnologies à l’Institut indien de technologie de l’information, ont formé des Cdots à partir de pelures de pommes de terre, puis les ont montés sur des microrobots conçus pour cibler et dégrader les colorants toxiques dans des échantillons simulant de l’eau polluée.

Vers un traitement efficace des déversements de la pollution fluviale

L’équipe a également développé des méthodes pour éliminer complètement les contaminants de l’eau, plutôt que de simplement les identifier ou les dégrader. Ils ont spécialement conçu des Cdots pour absorber l’huile automobile et explorent actuellement un système de filtration à base de Cdots pour aider à traiter les déversements de pétrole.

Ensuite, les chercheurs prévoient de mettre en pratique leurs découvertes de laboratoire sur le terrain, éventuellement dans le cadre d’un projet axé sur la rivière Yamuna. Cette rivière traverse directement New Delhi et est notoirement contaminée, en particulier dans les zones plus peuplées.

Md Palashuddin espère utiliser les points non métalliques de son équipe pour identifier et séparer les différents polluants de la rivière, notamment les pesticides, les tensioactifs, les ions métalliques, les antibiotiques et les colorants. Idéalement, les points seront fonctionnalisés pour capter le plus grand nombre possible de ces différents contaminants sur leurs surfaces, afin qu’ils puissent ensuite être facilement éliminés.

Des applications prometteuses au-delà du traitement de l’eau

Les utilisations potentielles des points non métalliques ne se limitent pas au traitement de l’eau. Md Palashuddin et ses collègues étudient actuellement des utilisations qui pourraient s’aligner plus étroitement sur les points traditionnels à base de métal, mais sans les problèmes de toxicité.

Par exemple, certains points quantiques émetteurs de lumière développés par l’équipe pourraient être inclus dans des encres invisibles pour aider à prévenir la contrefaçon, ou incorporés dans des dispositifs émetteurs de lumière, y compris les écrans de télévision.

L’équipe espère que ses travaux contribueront à élargir les utilisations des points quantiques non métalliques et à mettre leurs propriétés uniques au service de l’environnement.

Un pas de géant vers l’optimisation des cellules solaires du futur

Un pas de géant vers l'optimisation des cellules solaires du futur

Les cellules solaires à base de pérovskite représentent une nouvelle technologie prometteuse dans le domaine de l’énergie solaire. Les chercheurs travaillent activement au développement de ces cellules innovantes, qui pourraient offrir des performances supérieures aux panneaux solaires traditionnels en silicium, tout en réduisant les coûts de production.

Dans une étude publiée dans la revue Nature Energy, Michael McGehee, chercheur à l’Université du Colorado à Boulder, et ses collaborateurs internationaux ont dévoilé une méthode innovante pour fabriquer des cellules solaires à pérovskite. Cette avancée est cruciale pour la commercialisation de cette technologie, considérée par beaucoup comme la prochaine génération de cellules solaires.

Actuellement, la quasi-totalité des panneaux solaires sont fabriqués à partir de silicium, avec un rendement de 22%. Cela signifie que les panneaux en silicium ne peuvent convertir qu’environ un cinquième de l’énergie solaire en électricité, car ce matériau n’absorbe qu’une partie limitée des longueurs d’onde de la lumière du soleil. De plus, la production de silicium est coûteuse et énergivore.

La pérovskite, un matériau prometteur pour les cellules solaires

La pérovskite, un matériau semi-conducteur synthétique, a le potentiel de convertir une part nettement plus importante de l’énergie solaire que le silicium, et ce, à un coût de production inférieur. « Les pérovskites pourraient changer la donne », a déclaré Michael McGehee, professeur au Département d’ingénierie chimique et biologique et membre de l’Institut des énergies renouvelables et durables de l’Université du Colorado à Boulder.

Les scientifiques testent actuellement les cellules solaires à pérovskite en les empilant sur des cellules traditionnelles en silicium pour créer des cellules tandem. En combinant ces deux matériaux, chacun absorbant une partie différente du spectre solaire, il est possible d’augmenter le rendement des panneaux de plus de 50%.

Un défi majeur : le processus de dépôt de la pérovskite

L’un des principaux défis de la fabrication à grande échelle de cellules solaires à pérovskite réside dans le processus de dépôt du semi-conducteur sur les plaques de verre, qui constituent les éléments de base des panneaux. Actuellement, ce processus doit se dérouler dans une petite boîte remplie de gaz non réactif, comme l’azote, pour éviter que les pérovskites ne réagissent avec l’oxygène, ce qui diminuerait leurs performances.

« C’est acceptable au stade de la recherche. Mais lorsque vous commencez à déposer la pérovskite sur de grandes plaques de verre, il devient de plus en plus difficile de le faire dans une boîte remplie d’azote », a précisé Michael McGehee.

Une solution pour prévenir la réaction avec l’air

L’équipe de Michael McGehee a cherché un moyen d’empêcher cette réaction néfaste avec l’air. Ils ont découvert que l’ajout de formiate de diméthylammonium (DMAFo) à la solution de pérovskite avant le dépôt pouvait prévenir l’oxydation des matériaux. Cette découverte permet de réaliser le dépôt à l’air libre, en dehors de la petite boîte. Les expériences ont montré que les cellules à pérovskite fabriquées avec l’additif DMAFo peuvent atteindre un rendement de près de 25% à elles seules, ce qui est comparable au record actuel de 26% pour les cellules à pérovskite.

L’additif a également amélioré la stabilité des cellules. Les panneaux commerciaux en silicium peuvent généralement conserver au moins 80% de leurs performances après 25 ans, perdant environ 1% de rendement par an. En revanche, les cellules à pérovskite sont plus réactives et se dégradent plus rapidement à l’air. La nouvelle étude a montré que la cellule à pérovskite fabriquée avec le DMAFo conservait 90% de son rendement après que les chercheurs l’aient exposée à une lumière LED imitant la lumière du soleil pendant 700 heures. En comparaison, les cellules fabriquées à l’air sans DMAFo se sont rapidement dégradées après seulement 300 heures.

Vers la commercialisation des cellules solaires à pérovskite

Cette étude rapproche les cellules solaires à pérovskite de la commercialisation. Parallèlement, l’équipe de Michael McGehee développe activement des cellules tandem avec un rendement réel de plus de 30% et une durée de vie opérationnelle identique à celle des panneaux en silicium.

Michael McGehee dirige un partenariat académique-industriel américain appelé TEAMUP (Tandems for Efficient and Advanced Modules using Ultrastable Perovskites).

En collaboration avec des chercheurs de trois autres universités, deux entreprises et un laboratoire national, le consortium a reçu un financement de 9 millions de dollars du Département de l’énergie des États-Unis l’année dernière pour développer des pérovskites tandem stables, utilisables dans le monde réel et commercialement viables. L’objectif est de créer des cellules tandem plus efficaces que les panneaux conventionnels en silicium et tout aussi stables sur une période de 25 ans.

Avec une efficacité accrue et des coûts potentiellement inférieurs, ces cellules tandem pourraient avoir des applications plus larges que les panneaux en silicium existants, notamment une installation potentielle sur les toits des véhicules électriques. Elles pourraient ajouter 25 à 40 kms d’autonomie par jour à une voiture laissée au soleil, ce qui suffirait à couvrir les trajets quotidiens de nombreuses personnes. Les drones et les voiliers pourraient également être alimentés par de tels panneaux.

Après une décennie de recherche sur les pérovskites, les ingénieurs ont construit des cellules à pérovskite aussi efficaces que les cellules en silicium, inventées il y a 70 ans, a déclaré Michael McGehee. « Nous menons les pérovskites jusqu’à la ligne d’arrivée. Si les cellules tandem fonctionnent bien, elles ont certainement le potentiel de dominer le marché et de devenir la prochaine génération de cellules solaires », a-t-il conclu.

Légende illustration : Un technicien installe des panneaux solaires sur le toit du bâtiment qui abrite le Centre pour l’innovation et la créativité de l’université du Colorado à Boulder. (Crédit : Glenn Asakawa/Université du Colorado)

Article : “Inhibition of halide oxidation and deprotonation of organic cations with dimethylammonium formate for air-processed p–i–n perovskite solar cells” – DOI: 10.1038/s41560-024-01471-4