Auteur - Rédaction

Quand l’IA s’attaque au casse-tête de l’emballage des produits en ligne

Quand l'IA s'attaque au casse-tête de l'emballage des produits en ligne

Le commerce en ligne connaît une croissance exponentielle, mais cette expansion s’accompagne d’un défi majeur : l’optimisation de l’emballage des produits expédiés. Les chercheurs de l’Institut Fraunhofer pour la logistique et le flux de matériaux (IML) ont développé un logiciel innovant, CASTN, qui vise à résoudre ce problème en calculant la combinaison optimale entre les commandes et les cartons d’expédition.

Les produits commandés en ligne sont souvent expédiés dans des cartons surdimensionnés, avec un volume global bien supérieur à celui de leur contenu. Par exemple, un flacon de parfum peut se retrouver dans un emballage de la taille d’une boîte à chaussures, avec du rembourrage pour combler l’espace vide. Cette pratique n’est pas durable et génère un gaspillage important de matériaux d’emballage.

Avec la diversification croissante des produits et la variabilité de la structure des commandes, la gamme de cartons d’expédition ne cesse de s’élargir. Bien que les types d’emballages disponibles soient de plus en plus diversifiés, dans de nombreux cas, le degré d’utilisation du volume diminue. Les articles nécessitant peu d’emballage, comme les parfums, les cosmétiques et les bijoux, se retrouvent dans des cartons surdimensionnés.

CASTN, un logiciel d’optimisation innovant

Pour remédier à ce problème, les chercheurs de l’Institut Fraunhofer IML ont développé le logiciel CASTN (Carton Set Optimization), financé par le Centre d’excellence Fraunhofer pour la logistique et l’informatique. CASTN compose l’ensemble de cartons optimal pour la structure individuelle des articles et des commandes des entreprises d’expédition.

Lukas Lehmann, chercheur à l’Institut Fraunhofer IML, explique : «Si un détaillant souhaite utiliser un ensemble de dix cartons différents à ses postes d’emballage, ils doivent être adaptés à la structure des commandes et des articles afin d’obtenir la meilleure utilisation possible du volume. Les produits doivent remplir au maximum le volume du carton afin d’utiliser le moins de rembourrage possible (par exemple, du papier bulle).»

Un fonctionnement basé sur deux algorithmes complémentaires

CASTN fonctionne à l’aide de deux algorithmes : le premier utilise une approche évolutive pour créer différents ensembles de cartons sur la base de paramètres tels que le nombre de cartons autorisés ou les dimensions maximales et minimales. Le second, un algorithme de bin-packing, veille à ce que les commandes soient emballées efficacement dans les cartons sélectionnés.

L’objectif est de minimiser le volume d’emballage et d’obtenir le plus petit volume global possible. À la fin de ce processus, le logiciel évalue chaque carton d’un ensemble, en vérifiant dans quelle mesure la capacité interne est remplie par la commande qu’il contient. Cette information est réinjectée dans l’algorithme évolutif, qui utilise le score de chaque carton pour créer de nouveaux ensembles plus performants.

Des résultats prometteurs pour les partenaires industriels

Plusieurs partenaires industriels, chacun ayant sa propre activité de vente au détail en ligne, ont déjà bénéficié de l’optimisation des ensembles de cartons et ont augmenté leur utilisation de volume de 35 à 45 %, tout en réduisant le nombre de types de cartons utilisés.

Lukas Lehmann souligne : «Les clients ne sont souvent pas conscients de l’utilisation du volume de leurs emballages, qui n’est fréquemment que d’environ 30 %. Ils n’ont aucune idée de la quantité d’air qu’ils envoient. C’est ce que notre logiciel calcule.»

Vers un e-commerce plus éco-responsable

Dans la prochaine étape, Lukas Lehmann et son équipe souhaitent étendre les fonctionnalités du logiciel pour inclure des formes d’articles complexes et des caractéristiques d’articles supplémentaires.

« Nous voulons que CASTN augmente la durabilité dans la logistique. Les matériaux d’emballage et de rembourrage peuvent être réduits grâce à des ensembles de cartons coordonnés de manière optimale. Cela se traduira par un meilleur chargement des camions ainsi que par une réduction des émissions de CO2 et peut également éviter les espaces perdus », précise Lukas Lehmann.

En utilisant CASTN, les entreprises expédiant des produits peuvent faire une différence pour la planète tout en économisant sur les coûts d’emballage et de transport. Cette solution innovante ouvre la voie à un e-commerce plus éco-responsable, conciliant efficacité logistique et préservation de l’environnement.

Légende illustration : Avec l’aide du logiciel d’optimisation CASTN, les sociétés d’expédition peuvent sélectionner l’ensemble de cartons optimal pour chaque article et chaque structure de commande. Crédit : © Fraunhofer IML

Création de câbles silencieux pour les événements physiques rares

Création de câbles silencieux pour les événements physiques rares

Les expériences de physique ultra-sensibles nécessitent des niveaux extrêmement faibles de radioactivité ambiante pour détecter des événements rares. Les chercheurs ont développé de nouveaux câbles sur mesure à faible radioactivité, ouvrant la voie à des recherches plus précises sur la matière noire et la désintégration double bêta sans neutrino.

La science derrière les câbles à faible radioactivité

La radioactivité de fond, présente dans tout, de la poussière à l’environnement, peut interférer avec les expériences de physique ultra-sensibles. Cela inclut la radioactivité naturelle des câbles et de l’électronique qui détectent les signaux. Pour réduire la quantité de rayonnement de fond provenant des câbles, les scientifiques ont systématiquement examiné les contaminants radioactifs introduits lors de la production des câbles.

Ils ont ensuite identifié des méthodes alternatives pour nettoyer et préparer les câbles afin de réduire les niveaux de contamination. Cela a permis d’obtenir des câbles contenant 10 à 100 fois moins d’isotopes radioactifs naturels uranium-238 et thorium-232 que les câbles commerciaux. Ces niveaux sont suffisamment bas pour être utilisés dans des expériences de physique ultra-sensibles.

L’impact des câbles à faible radioactivité sur la recherche

Certaines expériences de physique, comme la recherche de la désintégration double bêta sans neutrino ou de la matière noire, cherchent à détecter des événements extrêmement rares. La découverte de ces événements pourrait aider les scientifiques à comprendre l’origine et la nature de la matière dans l’univers.

Toutefois, les contaminants radioactifs dans ces détecteurs peuvent imiter les signaux insaisissables que les physiciens recherchent, même à des concentrations aussi faibles qu’une partie par milliard. Les chercheurs ont besoin de câbles pour extraire les signaux de ces détecteurs, mais les câbles commerciaux ne répondent pas aux normes de la prochaine génération de détecteurs.

Cette recherche a conduit à de nouveaux câbles personnalisés à faible radioactivité. Ces câbles peuvent augmenter la sensibilité de ces expériences en réduisant la quantité de radioactivité interférente. Ils permettent également aux chercheurs de déployer des capteurs supplémentaires dans le détecteur.

Le développement de câbles à faible radioactivité

Des chercheurs du Pacific Northwest National Laboratory (PNNL), en collaboration avec leur partenaire commercial Q-Flex Inc., ont étudié les niveaux de contamination radioactive dans les processus de fabrication des câbles en utilisant de petits «coupons» détachables qui agissent comme substituts des câbles.

À chaque étape du processus, les scientifiques ont retiré un coupon individuel d’un panneau pour l’analyser par spectrométrie de masse à plasma à couplage inductif (ICP-MS), une technique hautement sensible mais destructive permettant de détecter des sous-parties par billion d’uranium-238 et de thorium-232.

Leurs résultats ont révélé que, même en commençant avec des matériaux radiopurs soigneusement sélectionnés, des contaminants radioactifs étaient introduits via des solutions chimiques lors des étapes de photolithographie et de placage. Le PNNL et Q-Flex ont exploré de nouvelles techniques de fabrication ainsi que des matériaux de substitution et ont développé une recette de nettoyage pour réduire la contamination radioactive en uranium-238 et thorium-232 à quelques dizaines de parties par billion.

Une fois les principales étapes de contamination et les méthodes alternatives appropriées identifiées, les scientifiques ont produit deux ensembles de câbles entièrement fonctionnels en utilisant le nouveau processus de fabrication à faible bruit de fond. Ces câbles représentent les types qui seront utilisés dans les expériences prévues de désintégration double bêta sans neutrino nEXO et de matière noire DAMIC-M.

Les câbles résultants ont des niveaux de radiation extrêmement faibles, à environ 10-30 parties par billion d’uranium-238 et de thorium-232. Ces câbles «silencieux» permettront des recherches plus sensibles d’événements extrêmement rares tels que la désintégration double bêta sans neutrino et les interactions de matière noire.

Légende illustration : Isaac Arnquist, chimiste au Pacific Northwest National Laboratory, examine les “coupons” de câbles en cuivre à très faible rayonnement spécialement créés pour les expériences sensibles de détection de la physique. Crédit : Andrea Starr, Pacific Northwest National Laboratory

Ammoniac vert : 60% moins cher grâce à un nouveau procédé au lithium

Ammoniac vert : 60% moins cher grâce à un nouveau procédé au lithium

La production d’ammoniac, un composé chimique largement utilisé dans divers secteurs industriels, fait face à des défis environnementaux majeurs en raison de son impact significatif sur les émissions de carbone. Une équipe d’ingénieurs de l’Université de l’Illinois à Chicago, dirigée par le professeur Meenesh Singh, a développé un nouveau procédé de synthèse d’ammoniac prometteur, répondant à plusieurs critères de durabilité.

Un procédé innovant basé sur le lithium

Le procédé, appelé synthèse d’ammoniac médiée par le lithium, combine du diazote et un fluide donneur d’hydrogène, comme l’éthanol, avec une électrode de lithium chargée. Contrairement aux méthodes conventionnelles nécessitant des températures et des pressions élevées pour dissocier les molécules de diazote, les atomes d’azote adhèrent au lithium, puis se combinent avec l’hydrogène pour former la molécule d’ammoniac.

L’un des avantages majeurs de cette réaction est qu’elle fonctionne à basse température. De plus, elle est régénérative, restaurant les matériaux d’origine à chaque cycle de production d’ammoniac. Selon le professeur Singh, « il y a une symphonie dans cette réaction, en raison du processus cyclique. Ce que nous avons fait, c’est de mieux comprendre cette symphonie et d’essayer de la moduler de manière très efficace, afin de créer une résonance et de la faire avancer plus rapidement. »

Les ingénieurs de l’UIC ont mis au point un nouveau processus de création d’ammoniac qui pourrait être plus respectueux de l’environnement. L’ammoniac est un ingrédient clé de nombreux produits, tels que les engrais, les colorants et les explosifs. Mais sa fabrication nécessite beaucoup de chaleur et d’énergie, ce qui libère de grandes quantités de carbone dans l’atmosphère.

Des résultats prometteurs en termes d’efficacité et de coût

Les résultats obtenus par l’équipe du professeur Singh figurent parmi les premiers à atteindre des niveaux de sélectivité et d’utilisation d’énergie répondant aux normes du Département de l’Énergie des États-Unis pour la production d’ammoniac à l’échelle industrielle. Si le procédé était mis à l’échelle, il permettrait de produire de l’ammoniac à environ 450 dollars par tonne, soit 60 % moins cher que les approches précédentes basées sur le lithium et d’autres méthodes vertes proposées.

De plus, le procédé peut être rendu encore plus écologique en l’alimentant avec de l’électricité provenant de panneaux solaires ou d’autres sources renouvelables, et en utilisant de l’air et de l’eau pour la réaction. Le professeur Singh souligne également que l’ammoniac produit pourrait servir de vecteur d’hydrogène, facilitant ainsi le transport et l’utilisation de l’hydrogène comme carburant.

Vers une mise à l’échelle industrielle

Actuellement, les scientifiques collaborent avec la société General Ammonia Co. pour piloter et mettre à l’échelle leur procédé de synthèse d’ammoniac médiée par le lithium dans une usine de la région de Chicago. L’Office de gestion de la technologie de l’UIC a déposé un brevet pour ce procédé innovant.

Cette percée dans la production d’ammoniac ouvre le chemin à une industrie chimique plus durable et respectueuse de l’environnement, tout en offrant de nouvelles perspectives pour l’utilisation de l’hydrogène comme carburant propre.

Légende illustration : Cet art graphique illustre la conversion de N2 en ammoniac par l’intermédiaire du lithium. On y voit une symphonie de réactions se produisant sur un lithium électro-déposé (tuiles noires). Sous haute pression, l’azote (ajout de blocs bleus) est chimisorbé sur le lithium, suivi d’une protonation (ajout de blocs blancs) pour former NHx, ce qui conduit finalement à l’ammoniac et à la récupération du lithium. Le processus cyclique crée un rythme catalytique produisant de l’ammoniac. Cette recherche met en évidence l’importance de la pression et du potentiel dans le contrôle de la structure et de la stabilité de l’interface solide-électrolyte pour la synthèse de l’ammoniac. Crédit : Crystal Price & Joseph Gauthier, Texas Tech University; Meenesh Singh, University of Illinois Chicago

SwRI construit l’avenir du ravitaillement spatial avec l’APS-R

SwRI construit l'avenir du ravitaillement spatial avec l'APS-R

Alors que les projets d’exploration spatiale s’accélèrent, des innovations technologiques permettraient de prolonger la durée de vie des engins spatiaux en orbite.

Le Southwest Research Institute (SwRI) s’apprête à construire, intégrer et tester un petit vaisseau spatial de démonstration dans le cadre d’un projet de prototypage de mobilité et de logistique spatiales (SML) d’une valeur de 25,5 millions de dollars, financé par la Force spatiale américaine et dirigé par le contractant principal Astroscale U.S.

Un vaisseau spatial pour ravitailler en orbite géostationnaire

Le vaisseau spatial, baptisé Astroscale Prototype Servicer for Refueling (APS-R) ou en français Prototype de serviteur de ravitaillement en carburant à l’échelle de l’astronef, sera chargé de ravitailler d’autres véhicules compatibles en orbite géostationnaire.

Selon Steve Thompson, ingénieur de projet chez SwRI, l’épuisement du carburant est un problème courant pour les engins spatiaux en orbite terrestre, mettant fin à leur mission même si le véhicule est en excellent état. Un véhicule de ravitaillement peut prolonger ces missions et offrir une durée de vie supplémentaire aux engins spatiaux déjà en orbite.

L’APS-R opérera en orbite géostationnaire autour de la Terre, suivant une orbite circulaire synchronisée avec la période de rotation de la Terre de 24 heures. Le vaisseau spatial transportera de l’hydrazine depuis un dépôt, également en orbite géostationnaire, jusqu’au vaisseau spatial ayant besoin de carburant. L’APS-R pourra desservir tout engin spatial équipé d’un port de ravitaillement compatible.

Une alternative flexible pour prolonger la durée de vie des engins

Récemment, d’autres approches pour prolonger la durée de vie des engins spatiaux ont émergé, comme un véhicule capable d’utiliser ses propulseurs pour pousser un autre engin spatial là où il doit aller après avoir épuisé son carburant. Un véhicule de ravitaillement élargit les options de prolongation de vie avec une alternative flexible.

Au cours des 16 prochains mois, SwRI construira le véhicule hôte de l’APS-R dans sa nouvelle installation de traitement des engins spatiaux et des charges utiles de 74 000 pieds carrés (ou 6 874 M2), créée pour répondre rapidement aux besoins des clients en matière de conception, d’assemblage et de test d’engins spatiaux, en particulier de petits satellites.

Caractéristiques techniques et calendrier de lancement

Selon Steve Thompson, les dimensions maximales de l’APS-R seront de 24 x 28 x 45 pouces une fois replié pour le lancement, et la masse totale du véhicule au lancement sera de 437 livres (ou 200 Kg), propergol compris.

Une fois le bus du vaisseau spatial hôte terminé, SwRI intégrera la charge utile fournie par Astroscale et effectuera des tests environnementaux au niveau du système pour préparer le véhicule au lancement. SwRI livrera l’APS-R prêt au lancement d’ici 2026.

Légende illustration : Le Southwest Research Institute (SwRI) construira, intégrera et testera un petit engin spatial de démonstration dans le cadre d’un projet de prototypage Space Mobility and Logistics (SML) de 25,5 millions de dollars financé par l’U.S. Space Force et dirigé par le maître d’œuvre Astroscale U.S. L’engin spatial, appelé Astroscale Prototype Servicer for Refueling (APS-R), sera capable de ravitailler d’autres véhicules lorsqu’il se trouvera en orbite géostationnaire. Crédit : Astroscale US

Découverte d’un électrolyte solide stable et ultra-conducteur pour batteries

Découverte d'un électrolyte solide stable et ultra-conducteur pour batteries

Les batteries lithium-ion à l’état solide avec des électrolytes solides offrent des avantages significatifs en termes de sécurité et de densité énergétique par rapport aux batteries conventionnelles à électrolyte liquide. Le développement de ces batteries se heurte à des défis majeurs, notamment en ce qui concerne la conductivité ionique et la stabilité des électrolytes solides.

Dans une étude, une équipe de recherche dirigée par le professeur Kenjiro Fujimoto et le professeur Akihisa Aimi de l’Université des sciences de Tokyo, ainsi que le Dr Shuhei Yoshida de Denso Corp. a découvert un conducteur ionique lithium stable et hautement conducteur sous la forme d’un oxyfluorure de type pyrochlore.

Selon le professeur Fujimoto, « La fabrication de batteries lithium-ion secondaires à l’état solide a longtemps été un rêve pour de nombreux chercheurs dans le domaine des batteries. Nous avons découvert un électrolyte solide à base d’oxyde qui est un composant clé des batteries lithium-ion à l’état solide, offrant à la fois une haute densité énergétique et une sécurité accrue. En plus d’être stable à l’air, ce matériau présente une conductivité ionique supérieure à celle des électrolytes solides à base d’oxyde précédemment rapportés. »

Caractérisation et performances du nouvel électrolyte solide

L’oxyfluorure de type pyrochlore étudié dans ce travail peut être désigné par la formule Li2-xLa(1+x)/3M2O6F (M = Nb, Ta). Il a fait l’objet d’une analyse structurale et compositionnelle à l’aide de diverses techniques, notamment la diffraction des rayons X, l’analyse de Rietveld, la spectrométrie d’émission optique à plasma à couplage inductif et la diffraction électronique en aire sélectionnée.

Plus précisément, le composé Li1.25La0.58Nb2O6F a été développé, démontrant une conductivité ionique en volume de 7,0 mS cm⁻¹ et une conductivité ionique totale de 3,9 mS cm⁻¹ à température ambiante. Ces valeurs sont supérieures à la conductivité des ions lithium des électrolytes solides à base d’oxyde connus. L’énergie d’activation de la conduction ionique de ce matériau est extrêmement faible, et sa conductivité ionique à basse température est l’une des plus élevées parmi les électrolytes solides connus, y compris les matériaux à base de sulfure.

Mécanisme de conduction des ions lithium dans le nouveau matériau

Le mécanisme de conduction des ions Li dans ce matériau a été étudié. Le chemin de conduction de la structure de type pyrochlore couvre les ions F situés dans les tunnels créés par les octaèdres MO6.

Le mécanisme de conduction est le mouvement séquentiel des ions Li tout en changeant les liaisons avec les ions F. Les ions Li se déplacent vers la position Li la plus proche en passant toujours par des positions métastables. Les ions La3+ immobiles liés aux ions F inhibent la conduction des ions Li en bloquant le chemin de conduction et en faisant disparaître les positions métastables environnantes.

Contrairement aux batteries lithium-ion secondaires existantes, les batteries tout solide à base d’oxyde ne présentent aucun risque de fuite d’électrolyte en cas de dommage et aucun risque de génération de gaz toxique comme avec les batteries à base de sulfure. Par conséquent, cette nouvelle innovation devrait orienter les recherches futures.

Perspectives d’application et de recherche future

Selon le professeur Fujimoto, « Le matériau nouvellement découvert est sûr et présente une conductivité ionique supérieure à celle des électrolytes solides à base d’oxyde précédemment rapportés. L’application de ce matériau est prometteuse pour le développement de batteries révolutionnaires capables de fonctionner dans une large gamme de températures, des basses aux hautes températures. Nous pensons que les performances requises pour l’application des électrolytes solides aux véhicules électriques sont satisfaites. »

Il est important de noter que le nouveau matériau est très stable et ne s’enflamme pas s’il est endommagé. Il convient aux avions et autres endroits où la sécurité est cruciale. Il est également adapté aux applications à haute capacité, telles que les véhicules électriques, car il peut être utilisé à des températures élevées et permet une recharge rapide. De plus, il est également un matériau prometteur pour la miniaturisation des batteries, des appareils électroménagers et des dispositifs médicaux.

Les chercheurs ont non seulement découvert un conducteur d’ions Li à haute conductivité et stable à l’air, mais ont également introduit un nouveau type de conducteur superionique avec un oxyfluorure de type pyrochlore. L’exploration de la structure locale autour du lithium, de leurs changements dynamiques pendant la conduction et de leur potentiel en tant qu’électrolytes solides pour les batteries tout solide sont des domaines importants pour les recherches futures.

Article : “High Li-ion conductivity in pyrochlore-type solid electrolyte Li2-xLa(1+x)/3M2O6F (M = Nb, Ta)” – DOI: 10.1021/acs.chemmater.3c03288

La photonique intégrée rassemble plus de 400 acteurs mondiaux de la technologie

La photonique intégrée rassemble plus de 400 acteurs mondiaux de la technologie

L’intégration de la photonique avec l’électronique devrait autoriser une nouvelle génération de dispositifs plus compacts, rapides et éco-énergétiques. Cette intégration promet d’élargir les fonctionnalités et de créer de nombreuses applications innovantes, permettant des avancées majeures dans des domaines comme les véhicules autonomes, les télécommunications de données et la santé.

Un nouveau plan directeur intégré pour la photonique, fruit de la collaboration de plus de 400 organisations technologiques, académiques et industrielles du monde entier, vient d’être publié.

Sous la direction du Microphotonics Center du MIT et de la fondation PhotonDelta, la feuille de route IPSR-I (Integrated Photonics System Roadmap – International) identifie les principales lacunes technologiques qui, une fois comblées, permettront à la photonique intégrée de révolutionner des industries telles que la communication sans fil, l’imagerie 3D, les télécommunications de données et la détection.

Comme l’explique Lionel Kimerling, professeur de science et d’ingénierie des matériaux au MIT et directeur par intérim du Materials Research Laboratory de l’institut : « L’intégration électronique-photonique a la capacité de transformer radicalement toute une série d’industries et de débloquer une gamme de nouvelles technologies qui changeront nos vies. La transition de cette vision vers une fabrication à grand volume nécessite un plan bien pensé, basé sur les connaissances d’un large éventail d’experts issus de différents domaines, organisations et nations. C’est ce que IPSR-I a réalisé – il décrit une voie claire à suivre et spécifie une courbe d’apprentissage innovante pour l’évolution des performances et des applications au cours des 15 prochaines années. »

Peter van Arkel, directeur technique de PhotonDelta, souligne l’importance de rassembler toutes les ressources de recherche et développement de l’industrie et du monde universitaire de la photonique intégrée pour résoudre les lacunes technologiques identifiées par IPSR-I. Cela contribuera à relever les grands défis sociétaux de manière spectaculaire.

Au cœur de la feuille de route se trouve une approche globale derrière laquelle l’industrie de la photonique intégrée peut se rallier pour relever les défis fondamentaux. IPSR-I appelle à établir et à maintenir un réseau mondial de partenaires industriels et de R&D basé sur la confiance, qui travaillent ensemble pour créer la technologie des circuits photoniques intégrés (PIC) et les exigences des systèmes. En alignant l’ensemble de la chaîne d’approvisionnement, de la recherche aux utilisateurs finaux, l’industrie de la photonique intégrée sera en mesure de stimuler la fabrication en volume des PIC.

IPSR-I décrit le consensus de plus de 400 organisations, dont Airbus, Meta, NASA, Dupont Electronics, General Motors, l’Agence spatiale européenne et VodafoneZiggo, issu de plus de 100 ateliers et 13 conférences. Il comprend un aperçu complet des principales lacunes technologiques pour la fabrication en volume des PIC et une analyse détaillée des défis que l’industrie de la photonique intégrée doit surmonter pour réaliser son potentiel.

Le MIT Microphotonics Center dirige la création de ces versions de feuille de route depuis 1997 et s’est récemment associé à PhotonDelta. Il s’agit de la deuxième version de la feuille de route conjointe. Élaborée au cours des trois dernières années, elle inclut désormais des informations sur la communication sans fil et l’imagerie 3D.

La feuille de route complète peut être téléchargée à cette adresse : www.photondelta.com/ipsri-2024/

Qubits d’arsenic : la nouvelle piste pour l’informatique quantique

Qubits d'arsenic : la nouvelle piste pour l'informatique quantique

Des chercheurs britanniques ont franchi une étape cruciale dans la fabrication de ordinateurs quantiques, en développant un processus permettant de positionner des atomes uniques dans un réseau de silicium avec une précision proche de 100%. Cette avancée pourrait permettre de concevoir des ordinateurs quantiques capables de résoudre les problèmes les plus complexes, bien que des défis d’ingénierie substantiels doivent encore être surmontés pour concrétiser cette ambition.

Selon une nouvelle étude publiée dans Advanced Materials, des ingénieurs et physiciens de l’UCL ont mis au point un processus de fabrication permettant de positionner des atomes uniques dans un réseau avec un taux d’échec proche de zéro. Il s’agit de la première tentative réussie de positionner de manière fiable des atomes uniques dans un réseau depuis que l’idée a été proposée il y a 25 ans.

La précision proche de 100% et la possibilité de passer à l’échelle de cette approche soulèvent la possibilité de construire un ordinateur quantique capable de s’attaquer aux problèmes les plus complexes du monde, bien que des défis d’ingénierie substantiels doivent encore être surmontés pour concrétiser cette ambition.

En théorie, l’informatique quantique a le potentiel de résoudre des problèmes complexes que les ordinateurs «classiques» binaires à base de transistors ne pourront jamais résoudre. Une façon de créer les portes d’un ordinateur quantique universel, appelées qubits (bits quantiques), consiste à placer des atomes uniques dans du silicium, refroidis à des températures extrêmement basses pour maintenir leurs propriétés quantiques stables.

Ces qubits peuvent ensuite être manipulés avec des signaux électriques et magnétiques pour traiter l’information, de la même manière qu’un transistor binaire dans un ordinateur classique est manipulé pour produire un zéro ou un un. Cela permet à l’ordinateur d’exploiter la puissance de la mécanique quantique, les lois profondes de la physique qui déterminent le fonctionnement de l’univers, notamment des phénomènes tels que la superposition ou l’intrication quantique.

Dans cette étude, les chercheurs de l’UCL ont émis l’hypothèse que l’arsenic pourrait être un meilleur matériau que le phosphore pour atteindre le faible taux d’échec nécessaire à la construction d’un ordinateur quantique. Ils ont utilisé un microscope capable d’identifier et de manipuler des atomes uniques pour insérer précisément des atomes d’arsenic dans un cristal de silicium.

Ils ont ensuite répété ce processus pour construire un réseau 2×2 d’atomes d’arsenic uniques, prêts à devenir des qubits. Selon le Dr Taylor Stock, premier auteur de l’étude, « une fabrication fiable et précise à l’échelle atomique pourrait être utilisée pour construire un ordinateur quantique évolutif en silicium ».

Actuellement, la méthode développée dans l’étude nécessite de positionner chaque atome à la main un par un, ce qui prend plusieurs minutes. Théoriquement, ce processus peut être répété indéfiniment, mais en pratique, il sera nécessaire d’automatiser et d’industrialiser le processus afin de construire un ordinateur quantique universel, ce qui implique de créer des réseaux de millions, voire de milliards de qubits.

Selon le professeur Neil Curson, auteur principal de l’étude, « la capacité de placer des atomes dans le silicium avec une précision quasi parfaite et d’une manière que nous pouvons faire évoluer est une étape importante pour le domaine de l’informatique quantique, la première fois que nous avons démontré un moyen d’atteindre la précision et l’échelle requises ».

Légende illustration : Taylor Stock chargeant un échantillon dans le microscope à effet tunnel (STM), utilisé pour la fabrication à l’échelle atomique. Crédit ( Agnese Abrusci/UCL ).

Article : “Single-Atom Control of Arsenic Incorporation in Silicon for High-Yield Artificial Lattice Fabrication” – DOI: 10.1002/adma.202312282

100 kilomètres de transfert crypté quantique

100 kilomètres de transfert crypté quantique

La sécurité des communications numériques est un enjeu majeur à l’ère du développement des ordinateurs quantiques. Les chercheurs du DTU ont franchi une étape importante dans la mise au point d’une méthode de cryptage quantique permettant de sécuriser les échanges de données sur de longues distances, ouvrant ainsi la voie à une protection renforcée des informations sensibles.

Les chercheurs du DTU sont parvenus à distribuer une clé quantique sécurisée en utilisant la méthode de distribution de clés quantiques à variables continues (CV QKD) sur une distance record de 100 km, la plus longue jamais atteinte avec cette technique. L’avantage de cette méthode réside dans sa compatibilité avec l’infrastructure Internet existante, ce qui facilite son déploiement à grande échelle.

Tobias Gehring, professeur associé au DTU, explique : « Nous avons réalisé de nombreuses améliorations, notamment en ce qui concerne la perte de photons le long du trajet. Dans cette expérience, publiée dans Science Advances, nous avons distribué de manière sécurisée une clé quantique cryptée sur 100 kilomètres via un câble à fibre optique. C’est une distance record avec cette méthode. »

La distribution de clés quantiques (QKD) est une technologie avancée sur laquelle travaillent les chercheurs pour sécuriser les échanges de clés cryptographiques. Cette technologie exploite les propriétés quantiques des photons pour créer une clé unique partagée entre l’expéditeur et le destinataire. Toute tentative d’interception ou de mesure des photons dans un état quantique modifie instantanément leur état, rendant impossible la copie de la clé sans altération du signal.

« Il est impossible de faire une copie d’un état quantique, comme lorsqu’on fait une copie d’une feuille A4 – si on essaie, ce sera une copie de qualité inférieure. C’est ce qui garantit qu’il n’est pas possible de copier la clé. Cela peut protéger les infrastructures critiques telles que les dossiers de santé et le secteur financier contre le piratage », précise Tobias Gehring.

La technologie CV QKD peut être intégrée à l’infrastructure Internet existante, basée sur la communication optique via des câbles à fibre optique. « L’avantage d’utiliser cette technologie est que nous pouvons construire un système qui ressemble à ce sur quoi repose déjà la communication optique », souligne Tobias Gehring. Cette compatibilité facilite l’implémentation de la CV QKD et réduit significativement les coûts associés.

Pour accroître la distance de transmission des clés quantiques, les chercheurs ont dû s’attaquer à trois facteurs limitants : le bruit, les erreurs et les imperfections matérielles. L’apprentissage automatique a permis de détecter plus tôt les perturbations affectant le système, tandis que des améliorations ont été apportées pour corriger plus efficacement les erreurs survenant lors de la transmission.

Fort de ces avancées, Tobias Gehring et son équipe prévoient d’établir un réseau de communication sécurisé entre les ministères danois et de générer des clés secrètes entre Copenhague et Odense pour permettre aux entreprises ayant des succursales dans les deux villes d’établir une communication quantique sûre.

Légende illustration : Le câble de fibre optique de 100 kilomètres par lequel une équipe de chercheurs de DTU a réussi à distribuer en toute sécurité une clé à chiffrement quantique. Photo : DTU

Repousser les limites des matériaux pour améliorer l’électronique

Repousser les limites des matériaux pour améliorer l'électronique

Les leçons apprises lors des cours d’introduction à l’université peuvent être la clé pour réaliser de grandes découvertes scientifiques. C’est le cas de Jeehwan Kim, récemment titularisé au sein des départements de génie mécanique et de science et génie des matériaux du MIT. Ses recherches visent à repousser les limites inhérentes du silicium et à concevoir des dispositifs électroniques de nouvelle génération.

Jeehwan Kim n’a pas toujours été un étudiant modèle. Pendant sa jeunesse à Séoul, en Corée du Sud, il était passionné par la musique et s’ennuyait dans la plupart des matières enseignées au lycée. Cependant, lors de sa deuxième année à l’université Hongik, il a découvert les sciences des matériaux et a développé une véritable passion pour ce domaine.

Après avoir obtenu sa maîtrise à l’université nationale de Séoul, Kim a poursuivi ses études aux États-Unis, où il a obtenu un doctorat en sciences des matériaux à l’université de Californie à Los Angeles. C’est durant cette période qu’il a commencé à s’intéresser de près à la manipulation des matériaux électroniques à l’échelle microscopique pour créer des dispositifs plus rapides.

Une carrière chez IBM marquée par l’innovation

Lors d’un stage chez IBM, Kim a relevé un défi majeur : trouver un moyen fiable de doper le germanium, un matériau pressenti pour remplacer le silicium dans les transistors. En s’appuyant sur les principes fondamentaux appris durant ses études, il a proposé une solution innovante consistant à doper le germanium avec une combinaison de deux atomes différents.

Cette réussite lui a valu un poste de chercheur chez IBM, où il a appris à se concentrer sur des recherches ayant un impact direct sur la vie quotidienne et à appliquer les principes fondamentaux pour développer des produits de nouvelle génération.

Transmettre la passion de la recherche aux jeunes générations

Et pourtant, Kim sentait qu’il pouvait faire plus. Il travaillait sur des recherches novatrices dans l’un des principaux centres d’innovation du pays, où l’on encourageait la pensée “hors des sentiers battus” et où l’on testait les expériences. Mais il voulait aller au-delà du portefeuille de recherche de l’entreprise et trouver un moyen de poursuivre la recherche non seulement en tant que profession, mais aussi en tant que passion.

«Mon expérience m’a appris que l’on peut mener une vie très heureuse en tant qu’ingénieur ou scientifique si la recherche devient un passe-temps», explique Kim. «Je voulais enseigner ce cycle – bonheur, recherche et passion – aux jeunes et aider les doctorants à se développer comme des artistes ou des chanteurs

En 2015, il a fait ses valises pour le MIT, où il a accepté un poste de jeune professeur dans le département de génie mécanique. Ses premières impressions en arrivant à l’Institut ?

«La liberté“, dit Kim. «Pour moi, la liberté de penser – composer de la musique, innover quelque chose de totalement nouveau – est la chose la plus importante. Et les gens du MIT sont très talentueux et curieux de tout.»

Depuis qu’il s’est installé sur le campus, il a mis sur pied un groupe de recherche très productif, axé sur la fabrication de matériaux et de dispositifs électroniques ultraminces, empilables et très performants, qui, selon Kim, pourraient être utilisés pour construire des systèmes électroniques hybrides aussi petits qu’un ongle et aussi puissants qu’un superordinateur. Il attribue les nombreuses innovations du groupe à la quarantaine d’étudiants, de postdocs et de chercheurs qui ont contribué à son laboratoire.

Pour Kim, la recherche est un art et il espère que ses étudiants apprendront à l’apprécier autant que lui. Son message aux jeunes chercheurs est clair : «Si vous aimez ce que vous faites, alors vous pouvez devenir ce que vous voulez être.»

Légende illustration : M. Kim applique ses connaissances à la conception de dispositifs de la prochaine génération, notamment des transistors et des dispositifs de mémoire à faible consommation d’énergie et à haute performance, des puces d’intelligence artificielle, des écrans micro-LED à ultra-haute définition et des “peaux” électroniques flexibles. À terme, il envisage que ces dispositifs au-delà du silicium puissent être intégrés dans des superordinateurs suffisamment petits pour tenir dans la poche. Crédit : Jake Belcher

Voitures du futur : un superordinateur sur roues pour tout gérer 

Voitures du futur : un superordinateur sur roues pour tout gérer 

Les voitures modernes regorgent de composants électroniques sophistiqués, dont la gestion représente un défi de taille pour les constructeurs automobiles. Dans le cadre du projet de recherche conjoint CeCaS, des chercheurs de l’institut Fraunhofer travaillent sur une architecture système innovante visant à centraliser la gestion de l’ensemble des composants électroniques depuis une plateforme informatique unique.

Cette approche aurait l’avantage de faciliter la conception de véhicules hautement automatisés et connectés, tout en réduisant la complexité et le poids des faisceaux de câbles.

L’élément central de cette technologie développée par Fraunhofer est un backbone Ethernet extrêmement fiable et fonctionnant en temps réel. Cette infrastructure de communication permet aux différents composants du véhicule d’échanger des données de manière rapide et sécurisée, tout en garantissant une priorité aux fonctions critiques telles que le freinage.

Selon le Dr Frank Deicke, responsable de la communication de données et de l’informatique chez Fraunhofer IPMS, « TSN (Time-Sensitive Networking) permet de combiner capacité temps réel et fiabilité grâce à l’utilisation d’un temps système cohérent pour tous les dispositifs de contrôle pertinents, d’un système intelligent de gestion des files d’attente et de priorisation des tâches. »

Ethernet : flexibilité, évolutivité et réduction du poids

« La flexibilité et la grande évolutivité de l’Ethernet constituent ses atouts fondamentaux. Associée à nos cœurs de propriété intellectuelle, cette technologie peut facilement s’adapter à des véhicules de différentes tailles, catégories de performance et fonctionnalités », explique le Dr Deicke.

De plus, cette architecture centralisée permettra de réduire la taille des faisceaux de câbles, diminuant ainsi les coûts de production et le poids global du véhicule. Les mises à jour logicielles pourront également être réalisées sans passer par un garagiste, simplement via une connexion Wi-Fi.

« Si nécessaire, il sera également possible d’intégrer de nouvelles fonctionnalités de cette manière », ajoute le Dr Deicke.

©Fraunhofer IPMS. Une tendance lourde dans le secteur automobile : Un superordinateur central contrôle tous les composants de la voiture et peut être mis à jour via une connexion Wi-Fi.

De la gestion par domaine à la gestion par zone

Le projet CeCaS marque une rupture radicale avec les méthodes de construction actuelles des véhicules, en passant d’un contrôle des composants par domaine à une gestion par zone. Dans cette approche, quelques plateformes informatiques haute performance contrôlent simultanément de nombreux modules, qu’il s’agisse de systèmes critiques pour la sécurité (moteur, boîte de vitesses, freins) ou de fonctions de confort et de divertissement (climatisation, vitres électriques, système multimédia).

Ce projet, financé par le gouvernement fédéral allemand, ne se contente pas d’améliorer les performances des véhicules et de réduire les coûts. Il joue également un rôle essentiel dans le maintien et le renforcement de la souveraineté technologique et de l’indépendance des constructeurs automobiles allemands.

Légende illustration : Le système de commande centralisé nécessite moins de câbles, ce qui réduit la quantité de matériel et les coûts de production. Le véhicule est ainsi nettement plus léger.

Un nouveau modèle explique pourquoi l’eau gèle à différentes températures

Un nouveau modèle explique pourquoi l'eau gèle à différentes températures

La formation de la glace, un phénomène omniprésent dans notre environnement, suscite depuis longtemps l’intérêt des chercheurs. Des études récentes menées par une équipe de scientifiques apportent un nouvel éclairage sur les mécanismes qui régissent la nucléation de la glace, ouvrant ainsi la voie à de potentielles applications dans des domaines variés.

Valeria Molinero, professeure de chimie physique et des matériaux, et son équipe ont développé un modèle mathématique qui permet de prédire l’influence de la structure des surfaces sur la température de congélation de l’eau. Ce modèle, s’appuie sur l’analyse de centaines de mesures expérimentales antérieures.

Les chercheurs ont identifié une expression mathématique qui montre que certains angles entre les caractéristiques structurelles d’une surface facilitent la cristallisation des molécules d’eau à des températures relativement plus élevées. Cette découverte ouvre la voie à la conception de matériaux dont les surfaces favoriseraient la formation de glace de manière plus efficace, tout en minimisant l’apport énergétique nécessaire.

Des applications potentielles variées

Ce modèle pourrait trouver des applications dans divers domaines, tels que la fabrication de neige ou de glace artificielles, ou encore la conception de surfaces adaptées à l’ensemencement des nuages, une technique utilisée par plusieurs États de l’Ouest américain pour augmenter les précipitations.

En outre, cette étude pourrait contribuer à mieux comprendre le rôle des particules minérales présentes dans l’atmosphère dans la formation des nuages par nucléation de la glace, permettant ainsi d’améliorer l’efficacité des modèles météorologiques.

Perspectives de recherche sur les protéines de nucléation de la glace

Forts de ce modèle, les chercheurs envisagent de poursuivre leurs travaux sur les protéines de nucléation de la glace présentes chez les bactéries. Plus de 200 protéines sont supposées avoir cette propriété, mais leurs structures ne sont pas toutes connues.

L’équipe de recherche prévoit d’étudier les protéines dont les structures ont été résolues à l’aide d’outils d’intelligence artificielle, puis de modéliser l’impact des agrégats de ces protéines sur la formation de la glace.

Cette étude ouvre de nouvelles perspectives dans la compréhension des mécanismes de nucléation de la glace et laisse entrevoir de nombreuses applications potentielles, tant dans le domaine de la météorologie que dans celui des matériaux.

Focus sur la nucléation de la glace

La nucléation de la glace est le processus par lequel les molécules d’eau s’organisent pour former les premiers cristaux de glace dans un liquide. C’est une étape cruciale dans la transformation de l’eau liquide en glace solide.

Dans l’eau pure, la nucléation de la glace ne se produit qu’à des températures très basses, autour de -51°F (-46°C). Cependant, la présence d’impuretés, même en quantités infimes, peut faciliter la nucléation de la glace à des températures plus élevées.

Ces impuretés, appelées noyaux glaçogènes, peuvent être des particules de différentes natures, telles que des poussières, des bactéries, ou même certaines protéines. Elles agissent comme des sites de nucléation, offrant une surface sur laquelle les molécules d’eau peuvent s’organiser plus facilement pour former des cristaux de glace.

La nucléation de la glace joue un rôle important dans de nombreux phénomènes naturels et applications pratiques, tels que :

  • La formation des nuages et des précipitations
  • La création de neige et de glace artificielles
  • La congélation des aliments et la cryoconservation
  • Les dommages causés par le gel aux infrastructures et aux organismes vivants

Comprendre les mécanismes de la nucléation de la glace et les facteurs qui l’influencent est essentiel pour mieux appréhender ces phénomènes et développer des applications dans des domaines variés, de la météorologie à l’industrie agroalimentaire en passant par la biologie.

La recherche a été financée par la National Science Foundation, l’Air Force Office of Scientific Research et la bourse Yen de l’Institute for Biophysics Dynamics de l’université de Chicago.

Le laser DUV à 193 nm : une avancée majeure pour la lithographie de pointe

Le laser DUV à 193 nm : une avancée majeure pour la lithographie de pointe

Des scientifiques ont développé un laser DUV à l’état solide de 60 milliwatts à 193 nm en utilisant des cristaux LBO, établissant de nouvelles références en termes d’efficacité. Cette recherche ouvre de nouvelles perspectives dans de nombreux domaines d’application, de la lithographie à l’usinage laser.

Dans le domaine de la science et de la technologie, l’exploitation de sources de lumière cohérente dans la région des ultraviolets profonds (DUV) revêt une importance considérable pour diverses applications telles que la lithographie, l’inspection des défauts, la métrologie et la spectroscopie. Traditionnellement, les lasers de 193 nanomètres (nm) à haute puissance ont joué un rôle central dans la lithographie, faisant partie intégrante des systèmes utilisés pour la structuration précise.

Cependant, les limites de cohérence associées aux lasers excimères ArF conventionnels entravent leur efficacité dans les applications nécessitant des motifs à haute résolution, comme la lithographie par interférence.

Le concept de “laser excimère ArF hybride”

L’intégration d’une source laser à l’état solide de 193 nm à faible largeur de raie à la place de l’oscillateur ArF permet d’améliorer la cohérence et d’obtenir une faible largeur de raie, ce qui améliore les performances de la lithographie par interférence à haut débit. Cette innovation augmente non seulement la précision des motifs, mais accélère également la vitesse de la lithographie.

De plus, l’énergie des photons et la cohérence accrues du laser excimère ArF hybride facilitent le traitement direct de divers matériaux, y compris les composés carbonés et les solides, avec un impact thermique minimal. Cette polyvalence souligne son potentiel dans divers domaines, de la lithographie à l’usinage laser.

Optimisation de l’ensemencement pour un amplificateur ArF

Pour optimiser l’ensemencement d’un amplificateur ArF, la largeur de raie du laser de départ à 193 nm doit être méticuleusement contrôlée, idéalement en dessous de 4 gigahertz (GHz). Cette spécification dicte la longueur de cohérence cruciale pour l’interférence, un critère facilement rempli par les technologies laser à l’état solide.

Comme rapporté dans Advanced Photonics Nexus, ils ont réalisé un remarquable laser DUV à l’état solide de 60 milliwatts (mW) à 193 nm avec une faible largeur de raie en utilisant un processus sophistiqué de génération de fréquence somme à deux étages employant des cristaux LBO. Le processus implique des lasers de pompe à 258 et 1553 nm, dérivés respectivement d’un laser Yb-hybride et d’un laser à fibre dopée Er.

Le laser DUV généré, accompagné de son homologue à 221 nm, présente une puissance moyenne de 60 mW, une durée d’impulsion de 4,6 nanosecondes (ns) et un taux de répétition de 6 kilohertz (kHz), avec une largeur de raie d’environ 640 mégahertz (MHz). Il s’agit notamment de la puissance de sortie la plus élevée pour les lasers à 193 et 221 nm générés par un cristal LBO, ainsi que de la largeur de raie la plus étroite rapportée pour un laser à 193 nm.

Une efficacité de conversion remarquable

L’efficacité de conversion obtenue est remarquable : 27 % pour le passage de 221 à 193 nm et 3 % pour le passage de 258 à 193 nm, établissant de nouvelles références en termes d’efficacité. Cette recherche souligne l’immense potentiel des cristaux LBO pour générer des lasers DUV à des niveaux de puissance allant de centaines de milliwatts à des watts, ouvrant la voie à l’exploration d’autres longueurs d’onde laser DUV.

Selon le professeur Hongwen Xuan, auteur correspondant de ces travaux, la recherche rapportée démontre « la viabilité du pompage LBO avec des lasers à l’état solide pour une génération fiable et efficace de laser à faible largeur de raie à 193 nm, et ouvre une nouvelle voie pour fabriquer un système laser DUV rentable et de haute puissance utilisant LBO ».

Ces avancées repoussent non seulement les limites de la technologie des lasers DUV, mais promettent également de révolutionner une myriade d’applications dans les domaines scientifiques et industriels.

Légende illustration : Laser DUV à 193 nm généré par des cristaux LBO en cascade. Crédit : H. Xuan (branche GBA de l’Institut de recherche en information aérospatiale, Académie chinoise des sciences)

Article : “High-power, narrow linewidth solid-state deep ultraviolet laser generation at 193 nm by frequency mixing in LBO crystals” – DOI: https://doi.org/10.1117/1.APN.3.2.026012

Pourquoi devriez-vous songer à acheter vos pièces auto d’occasion ?

Pourquoi devriez-vous songer à acheter vos pièces auto d'occasion ?

L’achat de pièces auto d’occasion offre de nombreux avantages. Non seulement elles sont plus économiques, mais elles sont également garanties et testées pour assurer leur qualité. Que vous recherchiez des pièces détachées, de carrosserie ou autres, les casses automobiles proposent un large éventail de choix. Alors, pourquoi devriez-vous urgemment vous intéresser à l’achat de pièces auto d’occasion ?

Quels sont les avantages liés à l’achat de pièces auto d’occasion ?

L’achat de pièces auto d’occasion offre une alternative économique aux pièces neuves. Il est en effet possible de réaliser des économies conséquentes, parfois jusqu’à 80% du coût initial. C’est une option particulièrement intéressante pour les pièces de grande valeur comme les moteurs ou les boîtes de vitesses.

Ces pièces de réemploi sont également un choix judicieux pour les propriétaires de véhicules anciens ou de modèles moins courants. Il peut être difficile de trouver des pièces neuves pour ces véhicules, alors qu’il existe une grande variété de pièces d’occasion disponibles.

L’achat de pièces d’occasion contribue aussi à limiter l’impact écologique de l’industrie automobile. Cela permet de prolonger la durée de vie des pièces et de réduire la quantité de déchets générés. C’est donc une pratique qui s’inscrit dans le cadre de l’économie circulaire.
Notez que les pièces auto d’occasion sont souvent garanties et ont été testées pour assurer leur qualité. Il est donc possible de faire des économies sans faire de compromis sur la qualité, en optant pour des pièces automobiles d’occasion au meilleur prix.

Comment récupérer ses pièces auto d’occasion en casse ?

Pour récupérer vos pièces auto en casse, plusieurs solutions s’offrent à vous. Vous pouvez vous rendre directement dans une casse automobile pour effectuer vos recherches. Certaines casses proposent un service de démontage sur place, vous permettant de récupérer la pièce dont vous avez besoin directement sur le véhicule hors d’usage.

Vous pouvez également opter pour une recherche en ligne. De nombreux sites internet proposent une large gamme de pièces d’occasion, vous permettant de trouver la bonne pièce pour votre modèle de voiture. Vous pouvez alors entrer en contact directement avec le vendeur pour organiser la récupération de la pièce.

Quelle que soit la méthode choisie, n’oubliez pas de vérifier les conditions du vendeur et d’assurer que la pièce est compatible avec votre véhicule en vous référant à la référence constructeur.

Peut-on faire confiance aux casses auto en ligne ?

Le marché automobile en ligne a pris de l’ampleur ces dernières années. Avec l’arrivée du numérique, l’achat de pièces auto d’occasion en ligne est devenu un moyen pratique et efficace d’obtenir des pièces de qualité à moindre coût. Cette tendance est alimentée par la facilité de recherche et la possibilité de comparer les prix sur différentes plateformes.

Dans ce contexte, plusieurs sites web se sont spécialisés dans la vente de pièces auto d’occasion. Ces plateformes offrent une grande variété de pièces pour divers modèles et marques de véhicules. Elles permettent également de bénéficier de services supplémentaires comme la garantie, le paiement sécurisé et la livraison rapide.
Parmi les avantages à retenir des casses automobiles en ligne, nous pouvons citer :

  • La recherche facile et rapide : Les sites web proposent des outils de recherche avancés qui permettent aux utilisateurs de trouver rapidement la pièce qu’ils cherchent en entrant simplement la marque, le modèle de leur véhicule ou la référence de la pièce.
  • La comparaison des prix : Les plateformes en ligne offrent la possibilité de comparer les prix des différentes pièces disponibles pour choisir celle qui correspond le mieux à son budget.
  • La garantie et la qualité : Les pièces auto d’occasion vendues en ligne sont souvent garanties et ont été testées pour assurer leur qualité.
  • Le paiement sécurisé et livraison rapide : Les plateformes en ligne proposent des options de paiement sécurisé et garantissent une livraison rapide des pièces.

Vous l’aurez compris, l’achat en ligne s’impose comme une solution de choix pour l’acquisition de pièces auto d’occasion, alliant économie, facilité et rapidité.

Quels critères considérer lors de l’achat de pièces auto d’occasion ?

Lors de l’achat de pièces détachées d’occasion, plusieurs critères sont à prendre en compte pour assurer la qualité et la compatibilité de la pièce avec votre véhicule.

Vérifiez tout d’abord la provenance de la pièce. C’est un facteur important pour évaluer sa qualité. Les pièces issues de centres VHU agréés sont généralement de meilleure qualité.

Nous vous conseillons ensuite de vérifier la compatibilité de la pièce avec votre véhicule. Cela peut inclure des détails spécifiques tels que la marque du véhicule, le modèle, le type de motorisation ou même la série du véhicule.

Il est également important de prendre en compte l’âge et le kilométrage de la pièce. Une pièce trop usée ou trop vieille peut ne pas durer longtemps.

Le prix est enfin un facteur important. Les pièces d’occasion sont généralement moins chères, mais il est important de comparer les prix pour s’assurer de faire une bonne affaire.
——————-

Nous vous invitons à vous rapprocher de casses automobiles ou sites spécialisés pour profiter de pièces automobiles qualitatives au meilleur prix.

La course à l’efficacité énergétique passe par le diamant synthétique

La course à l'efficacité énergétique passe par le diamant synthétique

Les chercheurs ont réussi à développer des nanomembranes ultra-fines en diamant synthétique capables d’être intégrées dans des composants électroniques. Cette innovation permet de réduire jusqu’à dix fois la charge thermique locale, améliorant ainsi les performances routières et la durée de vie des voitures électriques, tout en réduisant considérablement le temps de charge des batteries.

Le diamant est reconnu pour sa conductivité thermique exceptionnelle, quatre à cinq fois supérieure à celle du cuivre. Cette caractéristique en fait un matériau particulièrement intéressant pour le refroidissement des composants électroniques à forte densité de puissance, tels que ceux utilisés dans les processeurs, les lasers à semi-conducteurs ou les véhicules électriques.

Jusqu’à présent, des dissipateurs thermiques en plaques de cuivre ou d’aluminium étaient utilisés pour augmenter la surface d’émission de chaleur des composants produisant de la chaleur, évitant ainsi les dommages dus à la surchauffe.

Les scientifiques de Fraunhofer USA Inc., Center Midwest CMW à East Lansing dans le Michigan, ont développé des nanomembranes en diamant synthétique plus fines qu’un cheveu humain. Ce matériau flexible peut être intégré directement dans les composants électroniques pour refroidir l’électronique de puissance des véhicules électriques, qui transfère l’énergie de traction de la batterie au moteur électrique et convertit le courant continu en courant alternatif.

©Fraunhofer USA, Centre Midwest CMW. Photographies de nanomembranes de diamant polycristallin autoportantes

Les nanomembranes flexibles et électriquement isolantes développées par Fraunhofer USA ont le potentiel de réduire d’un facteur dix la charge thermique locale des composants électroniques, tels que les régulateurs de courant dans les moteurs électriques. Cela permet d’améliorer significativement l’efficacité énergétique, la durée de vie et les performances routières des voitures électriques.

L’équipe du Dr. Matthias Mühle, responsable du groupe Diamond Technologies chez Fraunhofer USA Center Midwest CMW, a mis au point un procédé permettant de faire croître la nanomembrane en diamant polycristallin sur une plaquette de silicium séparée, puis de la détacher, de la retourner et de graver l’arrière de la couche de diamant.

Il en résulte un diamant lisse et autoportant qui peut être chauffé à basse température (80 degrés Celsius) et ensuite fixé au composant. « Le traitement thermique permet de lier automatiquement la membrane d’une épaisseur de quelques micromètres au composant électronique. Le diamant n’est alors plus autoportant mais intégré au système », explique le chercheur.

©Fraunhofer USA, Centre Midwest CMW. Images MEB d’une nanomembrane de diamant pliée élastiquement sous l’impact externe d’une force mécanique.

La nanomembrane peut être produite à l’échelle d’une plaquette (4 pouces et plus), ce qui la rend bien adaptée aux applications industrielles. Un brevet a déjà été déposé pour cette innovation.

Des tests d’application avec des onduleurs et des transformateurs dans des domaines tels que le transport électrique et les télécommunications devraient débuter cette année. Un autre avantage est que, lorsqu’elles sont utilisées dans l’infrastructure de charge, les membranes en diamant contribuent à des vitesses de charge cinq fois plus élevées.

En synthèse

Les nanomembranes en diamant synthétique développées par Fraunhofer USA représentent une avancée dans le domaine du refroidissement des composants électroniques à forte densité de puissance. Grâce à leur conductivité thermique exceptionnelle et à leur flexibilité, ces membranes peuvent être intégrées directement dans les systèmes électroniques, réduisant ainsi considérablement la charge thermique locale.

Cette innovation ouvre la voie à des améliorations significatives des performances, de la durée de vie et de l’efficacité énergétique des véhicules électriques, ainsi qu’à une réduction des temps de charge des batteries. Les applications potentielles de cette technologie s’étendent à divers domaines, tels que le transport électrique, les télécommunications et la photovoltaïque.

Pour une meilleure compréhension

Qu’est-ce qui rend le diamant si intéressant pour le refroidissement des composants ?

Le diamant possède une conductivité thermique exceptionnelle, quatre à cinq fois supérieure à celle du cuivre, ce qui en fait un matériau idéal pour dissiper la chaleur des composants électroniques à forte densité de puissance.

Comment les nanomembranes en diamant synthétique sont-elles fabriquées ?

Les nanomembranes en diamant polycristallin sont d’abord cultivées sur une plaquette de silicium séparée, puis détachées, retournées et gravées à l’arrière de la couche de diamant. Le résultat est un diamant lisse et autoportant qui peut être fixé au composant électronique après un traitement thermique à basse température.

Avantages des nanomembranes en diamant pour les véhicules électriques ?

Les nanomembranes en diamant peuvent réduire jusqu’à dix fois la charge thermique locale des composants électroniques, améliorant ainsi les performances routières, la durée de vie et l’efficacité énergétique des voitures électriques. Elles contribuent également à des vitesses de charge cinq fois plus élevées lorsqu’elles sont utilisées dans l’infrastructure de charge.

Quelles sont les autres applications potentielles de cette technologie ?

En plus du transport électrique, les nanomembranes en diamant synthétique peuvent trouver des applications dans des domaines tels que les télécommunications, la photovoltaïque et les systèmes de stockage d’énergie.

Où en est le développement de cette technologie ?

Un brevet a déjà été déposé pour cette innovation, et des tests d’application avec des onduleurs et des transformateurs dans des domaines tels que le transport électrique et les télécommunications devraient débuter cette année.

Références

Fraunhofer USA Inc., Center Midwest CMW. (2023). Des nanomembranes en diamant synthétique pour un refroidissement efficace des composants électroniques. East Lansing, Michigan, États-Unis.

Écrevisses : absorption du lithium multipliée dans une eau à 32°C

Écrevisses : absorption du lithium multipliée dans une eau à 32°C

Les batteries rechargeables au lithium-ion sont omniprésentes dans notre quotidien, alimentant une multitude d’appareils allant des téléphones portables aux montres en passant par les voitures électriques. Son utilisation croissante implique qu’une quantité plus importante de lithium pourrait se retrouver dans l’environnement à mesure que les consommateurs se débarrassent de leurs produits électroniques.

Des chercheurs ont récemment décrit comment le lithium peut s’accumuler chez un crustacé commun du Sud des États-Unis : l’écrevisse. Alors que la saison de pêche et de dégustation des écrevisses bat son plein, les résultats de ces recherches mettent en lumière les potentielles implications pour la santé publique et l’environnement.

Joseph Kazery, professeur de biologie, explique en substance ce phénomène : « En tant qu’organismes aquatiques, les écrevisses peuvent absorber de grandes quantités de lithium dissous dans l’eau. Étant donné que d’autres créatures, y compris les humains, consomment des écrevisses, leur étude nous permet de voir comment le lithium se déplace dans la chaîne alimentaire et potentiellement jusqu’à nous. »

Deux étudiants de premier cycle du laboratoire de Joseph Kazery au Mississippi College, Andrew Doubert et Javian Ervin, présentent les résultats de leurs expériences sur l’absorption du lithium ionique par différents organes d’écrevisses, ainsi que l’impact des températures saisonnières.

« Si les écrevisses sont élevées à proximité d’une décharge ou d’un site pollué, le ruissellement pourrait les exposer au lithium, avec des effets que nous ne comprenons pas encore totalement », souligne Javian Ervin. « Je consomme moi-même des écrevisses, donc cette question me tient à cœur. »

La contamination au lithium : un problème de longue date

La contamination au lithium n’est pas un phénomène nouveau. Même avant que les batteries au lithium-ion ne se généralisent, le lithium était et est toujours utilisé comme médicament pour traiter les troubles de l’humeur. Il pénètre dans l’approvisionnement en eau dans ces applications car le traitement typique des eaux usées n’élimine pas les contaminants médicamenteux.

À des niveaux élevés, le lithium peut avoir des effets toxiques sur la santé humaine, notamment en endommageant potentiellement les cellules du muscle cardiaque, ainsi qu’en provoquant confusion et troubles de la parole. Chez d’autres animaux, il cause éventuellement des dommages rénaux et une hypothyroïdie.

Des études ont également montré que lorsque le lithium s’accumule dans les plantes, il peut inhiber leur croissance, précise le Professeur Kazery.

Bien que l’Agence américaine de protection de l’environnement recommande de jeter les batteries au lithium-ion dans des points de collecte dédiés, Joseph Kazery affirme qu’elles finissent souvent dans des décharges. La demande en forte hausse, associée à des pratiques d’élimination laxistes, suggère que le lithium est sur le point de devenir un contaminant environnemental important, selon lui.

Les écrevisses comme bioindicateurs de la contamination au lithium

En tant qu’organismes entièrement aquatiques qui passent leur vie dans une zone relativement restreinte, les écrevisses (Procambarus clarkii) reflètent la contamination locale au lithium et pourraient servir de puissants bioindicateurs de sa présence dans un environnement. Le lithium qu’elles contiennent pourrait être transmis dans la chaîne alimentaire à leurs prédateurs, y compris les humains, soit directement, soit indirectement par le biais de poissons consommant des écrevisses et eux-mêmes consommés par les humains.

Pour ses expériences, l’équipe a acheté des écrevisses élevées pour la recherche. Sachant que le foie collecte les toxines du corps humain pour les éliminer par la suite, Andrew Doubert s’est demandé si le lithium s’accumulerait dans la version écrevisse de cet organe : l’hépatopancréas. Pour le savoir, il a ajouté du lithium ionique à la nourriture de cinq écrevisses, tout en donnant à cinq autres une nourriture sans lithium. Il a ensuite examiné la quantité de lithium présente dans quatre de leurs organes après une semaine. Il a constaté, en moyenne, la plus grande quantité de lithium dans le tractus gastro-intestinal (GI), suivi des branchies, de l’hépatopancréas et enfin du muscle abdominal de la queue.

Les chercheurs pensent que le tractus GI contenait probablement le niveau le plus élevé car la nourriture enrichie en lithium y reste pendant la digestion. Pendant ce temps, les branchies et l’hépatopancréas l’absorbent tous deux tout en l’éliminant du corps. Les gens consomment principalement la queue, qui semble absorber le lithium, mais pas aussi facilement que les autres parties du corps étudiées.

Andrew Doubert a également constaté que 27,5 % du lithium qu’il leur avait donné était passé du tractus GI des animaux dans d’autres tissus. Les animaux situés plus haut dans la chaîne alimentaire peuvent accumuler des niveaux plus élevés de substances toxiques s’ils mangent des proies contaminées, de sorte que le lithium deviendra probablement plus concentré chez les prédateurs des écrevisses. Les chercheurs s’attendent à ce que le taux élevé d’absorption observé exacerbe cette accumulation chez les humains et les autres animaux qui consomment des écrevisses.

Les écrevisses peuvent accumuler du lithium, un contaminant environnemental qui devrait augmenter avec l’utilisation croissante des batteries, et qui pourrait affecter les personnes qui les consomment. Crédit : Javian Ervin

Impact de la T° de l’eau sur l’absorption du lithium par les écrevisses

La température de l’eau dans laquelle vivent les écrevisses varie considérablement tout au long de l’année. Ces variations affectent le métabolisme des animaux, les rendant même inactifs pendant l’hiver. Sachant cela, Ervin a décidé d’examiner les effets de la température sur l’absorption du lithium. Il a placé des écrevisses dans des réservoirs maintenus à des températures allant de 10 à 32 degrés Celsius et a ajouté une concentration constante de lithium ionique à l’eau. Après cinq jours, il a constaté que l’absorption de lithium par le muscle abdominal et une partie de l’écrevisse que Andrew Doubert n’avait pas étudiée – l’exosquelette des animaux – augmentait dans le réservoir le plus chaud. Ces résultats suggèrent que les animaux peuvent contenir le plus de lithium pendant les mois chauds, selon Javian Ervin.

Le poids des écrevisses a également diminué dans l’eau plus chaude. À ce stade, on ne sait pas clairement comment ou si la perte de poids des écrevisses était liée au lithium qu’elles ont accumulé, note Javian Ervin, soulignant que l’équipe prévoit de donner suite à ces résultats.

En synthèse

Cette étude met en lumière les potentielles implications de l’utilisation croissante des batteries au lithium-ion sur la santé publique et l’environnement. Les écrevisses, en tant qu’organismes aquatiques, peuvent absorber de grandes quantités de lithium dissous dans l’eau et le transmettre dans la chaîne alimentaire à leurs prédateurs, y compris les humains. Les expériences menées par l’équipe de chercheurs ont montré que le lithium s’accumulait principalement dans le tractus gastro-intestinal, les branchies et l’hépatopancréas des écrevisses, avec une absorption plus importante dans les muscles abdominaux et l’exosquelette lorsque la température de l’eau était plus élevée.

Pour une meilleure compréhension

Qu’est-ce que le lithium et où est-il utilisé ?

Le lithium est un métal alcalin utilisé dans diverses applications, notamment dans les batteries rechargeables au lithium-ion qui alimentent de nombreux appareils électroniques et véhicules électriques. Il est également utilisé comme médicament pour traiter les troubles de l’humeur.

Comment le lithium peut-il se retrouver dans l’environnement ?

Le lithium peut pénétrer dans l’environnement par le biais des eaux usées provenant de son utilisation médicale, car le traitement typique des eaux usées n’élimine pas les contaminants médicamenteux. De plus, bien que l’EPA recommande de jeter les batteries au lithium-ion dans des points de collecte dédiés, elles finissent souvent dans des décharges, ce qui peut entraîner une contamination de l’environnement.

Quels sont les effets potentiels du lithium sur la santé humaine et animale ?

À des niveaux élevés, le lithium peut avoir des effets toxiques sur la santé humaine, notamment en endommageant potentiellement les cellules du muscle cardiaque, ainsi qu’en provoquant confusion et troubles de la parole. Chez d’autres animaux, il peut causer des dommages rénaux et une hypothyroïdie. Le lithium peut également inhiber la croissance des plantes lorsqu’il s’y accumule.

Les écrevisses utilisées comme bioindicateurs de la contamination au lithium ?

En tant qu’organismes entièrement aquatiques qui passent leur vie dans une zone relativement restreinte, les écrevisses reflètent la contamination locale au lithium et pourraient servir de puissants bioindicateurs de sa présence dans un environnement. Le lithium qu’elles contiennent pourrait être transmis dans la chaîne alimentaire à leurs prédateurs, y compris les humains.

Les principales conclusions de l’étude sur l’absorption du lithium par les écrevisses ?

L’étude a montré que le lithium s’accumulait principalement dans le tractus gastro-intestinal, les branchies et l’hépatopancréas des écrevisses, avec une absorption plus importante dans les muscles abdominaux et l’exosquelette lorsque la température de l’eau était plus élevée. Ces résultats soulignent l’importance d’explorer les effets à long terme de l’utilisation des batteries au lithium-ion sur notre environnement et notre santé.

Références

Les informations présentées dans cet article sont basées sur les résultats de recherche qui seront présentés lors de la réunion de printemps de l’American Chemical Society (ACS) en 2024. Les chercheurs impliqués dans cette étude sont Joseph Kazery, professeur de biologie au Mississippi College, ainsi que deux étudiants de premier cycle de son laboratoire, Andrew Doubert et Javian Ervin.

Trous noirs : 2 géants cosmiques aux champs magnétiques similaires

Trous noirs : 2 géants cosmiques aux champs magnétiques similaires

Les scientifiques de la collaboration Event Horizon Telescope (EHT), dont fait partie le Dr Ziri Younsi de l’UCL, ont réussi à capturer une nouvelle image du trou noir supermassif Sagittarius A* (Sgr A*) situé au cœur de notre galaxie, la Voie lactée. Cette image, obtenue en lumière polarisée, révèle la présence de champs magnétiques intenses et organisés s’enroulant autour du bord de ce monstre cosmique.

Cette nouvelle perspective sur Sgr A* a mis en évidence une structure de champ magnétique étonnamment similaire à celle du trou noir au centre de la galaxie M87, suggérant que les champs magnétiques puissants pourraient être une caractéristique commune à tous les trous noirs. Cette ressemblance laisse également entrevoir la possibilité d’un jet caché dans Sgr A*.

Le Dr Ziri Younsi, co-auteur des nouvelles publications et membre du Conseil scientifique de l’EHT, a indiqué : « Il est remarquable que la structure de polarisation de Sgr A* soit si similaire à celle du trou noir M87, dont nous savons qu’il possède un prodigieux jet relativiste. Cette nouvelle étude passionnante laisse entrevoir la possibilité d’un jet se cachant près de l’horizon des événements de Sgr A*. »

La Dr Sara Issaoun, co-responsable du projet au Center for Astrophysics de Harvard & Smithsonian, a expliqué : « Ce que nous voyons maintenant, c’est qu’il existe des champs magnétiques forts, torsadés et organisés près du trou noir au centre de la Voie lactée. Outre le fait que Sgr A* présente une structure de polarisation étonnamment similaire à celle observée dans le trou noir M87*, beaucoup plus grand et plus puissant, nous avons appris que des champs magnétiques forts et ordonnés sont essentiels à la façon dont les trous noirs interagissent avec le gaz et la matière qui les entourent. »

Le Dr Angelo Ricarte, co-responsable du projet et boursier de la Harvard Black Hole Initiative, a ajouté : « En imageant la lumière polarisée provenant du gaz chaud et lumineux près des trous noirs, nous déduisons directement la structure et la force des champs magnétiques qui traversent le flux de gaz et de matière dont se nourrit et qu’éjecte le trou noir. »

Imager les trous noirs en lumière polarisée n’est pas aussi simple que de mettre une paire de lunettes de soleil polarisées, et cela est particulièrement vrai pour Sgr A*, qui change si rapidement qu’il ne reste pas immobile pour les photos. L’imagerie de ce trou noir supermassif nécessite des outils sophistiqués allant au-delà de ceux précédemment utilisés pour capturer M87*, une cible beaucoup plus stable.

M87* et Sgr A* côte à côte en lumière polarisée. Crédit : EHT Collaboration. Vue ici en lumière polarisée, cette image côte à côte des trous noirs supermassifs M87* et Sagittarius A* indique aux scientifiques que ces bêtes ont des structures de champ magnétique similaires. Cette observation est importante car elle suggère que les processus physiques qui régissent la façon dont un trou noir se nourrit et lance un jet peuvent être des caractéristiques universelles parmi les trous noirs supermassifs. L’échelle indique la taille apparente de ces images sur le ciel, en unités de micro-arcsecondes. Un doigt tenu à bout de bras mesure 1 degré sur le ciel ; une micro-seconde d’arc est 3,6 milliards de fois plus petite. Dans ce contexte, les images de ces trous noirs ont une taille apparente similaire à celle d’un beignet à la surface de la Lune.

Les images des deux trous noirs supermassifs en lumière polarisée, ainsi que les données qui les accompagnent, offrent de nouvelles façons de comparer les trous noirs de différentes tailles et masses. Avec l’amélioration de la technologie, les images sont susceptibles de révéler encore plus de secrets sur les trous noirs et leurs similitudes ou différences.

Légende illustration principale : Vue du trou noir supermassif Sagittarius A* de la Voie lactée en lumière polarisée. Crédit : EHT Collaboration.

Diraq : des ordinateurs quantiques plus rapides et écologiques en vue

Diraq : des ordinateurs quantiques plus rapides et écologiques en vue

L’informatique quantique, une technologie prometteuse qui pourrait révolutionner de nombreux secteurs tels que la science des matériaux, la médecine, la pharmacie, la banque et la finance, a été confrontée à des obstacles considérables dans son développement. Parmi ces défis, la chaleur générée par les ordinateurs quantiques constitue un frein majeur. Cependant, une récente avancée technologique réalisée par Diraq pourrait bien changer la donne.

Dans un article publié dans la revue scientifique Nature, Diraq présente une innovation permettant à ses processeurs quantiques à base de spins de fonctionner à des températures plus de dix fois supérieures à ce qui était possible auparavant, tout en maintenant une stabilité et une précision élevées. Fondée en 2022 comme une spin-off de l’UNSW Sydney, Diraq affirme que cette avancée rend ses ordinateurs quantiques plus rapides, plus rentables et plus écologiques.

Les spins des semi-conducteurs sont largement considérés comme l’une des technologies les plus évolutives pour les processeurs quantiques, en raison de leur taille compacte et de leur compatibilité avec les procédés de fabrication existants des puces de silicium.

Vers un ordinateur quantique pratique

Selon le professeur Andrew Dzurak, PDG et fondateur de Diraq, « Par rapport aux températures en millikelvins, les températures supérieures à 1 K assouplissent considérablement les contraintes imposées par la faible puissance de refroidissement des réfrigérateurs à dilution, permettant ainsi l’utilisation d’un ordinateur quantique pratique avec une électronique de contrôle classique intégrée dans une simple plateforme cryogénique. »

L’équipe de Diraq : Jonathan Yue Huang, Henry Yang et Andrew Dzurak. Crédit photo : Anna Kucera.

Les puces de silicium traditionnelles génèrent de la chaleur, un défi bien connu lors de l’utilisation d’appareils électroniques. Plusieurs technologies de pointe dans le domaine de l’informatique quantique nécessitent un refroidissement à des températures extrêmement basses, très proches du zéro absolu (-273,15 °C). À des températures plus élevées, les qubits faiblissent, rendant la technologie peu pratique.

Une avancée fondamentale pour l’informatique quantique

Les nouvelles recherches de Diraq démontrent la possibilité d’effectuer des calculs quantiques à base de spins avec une grande précision à des températures supérieures à 1 K, une température compatible avec la capacité de fonctionnement de l’électronique conventionnelle. Cela signifie qu’il est possible d’exécuter des routines complexes de correction d’erreurs nécessaires pour une informatique quantique tolérante aux pannes.

Selon Jonathan Huang, auteur principal et chercheur associé chez Diraq, ainsi qu’étudiant en doctorat à l’Université de Nouvelle-Galles du Sud, « Cette augmentation de température, bien que difficile à appréhender par rapport aux concepts de température conventionnels, est en réalité révolutionnaire dans le domaine de l’informatique quantique. Notre prouesse d’ingénierie avancée a impliqué une compréhension profonde de la physique ainsi que la curiosité expérimentale nécessaire pour repousser les limites de la conception technique. »

Les “spins dans le silicium”, une technologie innovante

Pour relever le défi du passage à l’échelle de l’informatique quantique et atteindre des millions de qubits, le matériel novateur de Diraq, construit à l’aide d’une technologie appelée « spins dans le silicium », distingue l’entreprise de ses concurrents plus établis, selon le professeur Andrew Dzurak, PDG et fondateur.

« Bien que nos processeurs quantiques nécessitent toujours une réfrigération, les coûts et la complexité du système global sont considérablement réduits à ces températures élevées », explique Dzurak. « En exploitant la puissance des qubits chauds, ces ordinateurs quantiques permettront d’effectuer des calculs bien au-delà de la portée des supercalculateurs actuels, permettant des prédictions et des analyses plus rapides et plus précises. »

Avec une vision stratégique visant à devenir un fournisseur de bout en bout d’informatique quantique, Diraq ambitionne de combiner les propositions de valeur des fabricants de puces, des entreprises d’informatique en nuage et des fournisseurs d’algorithmes logiciels d’aujourd’hui pour libérer tout le potentiel de l’informatique quantique – une industrie qui devrait générer entre 450 et 850 milliards de dollars de valeur ajoutée d’ici 2040, selon le cabinet d’analystes Boston Consulting Group.

Légende illustration : Les spins semi-conducteurs constituent l’une des technologies les plus évolutives pour les processeurs quantiques, en raison de leur taille compacte et de leur compatibilité avec la fabrication actuelle des puces en silicium.

Des chercheurs créent un matériau qui défie les lois de la physique

Des chercheurs créent un matériau qui défie les lois de la physique

Les chercheurs ont développé un nouveau matériau souple et flexible qui présente une durabilité adaptative, devenant plus résistant lorsqu’il est soumis à des chocs ou à des étirements. Le matériau conducteur d’électricité ouvre la voie à une nouvelle génération de dispositifs portables et de capteurs médicaux personnalisés.

Une inspiration culinaire pour un matériau innovant

L’inspiration pour ce nouveau matériau provient d’un mélange couramment utilisé en cuisine : une bouillie de fécule de maïs. Yue (Jessica) Wang, scientifique des matériaux et chercheuse principale du projet, explique :

« Quand je remue lentement la fécule de maïs et l’eau, la cuillère se déplace facilement. Mais si je soulève la cuillère et que je poignarde le mélange, la cuillère ne rentre pas. C’est comme si je poignardais une surface dure. »

Cette bouillie, qui aide à épaissir les ragoûts et les sauces, présente une durabilité adaptative, passant de malléable à résistante en fonction de la force appliquée. L’équipe de Wang s’est efforcée d’imiter cette propriété dans un matériau conducteur solide.

Un mélange de polymères conjugués pour une durabilité adaptative

De nombreux matériaux conducteurs d’électricité, comme les métaux, sont durs, rigides ou cassants. Les chercheurs ont toutefois développé des moyens de créer des versions souples et flexibles en utilisant des polymères conjugués – de longues molécules semblables à des spaghettis qui sont conductrices.

L’équipe de Wang à l’Université de Californie, Merced, a sélectionné la bonne combinaison de polymères conjugués pour créer un matériau durable imitant le comportement adaptatif des particules de fécule de maïs dans l’eau. Ils ont constaté qu’au lieu de se briser sous l’effet de chocs très rapides, le matériau se déformait ou s’étirait. Plus l’impact était rapide, plus le film devenait étirable et résistant.

Des additifs pour renforcer la durabilité adaptative

Di Wu, chercheur postdoctoral dans le laboratoire de Wang, a étudié comment l’ajout de petites molécules pouvait créer un matériau composite encore plus résistant lorsqu’il est étiré ou lâché rapidement. Les résultats préliminaires ont indiqué que les nanoparticules chargées positivement à base de 1,3-propanediamine étaient le meilleur additif, conférant la plus grande fonctionnalité adaptative.

Wu explique que cet additif a affaibli les interactions des polymères qui forment les «boulettes de viande», les rendant plus faciles à séparer et à déformer lorsqu’ils sont frappés, et a renforcé les “ficelles de spaghettis” étroitement enchevêtrées.

Ce matériau souple et conducteur est doté d’une “durabilité adaptative”, c’est-à-dire qu’il devient plus fort lorsqu’il est touché. Yue (Jessica) Wang

Des applications dans les dispositifs portables et les capteurs

À l’avenir, l’équipe de Wang se concentrera sur la démonstration de l’applicabilité de leur matériau conducteur léger. Les possibilités incluent des dispositifs portables souples, tels que des bandes intégrées et des capteurs dorsaux pour les montres intelligentes, ainsi que des appareils électroniques flexibles pour la surveillance de la santé, tels que des capteurs cardiovasculaires ou des moniteurs de glycémie en continu.

La durabilité adaptative du matériau signifie que les futurs dispositifs de biocapteurs pourraient être suffisamment flexibles pour les mouvements humains réguliers, tout en résistant aux dommages en cas de choc ou de coup accidentel. Yue (Jessica) Wang pense que la nouvelle version composite devrait également être compatible avec l’impression 3D pour créer la forme souhaitée.

Ce matériau innovant ouvre de nombreuses perspectives d’applications, et les chercheurs sont impatients de voir où cette propriété non conventionnelle les mènera.

La recherche a été financée par l’Université de Californie, Merced, une bourse CAREER de la Fondation nationale des sciences et une bourse de jeune chercheur de la Fondation Arnold et Mabel Beckman.

Batteries : jusqu’à 19,4% d’économies en utilisant du lithium impur

Batteries : jusqu'à 19,4% d'économies en utilisant du lithium impur

Dans un contexte où les fabricants de batteries secondaires imposent des spécifications de pureté draconiennes pour les matériaux de cathode, une équipe de recherche de l’Université des sciences et technologies de Pohang (POSTECH) et de l’Institut de recherche en science et technologie industrielles (RIST) a fait une découverte qui pourrait révolutionner l’industrie des batteries.

Leurs travaux, publiés dans la revue scientifique internationale “Nature Communications”, remettent en question la nécessité de ces spécifications excessivement strictes et ouvrent la voie à une réduction significative des coûts de production des batteries.

Une pureté excessive remise en question

Les fabricants de cellules de batteries secondaires ( LG Energy Solution, Samsung SDI et SK on) ont longtemps insisté sur des spécifications de pureté très strictes pour les matériaux de cathode, afin de garantir une qualité de production constante. Ces spécifications ont été jalousement gardées comme des secrets commerciaux, sans véritable examen de leur nécessité. En réponse à ces exigences, les fournisseurs de matériaux de cathode ont investi massivement dans la purification des métaux bruts, entraînant une augmentation du coût unitaire des batteries.

L’équipe de recherche, dirigée par le professeur Yong-Tae Kim du département des sciences et de l’ingénierie des matériaux de POSTECH, en collaboration avec le professeur Kyu-Young Park de l’Institut des diplômés en technologie des matériaux ferreux et écologiques et du département des sciences et de l’ingénierie des matériaux de POSTECH, ainsi que l’équipe de recherche du Dr Woochul Jung de RIST, a découvert que ces spécifications de pureté étaient excessivement strictes.

Des impuretés bénéfiques pour les batteries

Les chercheurs se sont penchés sur l’impact de la pureté des matières premières de lithium sur la production et les performances des matériaux de cathode des batteries secondaires. Traditionnellement, on suppose que les impuretés dans les matériaux de lithium nuisent aux performances des batteries secondaires, d’où l’objectif de fabriquer des matériaux de lithium avec une pureté d’au moins 99,5 %. Toutefois, l’équipe a découvert que la présence d’environ 1 % d’impureté de magnésium (Mg) dans la matière première de lithium améliore l’efficacité du processus et prolonge la durée de vie de la batterie secondaire.

Leurs expériences ont démontré que l’utilisation de lithium à faible pureté, non entièrement débarrassé des impuretés, pourrait réduire les coûts de production des batteries secondaires et les émissions de dioxyde de carbone jusqu’à 19,4 % et 9,0 %, respectivement.

Vers une nouvelle approche stratégique

Le professeur Yong-Tae Kim, qui a dirigé la recherche, a déclaré : « Les fabricants de cellules de batteries secondaires doivent réévaluer si leurs spécifications actuelles de matériaux de cathode sont trop strictes. » Il a ajouté : « Envisager des approches non conventionnelles pourrait offrir une nouvelle stratégie face aux prix agressivement bas de la Chine. »

Cette étude remet en question les pratiques établies dans l’industrie des batteries et ouvre la voie à une optimisation des processus de production. En assouplissant les spécifications de pureté des matériaux de cathode, les fabricants pourraient réduire considérablement les coûts et l’empreinte carbone de leurs batteries, tout en maintenant, voire en améliorant, leurs performances.

En synthèse

La découverte exposée ici remet en question la nécessité de spécifications de pureté excessivement strictes pour les matériaux de cathode des batteries secondaires. Leurs travaux démontrent que la présence d’impuretés, notamment de magnésium, peut améliorer l’efficacité du processus de production et la durée de vie des batteries. Cette approche non conventionnelle pourrait offrir une nouvelle stratégie face à la concurrence chinoise et ouvrir la voie à une réduction significative des coûts et de l’empreinte carbone de l’industrie des batteries.

Pour une meilleure compréhension

Pourquoi les fabricants de batteries imposent-ils des spécifications de pureté strictes ?

Les fabricants de batteries secondaires imposent des spécifications de pureté strictes pour les matériaux de cathode afin de garantir une qualité de production constante et d’éviter que les impuretés ne nuisent aux performances des batteries.

Qu’ont découvert les chercheurs concernant ces spécifications de pureté ?

Les chercheurs ont découvert que ces spécifications de pureté étaient excessivement strictes et que la présence d’environ 1 % d’impureté de magnésium dans la matière première de lithium pouvait en réalité améliorer l’efficacité du processus de production et prolonger la durée de vie des batteries secondaires.

Quels sont les avantages potentiels de l’utilisation de lithium à faible pureté ?

L’utilisation de lithium à faible pureté pourrait réduire les coûts de production des batteries secondaires et les émissions de dioxyde de carbone jusqu’à 19,4 % et 9,0 %, respectivement, tout en maintenant, voire en améliorant, les performances des batteries.

Que suggère le professeur Yong-Tae Kim aux fabricants de cellules de batteries ?

Le professeur Yong-Tae Kim suggère aux fabricants de cellules de batteries secondaires de réévaluer si leurs spécifications actuelles de matériaux de cathode sont trop strictes et d’envisager des approches non conventionnelles comme stratégie face à la concurrence chinoise.

Quelles sont les implications de cette étude pour l’industrie des batteries ?

Cette étude remet en question les pratiques établies dans l’industrie des batteries et ouvre la voie à une optimisation des processus de production. En assouplissant les spécifications de pureté des matériaux de cathode, les fabricants pourraient réduire considérablement les coûts et l’empreinte carbone de leurs batteries, tout en maintenant, voire en améliorant, leurs performances.

Références

Article : “Re-evaluation of battery-grade lithium purity toward sustainable batteries” – DOI: 10.1038/s41467-024-44812-3

Avalanche magnétique déclenchée par des effets quantiques

Avalanche magnétique déclenchée par des effets quantiques

Les matériaux ferromagnétiques comme les vis en fer, sont composés d’atomes dont les électrons se comportent comme de petits aimants. Bien que les orientations de ces aimants soient alignées au sein d’une même région du matériau, elles ne le sont pas d’une région à l’autre. Lorsqu’un champ magnétique est appliqué, les orientations des spins dans les différentes régions s’alignent et le matériau devient entièrement magnétisé. Ce processus d’alignement des spins ne se produit pas instantanément, mais plutôt de manière progressive, à la manière d’une avalanche de neige.

Des chercheurs du California Institute of Technology (Caltech) ont récemment démontré que ce phénomène, connu sous le nom de bruit de Barkhausen, peut être produit non seulement par des moyens classiques, mais également par des effets quantiques. Cette découverte ouvre la voie à de nouvelles applications dans le domaine des capteurs quantiques et des dispositifs électroniques.

Le bruit de Barkhausen : un phénomène classique revisité

Le bruit de Barkhausen, mis en évidence pour la première fois par le physicien Heinrich Barkhausen en 1919, est le résultat de l’alignement progressif des spins dans un matériau magnétique sous l’effet d’un champ magnétique externe. Ce processus se produit de manière discontinue, par sauts, et peut être comparé à une avalanche de neige : un petit groupe de spins bascule, entraînant le basculement des groupes voisins, jusqu’à ce que l’ensemble du matériau soit magnétisé dans la même direction.

Traditionnellement, ces basculements de spins sont considérés comme des phénomènes classiques, résultant de l’activation thermique des particules qui acquièrent temporairement suffisamment d’énergie pour franchir une barrière énergétique. L’étude menée par les chercheurs de Caltech montre que ces basculements peuvent également se produire de manière quantique, par un processus appelé effet tunnel.

L’effet tunnel quantique : une nouvelle perspective

L’effet tunnel quantique permet aux particules de franchir une barrière énergétique sans avoir à passer par-dessus, à la manière d’une balle de golf qui traverserait une colline plutôt que de devoir la gravir. Dans le monde quantique, les particules sont en réalité des ondes, et une partie de leur fonction d’onde peut se trouver de l’autre côté de la barrière énergétique.

Les chercheurs ont également mis en évidence un effet de co-tunneling, dans lequel des groupes d’électrons en tunneling communiquent entre eux pour orienter les spins électroniques dans la même direction. Contrairement au cas classique où chaque mini-avalanche se produit de manière indépendante, l’effet de co-tunneling permet à deux avalanches de se produire de manière synchronisée, grâce aux interactions entre de grands ensembles d’électrons.

Christopher Simon tient un cristal de fluorure de lithium holmium yttrium. Crédit : Lance Hayashida/Caltech

Une expérience révélatrice

Pour leurs expériences, les chercheurs ont utilisé un matériau cristallin rose, le fluorure de lithium holmium yttrium, refroidi à des températures proches du zéro absolu. En enroulant une bobine autour du matériau et en appliquant un champ magnétique, ils ont mesuré de brefs sauts de tension, similaires à ceux observés par Barkhausen en 1919. Ces pics de tension indiquent le moment où des groupes de spins électroniques basculent leur orientation magnétique, produisant ainsi le bruit de Barkhausen.

En analysant ce bruit, les chercheurs ont pu montrer qu’une avalanche magnétique se produisait même en l’absence d’effets classiques. Ils ont notamment constaté que ces effets étaient insensibles aux variations de température du matériau, ce qui les a conduits à conclure que des effets quantiques étaient à l’origine de ces changements à grande échelle.

Des implications potentielles pour les technologies quantiques

Cette étude met en évidence le fait que des effets quantiques microscopiques peuvent entraîner des changements macroscopiques dans les matériaux. Les régions de basculement des spins peuvent contenir jusqu’à un million de milliards de spins, sur un total d’environ un milliard de billions de spins dans l’ensemble du cristal.

Selon Thomas F. Rosenbaum, professeur de physique à Caltech et co-auteur de l’étude, ces travaux s’inscrivent dans la lignée des recherches menées par son laboratoire, qui visent à isoler les effets quantiques afin de les comprendre de manière quantitative. Une autre étude récente publiée dans PNAS par l’équipe de Rosenbaum a également montré comment de minuscules effets quantiques peuvent conduire à des changements à plus grande échelle dans l’élément chrome.

En synthèse

La découverte du bruit de Barkhausen quantique par les chercheurs de Caltech ouvre de nouvelles perspectives dans le domaine de la physique fondamentale et des technologies quantiques. En démontrant que des effets quantiques microscopiques peuvent entraîner des changements macroscopiques dans les matériaux ferromagnétiques, cette étude pose les bases de futures applications dans le domaine des capteurs quantiques et des dispositifs électroniques.

Pour une meilleure compréhension

Qu’est-ce que le bruit de Barkhausen ?

Le bruit de Barkhausen est un phénomène qui se produit dans les matériaux ferromagnétiques lorsqu’ils sont soumis à un champ magnétique externe. Il est caractérisé par des sauts discontinus dans la magnétisation du matériau, résultant de l’alignement progressif des spins électroniques dans les différentes régions du matériau.

Qu’est-ce que l’effet tunnel quantique ?

L’effet tunnel quantique est un phénomène qui permet aux particules de franchir une barrière énergétique sans avoir à passer par-dessus. Dans le monde quantique, les particules sont en réalité des ondes, et une partie de leur fonction d’onde peut se trouver de l’autre côté de la barrière énergétique.

Qu’est-ce que le co-tunneling ?

Le co-tunneling est un effet quantique dans lequel des groupes d’électrons en tunneling communiquent entre eux pour orienter les spins électroniques dans la même direction. Cet effet permet à deux avalanches de spins de se produire de manière synchronisée, grâce aux interactions entre de grands ensembles d’électrons.

Quels sont les matériaux utilisés dans l’étude ?

Les chercheurs ont utilisé un matériau cristallin rose, le fluorure de lithium holmium yttrium, refroidi à des températures proches du zéro absolu pour leurs expériences.

Quelles sont les implications potentielles de cette découverte ?

La découverte du bruit de Barkhausen quantique ouvre de nouvelles perspectives dans le domaine de la physique fondamentale et des technologies quantiques. Elle pourrait conduire à de futures applications dans le domaine des capteurs quantiques et des dispositifs électroniques.

Références

Article : “Quantum Barkhausen noise induced by domain wall cotunneling” – DOI : https://doi.org/10.1073/pnas.2315598121

Une électrode adhésive 5 en 1 pour des supercondensateurs flexibles 2D

Une électrode adhésive 5 en 1 pour des supercondensateurs flexibles 2D

Les supercondensateurs, ces dispositifs de stockage d’énergie aux propriétés remarquables, font l’objet d’intenses recherches pour améliorer leur flexibilité et leur miniaturisation. Une équipe de chercheurs de l’Université de Jilin en Chine vient de franchir un pas important dans cette direction en développant une électrode adhésive innovante qui résout l’un des principaux défis des supercondensateurs flexibles 2D : la synergie entre leurs différents composants.

Les supercondensateurs flexibles 2D souffrent généralement de procédures de fabrication complexes et chronophages, ainsi que d’une faible endurance mécanique. L’équipe de recherche a créé un nouveau type d’électrode adhésive tout-en-un qui permet non seulement de simplifier le processus de fabrication, mais aussi de surmonter le déplacement interfacial des supercondensateurs conventionnels.

Sous l’effet de déformations mécaniques répétées, l’interface entre les électrodes et l’électrolyte peut se déplacer, rendant le contact interfacial moins efficace. Ce phénomène entraîne une augmentation significative de la résistance de contact et une diminution des performances de stockage d’énergie et de la stabilité du dispositif.

Une électrode adhésive pour supercondensateurs flexibles sans fil

Pour résoudre ces problèmes d’interface et éliminer les fils, les chercheurs ont combiné des acides hétéropolyacides (HPA) avec des acides aminés et des matériaux carbonés pour construire une sorte d’adhésif humide tout-en-un assurant simultanément la conduction des électrons, les propriétés redox, la déformation mécanique et l’adhérence.

Les HPA, une classe de clusters inorganiques nanométriques dotés d’une activité redox rapide et réversible, permettent au supercondensateur de se charger et de se décharger rapidement et de manière fiable. Les acides aminés aident les HPA à devenir plus flexibles, tandis que les matériaux carbonés contribuent à la conduction électronique.

Des chercheurs de l’université de Jilin, en Chine, ont mis au point un nouveau procédé de fabrication permettant de produire des supercondensateurs 2D flexibles présentant une conductivité élevée, même sous l’eau. Ces travaux ont des implications pour l’amélioration des dispositifs d’alimentation implantables, tels que les stimulateurs cardiaques. Crédit : Polyoxometalates, Tsinghua University Press

Une synergie entre composants pour des performances optimisées

Les chercheurs ont constaté que les composants carbonés amélioraient la conduction électronique, que la chimie des acides aminés contribuait à l’adhérence interfaciale et que les clusters HPA empêchaient la formation de structures plus grandes tout en dotant l’électrode d’une capacité de transfert et de stockage des électrons.

Les adhésifs résultants sont des matériaux adaptatifs et déformables qui facilitent le développement de supercondensateurs flexibles 2D pour une sortie haute tension avec des interconnexions sans métal.

Vers des supercondensateurs miniatures et implantables

Les chercheurs ont déclaré qu’ils tenteraient de créer des supercondensateurs flexibles 2D miniatures et indépendants du substrat pour développer des dispositifs d’alimentation implantables. Cette avancée ouvre la voie à de nouvelles applications dans le domaine des appareils électroniques portables et implantables, tels que les montres intelligentes ou les stimulateurs cardiaques.

En synthèse

L’équipe a développé une électrode adhésive innovante qui résout les problèmes d’interface et élimine les fils dans les supercondensateurs flexibles 2D. L’approche des chercheurs simplifie ici la fabrication, améliore la durabilité mécanique et ouvre la voie à des dispositifs miniatures et implantables.

Pour une meilleure compréhension

Qu’est-ce qu’un supercondensateur flexible 2D ?

Un supercondensateur flexible 2D est un dispositif de stockage d’énergie qui peut être déformé et plié tout en maintenant ses performances. Il est généralement composé d’électrodes et d’un électrolyte empilés en sandwich ou disposés en structure plate 2D.

Quels sont les principaux défis des supercondensateurs flexibles 2D ?

Les principaux défis des supercondensateurs flexibles 2D sont la complexité et la durée des procédures de fabrication, ainsi que la faible endurance mécanique. Sous l’effet de déformations répétées, l’interface entre les électrodes et l’électrolyte peut se déplacer, entraînant une diminution des performances et de la stabilité.

Comment l’électrode adhésive développée par les chercheurs résout ces problèmes ?

L’électrode adhésive développée par les chercheurs combine des acides hétéropolyacides, des acides aminés et des matériaux carbonés pour créer un adhésif humide multifonctionnel. Cet adhésif assure la conduction des électrons, les propriétés redox, la déformation mécanique et l’adhérence, simplifiant ainsi la fabrication et améliorant la durabilité mécanique.

Quels sont les avantages de cette nouvelle approche ?

Cette nouvelle approche permet de simplifier le processus de fabrication, de surmonter le déplacement interfacial des supercondensateurs conventionnels et d’éliminer les fils. Les adhésifs résultants sont des matériaux adaptatifs et déformables qui facilitent le développement de supercondensateurs flexibles 2D pour une sortie haute tension avec des interconnexions sans métal.

Quelles sont les perspectives d’application de ces supercondensateurs flexibles 2D ?

Les chercheurs envisagent de créer des supercondensateurs flexibles 2D miniatures et indépendants du substrat pour développer des dispositifs d’alimentation implantables. Cette avancée ouvre la voie à de nouvelles applications dans le domaine des appareils électroniques portables et implantables, tels que les montres intelligentes ou les stimulateurs cardiaques.

Références

Article : “Taming of heteropoly acids into adhesive electrodes using amino acids for the development of flexible two-dimensional supercapacitors” – DOI: 10.26599/POM.2024.9140062

L’Université de Kobe repousse les limites de l’électronique de puissance

L'Université de Kobe repousse les limites de l'électronique de puissance

Les chercheurs de l’Université de Kobe ont développé un nouveau convertisseur de puissance électrique qui offre une efficacité nettement supérieure à un coût et une maintenance réduits par rapport aux modèles précédents. Le dispositif promet de contribuer de manière significative au développement futur des composants électriques et électroniques dans des domaines (production d’énergie, santé, mobilité et technologies de l’information.)

Les dispositifs qui récoltent l’énergie de la lumière du soleil ou des vibrations, qui alimentent des appareils médicaux ou des voitures à hydrogène, ont tous un composant clé en commun : le convertisseur élévateur. En effet, il convertit une entrée de courant continu basse tension en une sortie de courant continu haute tension. Étant donné son omniprésence et son importance, il est souhaitable qu’il utilise le moins de pièces possible pour réduire les coûts et la maintenance, tout en fonctionnant avec la plus grande efficacité possible sans générer de bruit électromagnétique ni de chaleur.

Le principe de fonctionnement principal des convertisseurs élévateurs consiste à basculer rapidement entre deux états dans un circuit, l’un qui stocke l’énergie et l’autre qui la libère. Plus la commutation est rapide, plus les composants peuvent être petits et donc l’ensemble du dispositif peut être réduit. En revanche, cela augmente également le bruit électromagnétique et la production de chaleur, ce qui détériore les performances du convertisseur de puissance.

Le convertisseur élévateur de tension à courant continu développé par l’université de Kobe présente un bruit électromagnétique très réduit et un rendement énergétique élevé de plus de 91 %, ce qui est sans précédent pour un lecteur MHz avec un rapport multiplicateur de tension élevé. Ce rapport est également plus de 1,5 fois supérieur aux conceptions existantes. Crédit : MISHIMA Tomokazu

Une nouvelle conception de circuit prometteuse

L’équipe du chercheur en électronique de puissance de l’Université de Kobe, MISHIMA Tomokazu, a réalisé des progrès dans le développement d’un nouveau circuit de conversion de puissance à courant continu. Ils ont réussi à combiner une commutation à haute fréquence (environ 10 fois plus élevée qu’auparavant) avec une technique qui réduit le bruit électromagnétique et les pertes de puissance dues à la dissipation de chaleur, appelée « commutation douce », tout en réduisant le nombre de composants et, par conséquent, en maintenant un faible coût et une faible complexité.

Selon le Dr Mishima, « Lorsque le circuit passe d’un état à l’autre, il y a une brève période pendant laquelle le commutateur n’est pas complètement fermé, et à ce moment-là, il y a à la fois une tension et un courant à travers le commutateur. Cela signifie que pendant ce temps, le commutateur agit comme une résistance et dissipe donc de la chaleur. Plus un état de commutation change souvent, plus cette dissipation se produit. La commutation douce est une technique qui garantit que les transitions de commutation se produisent à une tension nulle, minimisant ainsi la perte de chaleur. »

Des résultats prometteurs et des perspectives d’avenir

L’équipe de l’Université de Kobe a présenté sa nouvelle conception de circuit et son évaluation dans la revue IEEE Transactions on Power Electronics. La clé de leur réussite réside dans l’utilisation de circuits «réservoirs résonnants» qui sont capables de stocker de l’énergie pendant la période de commutation et ont donc des pertes beaucoup plus faibles. De plus, ils utilisent une conception économe en composants avec des composants plats imprimés sur une carte de circuit, appelée “transformateur planaire”, qui est très compacte et offre à la fois une bonne efficacité et de bonnes performances thermiques.

Mishima et ses collègues ont également construit un prototype du circuit et mesuré ses performances.

L’équipe de l’université de Kobe a présenté une nouvelle conception de circuit qui utilise des circuits à “réservoir résonant” qui peuvent stocker l’énergie pendant la période de commutation et ont donc des pertes beaucoup plus faibles. En outre, ils utilisent une conception économe en composants avec des composants plats imprimés sur une carte de circuit, appelée “transformateur planaire”, qui est très compacte et présente à la fois un bon rendement et de bonnes performances thermiques. Crédit : MISHIMA Tomokazu

« Nous avons confirmé que notre conception sans snubber réduit considérablement le bruit électromagnétique et offre une efficacité énergétique élevée allant jusqu’à 91,3 %, ce qui est sans précédent pour un entraînement MHz avec un rapport de conversion de tension élevé. Ce rapport est également plus de 1,5 fois supérieur à celui des conceptions existantes », souligne le Dr Mishima. Ils souhaitent encore augmenter l’efficacité en réduisant la dissipation de puissance des composants magnétiques utilisés.

Compte tenu de l’omniprésence des appareils électriques dans notre société, le fonctionnement à haut rendement et à faible bruit des alimentations à courant continu avec un rapport multiplicateur de tension élevé est extrêmement important. Ce développement de l’Université de Kobe sera d’une grande pertinence pour les applications dans les domaines de l’énergie électrique, des énergies renouvelables, des transports, de l’information et des télécommunications ainsi que des soins médicaux.

Mishima explique leurs plans pour l’avenir : « Le développement actuel est un prototype de petite capacité de classe 100W, mais nous visons à étendre la capacité de puissance à une capacité de classe kW plus importante à l’avenir en améliorant la carte de circuit électronique et d’autres composants. »

Cette recherche a été menée en collaboration avec des chercheurs de l’Université nationale Chung Hsing.

Article : “MHz-Driven Snubberless Soft-Switching Current-Fed Multiresonant DC-DC Converter” – DOI: 10.1109/TPEL.2024.3380069

Un nouveau type de refroidissement pour les simulateurs quantiques

Un nouveau type de refroidissement pour les simulateurs quantiques

Les expériences quantiques ouvrent de nouvelles perspectives fascinantes pour la recherche scientifique, mais elles sont confrontées à un défi majeur : la fragilité des effets quantiques face aux perturbations extérieures. Des chercheurs de la TU Wien (Vienne) ont mis au point une méthode innovante pour refroidir efficacement les expériences quantiques, en divisant un condensat de Bose-Einstein en deux parties selon une dynamique temporelle spécifique.

L’avancée est cruciale pour les simulateurs quantiques, qui permettent d’étudier des phénomènes quantiques jusqu’alors inaccessibles.

Des simulateurs quantiques pour explorer de nouveaux horizons

Les simulateurs quantiques sont devenus un outil incontournable en physique quantique ces dernières années. Maximilian Prüfer, chercheur à l’Institut de physique atomique de la TU Wien, explique : « Les simulateurs quantiques sont des systèmes dont le comportement est déterminé par des effets quantiques et qui peuvent être contrôlés et observés avec une grande précision. Ils permettent d’étudier des phénomènes fondamentaux de la physique quantique qui se produisent dans d’autres systèmes quantiques, mais qui sont difficiles à étudier directement. »

Cette approche n’est pas nouvelle en physique : par exemple, on peut réaliser des expériences avec des ondes dans l’eau pour en apprendre davantage sur les ondes sonores, car les ondes dans l’eau sont plus faciles à observer. Dans le domaine de la physique quantique, les simulateurs quantiques sont devenus un outil extrêmement utile et polyvalent, notamment grâce aux nuages d’atomes ultra-froids étudiés dans le laboratoire de Maximilian Prüfer.

Refroidir efficacement pour optimiser les performances

Le facteur limitant actuel pour les simulateurs quantiques est leur température. « Plus nous refroidissons efficacement les degrés de liberté intéressants du condensat, mieux nous pouvons l’utiliser et en apprendre davantage », souligne Maximilian Prüfer.

Il existe différentes méthodes pour refroidir un gaz, comme augmenter lentement son volume. Pour les condensats de Bose-Einstein ultra-froids, d’autres techniques sont généralement utilisées, comme éliminer rapidement les atomes les plus énergétiques jusqu’à obtenir un ensemble d’atomes ayant une énergie uniformément basse, et donc une température plus froide.

L’équipe de recherche de la TU Wien a utilisé une approche totalement différente. Tiantian Zhang, première auteure de l’étude, explique : « Nous créons un condensat de Bose-Einstein, puis nous le divisons en deux parties en créant une barrière au milieu. Le nombre de particules qui se retrouvent à droite et à gauche de la barrière est indéterminé, en raison des lois de la physique quantique. »

Contrôler les fluctuations pour refroidir efficacement

Les chercheurs ont montré que ni une division extrêmement abrupte, ni une division extrêmement lente du condensat de Bose-Einstein n’est optimale. Il faut trouver un compromis, une façon intelligemment adaptée de diviser dynamiquement le condensat, afin de contrôler au mieux les fluctuations quantiques.

Ce problème ne peut pas être résolu à l’aide d’ordinateurs conventionnels, mais grâce à des expériences, l’équipe de recherche a pu montrer que la dynamique de division appropriée permet de supprimer la fluctuation du nombre de particules, ce qui se traduit par une réduction de la température que l’on cherche à minimiser.

Maximilian Prüfer conclut : « Différentes échelles de température coexistent dans ce système, et nous en abaissons une très spécifique. Il ne faut pas imaginer un mini-réfrigérateur qui devient sensiblement plus froid dans l’ensemble. Mais ce n’est pas ce dont nous parlons : la suppression des fluctuations est exactement ce dont nous avons besoin pour pouvoir utiliser notre système comme un simulateur quantique encore mieux qu’auparavant. Nous pouvons maintenant l’utiliser pour répondre à des questions de physique quantique fondamentale qui étaient jusqu’alors inaccessibles. »

Article : “Squeezing Oscillations in a Multimode Bosonic Josephson Junction” – DOI: 10.1103/PhysRevX.14.011049

Légende illustration : Tiantian Zhang et Maximilian Prüfer discutent des mesures dans le laboratoire quantique. Crédit : TU Wien

Des cellules solaires flexibles qui conservent 90% d’efficacité après 10 000 plis

Des cellules solaires flexibles qui conservent 90% d'efficacité après 10 000 plis

Les cellules solaires flexibles offrent de nombreuses applications potentielles dans l’aérospatiale et l’électronique flexible. Leur faible efficacité de conversion énergétique a par contre limité leur utilisation pratique jusqu’à présent. Une nouvelle méthode de fabrication a permis d’augmenter l’efficacité énergétique des cellules solaires flexibles à base de pérovskite, une classe de composés dotés d’une structure cristalline spécifique facilitant la conversion de l’énergie solaire en électricité.

Les cellules solaires flexibles à base de pérovskite (FPSC) actuelles souffrent d’une efficacité de conversion énergétique inférieure à celle des cellules solaires rigides à base de pérovskite. Cela s’explique par les caractéristiques souples et inhomogènes du matériau de base flexible, le polyéthylène téréphtalate (PET), sur lequel sont construits les films de pérovskite des FPSC.

De plus, les FPSC ont une durabilité moindre par rapport aux cellules solaires rigides utilisant le verre comme substrat de base. Les pores présents dans les substrats des cellules solaires flexibles permettent à l’eau et à l’oxygène d’envahir les matériaux pérovskites, entraînant leur dégradation.

Une technique de fabrication pour améliorer l’efficacité des FPSC

Pour résoudre ces problèmes liés à la technologie actuelle des FPSC, une équipe de scientifiques des matériaux du Laboratoire d’État pour l’exploitation et le contrôle des systèmes électriques de l’Université Tsinghua et du Centre d’excellence en nanosciences du Centre National pour la Nanoscience et la Technologie à Pékin, en Chine, a développé une nouvelle technique de fabrication qui augmente l’efficacité des FPSC, ouvrant la voie à une utilisation de cette technologie à une échelle beaucoup plus large.

Selon Chenyi Yi, professeur associé au laboratoire d’exploitation et de contrôle des réseaux électriques de l’Université Tsinghua et auteur principal de l’article, « augmenter l’efficacité de conversion énergétique des FPSC est crucial pour plusieurs raisons : une efficacité plus élevée rend les FPSC plus compétitives par rapport aux autres technologies de cellules solaires, diminue le coût par watt d’électricité générée et les ressources nécessaires pour produire la même quantité d’énergie électrique, et élargit la gamme d’applications où les FPSC peuvent être utilisées de manière pratique, notamment dans l’aérospatiale et l’électronique flexible où l’espace et le poids sont primordiaux. »

SnSO4 est utilisé comme précurseur de l’étain pour l’oxyde d’étain (SnO2) déposé comme couche de transport d’électrons des FPSC. Une nouvelle méthode de fabrication du CBD permet de mieux contrôler la croissance du SnO2, d’améliorer l’efficacité globale de conversion de l’énergie de la cellule solaire et de rendre plus pratique la technologie des cellules solaires flexibles. Crédit : iEnergy, Tsinghua University Press

Une méthode de dépôt par bain chimique innovante

Plus précisément, l’équipe a développé une nouvelle méthode de dépôt par bain chimique (CBD) permettant de déposer de l’oxyde d’étain (SnO2) sur un substrat flexible sans nécessiter d’acide fort, auquel de nombreux substrats flexibles sont sensibles. Cette nouvelle technique a permis aux chercheurs de mieux contrôler la croissance de l’oxyde d’étain sur le substrat flexible. L’oxyde d’étain sert de couche de transport d’électrons dans la FPSC, ce qui est essentiel pour l’efficacité de conversion énergétique.

« Cette méthode CBD diffère des recherches précédentes en utilisant du sulfate d’étain (SnSO4) plutôt que du chlorure d’étain (SnCl2) comme précurseur d’étain pour déposer le SnO2, rendant la nouvelle méthode compatible avec les substrats flexibles sensibles aux acides », a déclaré Chenyi Yi.

Amélioration de la durabilité des FPSC

Il est important de noter que la nouvelle méthode de fabrication répond également à certaines préoccupations concernant la durabilité des FPSC.

« Le sulfate SO42- résiduel restant après le CBD à base de SnSO4 bénéficie également à la stabilité des PSC en raison de la forte coordination entre le plomb Pb2+ de la pérovskite et le SO42- du SnO2. Par conséquent, nous pouvons fabriquer du SnO2 de meilleure qualité pour obtenir des FPSC plus efficaces et plus stables », a expliqué Chenyi Yi.

L’équipe a atteint un nouveau record d’efficacité de conversion énergétique pour les FPSC, avec 25,09% atteints et 24,90% certifiés. La durabilité des cellules solaires flexibles à base de SnSO4 a également été démontrée, les cellules conservant 90% de leur efficacité de conversion énergétique après avoir été pliées 10 000 fois. Les cellules solaires flexibles à base de SnSO4 ont également montré une stabilité améliorée à haute température par rapport aux cellules solaires flexibles à base de SnCl2.

Vers une production à grande échelle des FPSC

La nouvelle méthode de fabrication développée par l’équipe de recherche a produit des résultats reproductibles et permet aux fabricants de réutiliser le bain chimique, augmentant ainsi la faisabilité d’une production évolutive des FPSC.

« L’objectif ultime est de faire passer ces FPSC à haute efficacité de l’échelle du laboratoire à la production industrielle, permettant une application commerciale généralisée de cette technologie dans divers domaines, des technologies portables à l’électronique portable en passant par les sources d’énergie aérospatiales et les solutions d’énergie renouvelable à grande échelle », a conclu Chenyi Yi.

Article : “25% – Efficiency flexible perovskite solar cells via controllable growth of SnO2” – DOI: 10.23919/IEN.2024.0001

Un laser crée des trous de 67 nm dans du verre

Un laser crée des trous de 67 nm dans du verre

Des chercheurs japonais ont mis au point une nouvelle technique de traitement des matériaux au laser qui permet d’atteindre une précision inégalée. En utilisant un faisceau laser spécialement conçu et une lentille à immersion, ils sont parvenus à créer des trous d’un diamètre de seulement 67 nanomètres dans du verre.

Les chercheurs ont utilisé un faisceau laser à polarisation radiale, également appelé faisceau vectoriel. Ce type de faisceau génère un champ électrique longitudinal au point focal, produisant ainsi un spot plus petit que les faisceaux conventionnels. Bien que cette technique ait été identifiée comme prometteuse pour le traitement au laser, son efficacité était jusqu’à présent limitée par l’affaiblissement du champ électrique à l’intérieur du matériau, dû à la réfraction de la lumière à l’interface air-matériau.

Pour surmonter cet obstacle, les scientifiques ont eu recours à une lentille à immersion, couramment utilisée en microscopie biologique. Comme l’huile d’immersion et le verre ont des indices de réfraction presque identiques, la lumière qui les traverse ne subit pas de déviation.

Une forme annulaire pour amplifier le champ électrique

En étudiant le comportement du faisceau à polarisation radiale lorsqu’il est focalisé avec une forme annulaire, les chercheurs ont constaté que le champ longitudinal est considérablement amplifié. Cette amplification est due à la réflexion totale qui se produit à des angles de convergence élevés sur la surface arrière, entre le verre et l’air.

Yuichi Kozawa, professeur associé à l’Institut de recherche multidisciplinaire pour les matériaux avancés (IMRAM) de l’Université de Tohoku et co-auteur de l’étude, explique : « En utilisant un faisceau à polarisation radiale de forme annulaire, nous avons réussi à créer un spot focal de très petite taille. »

Fabrication d’un cratère d’ablation d’une taille correspondant à ~1/16 de la longueur d’onde par irradiation laser unique de la surface arrière d’un verre avec un faisceau annulaire à polarisation radiale. Crédit : Y. Kozawa et al.

Des trous de 67 nanomètres avec un seul tir laser

Les chercheurs ont appliqué cette méthode pour traiter la surface d’un substrat en verre avec un faisceau laser à impulsions ultra-courtes. Un seul tir de l’impulsion convertie sur la face arrière du substrat a permis de créer un trou d’un diamètre de seulement 67 nanomètres, soit environ 1/16 de la longueur d’onde du faisceau laser.

« Cette percée permet un traitement direct des matériaux avec une précision accrue grâce au champ électrique longitudinal amplifié », ajoute le Professeur Kozawa. « Elle offre une approche simple pour réaliser des échelles de traitement inférieures à 100 nm et ouvre de nouvelles possibilités pour le nano-traitement au laser dans divers secteurs industriels et domaines scientifiques. »

Légende illustration : Illustration conceptuelle du traitement laser en une seule fois par un faisceau annulaire à polarisation radiale, focalisé sur la surface arrière d’une plaque de verre. ©Y. Kozawa et al.

Article : “Nanotraitement laser via un champ électrique longitudinal amélioré d’un faisceau à polarisation radiale.” Auteurs : Yukine Tsuru, Yuichi Kozawa, Yuuki Uesugi, et Shunichi Sato. Journal : Optics Letters. DOI : 10.1364/OL.517382

La course à la commercialisation des métalentilles est lancée

La course à la commercialisation des métalentilles est lancée

Les métalentilles, des nanostructures artificielles capables de manipuler la lumière, offrent une technologie prometteuse pour réduire considérablement la taille et l’épaisseur des composants optiques traditionnels. Particulièrement efficaces dans le proche infrarouge, elles ouvrent la voie à de nombreuses applications telles que le LiDAR, les drones miniatures et les détecteurs de vaisseaux sanguins.

Leur coût de fabrication élevé représente un obstacle majeur à leur commercialisation. Des chercheurs ont récemment développé des méthodes innovantes pour produire en masse ces métalentilles et les fabriquer sur de grandes surfaces, réduisant ainsi leur coût de production.

Une collaboration scientifique fructueuse

Une équipe de recherche collaborative, composée de professeurs et de doctorants de l’Université des sciences et technologies de Pohang (POSTECH) et de l’Université de Corée, a proposé deux méthodes novatrices pour la production en masse de métalentilles et leur fabrication sur de grandes surfaces. Leurs travaux ont été publiés dans la revue internationale Laser & Photonics Reviews.

La photolithographie, un procédé utilisé pour fabriquer les métalentilles en imprimant des motifs sur des wafers de silicium à l’aide de lumière, est une étape clé de leur fabrication. L’équipe a opté pour la photolithographie à ultraviolets profonds, qui utilise des longueurs d’onde plus courtes, permettant ainsi la création de structures plus fines et détaillées.

Des avancées significatives dans la production de métalentilles

L’équipe de recherche a récemment réussi à produire en masse des métalentilles pour la région de la lumière visible en utilisant la photolithographie à ultraviolets profonds. Cependant, cette méthode présentait une faible efficacité dans la région infrarouge. Pour surmonter cette limitation, les chercheurs ont développé un matériau à haut indice de réfraction et à faible perte pour l’infrarouge, qu’ils ont intégré au processus de production en masse.

Cette approche a permis de créer avec succès une métalentille infrarouge de 1 cm de diamètre sur un wafer de 8 pouces. La lentille possède une ouverture numérique remarquable de 0,53, soulignant sa capacité exceptionnelle à collecter la lumière avec une haute résolution proche de la limite de diffraction. Sa structure cylindrique la rend également indépendante de la polarisation, garantissant d’excellentes performances quelle que soit la direction de vibration de la lumière.

La nano-impression, une technique prometteuse

Dans la seconde approche, l’équipe a utilisé la nano-impression, un procédé permettant d’imprimer des nanostructures à l’aide d’un moule. Cette technique a permis de produire en masse une métalentille de 5 mm de diamètre, composée d’environ cent millions de nanostructures rectangulaires sur un wafer de 4 pouces. La métalentille ainsi conçue a démontré des performances impressionnantes, avec une ouverture de 0,53 et des propriétés dépendantes de la polarisation, répondant efficacement à la direction de vibration de la lumière.

Vers la commercialisation des métalentilles

Fort de ces réalisations, l’équipe a intégré un système d’imagerie haute résolution pour observer des échantillons réels, validant ainsi la possibilité de commercialiser les métalentilles. Ces travaux revêtent une importance capitale, car ils permettent de surmonter les limites du processus traditionnel de production unitaire des métalentilles. Ils facilitent non seulement la création de dispositifs optiques aux caractéristiques dépendantes ou indépendantes de la polarisation, adaptés à des applications spécifiques, mais réduisent également le coût de production des métalentilles jusqu’à 1 000 fois.

Le professeur Junsuk Rho, qui a dirigé la recherche, a précisé : «Nous avons réussi à produire de manière précise et rapide des métalentilles hautes performances à l’échelle de la plaquette, atteignant des dimensions centimétriques. Notre objectif est que cette recherche accélère l’industrialisation des métalentilles, favorisant ainsi le développement de dispositifs optiques et de technologies optiques efficaces.»

Article : “Fabrication à l’échelle de la plaquette de métal dans l’infrarouge proche” – DOI: 10.1002/lpor.202300929

Un nouveau métamatériau topologique amplifie les ondes sonores de manière exponentielle

Un nouveau métamatériau topologique amplifie les ondes sonores de manière exponentielle

Les métamatériaux constituent des matériaux synthétiques aux propriétés uniques. Une équipe internationale de chercheurs, menée par l’institut néerlandais AMOLF, vient de réaliser un nouveau type de métamatériau permettant une propagation sans précédent des ondes sonores. Cette découverte, publiée dans la prestigieuse revue Nature, pourrait avoir des applications prometteuses dans les technologies de capteurs et les dispositifs de traitement de l’information.

Les chercheurs ont réussi à créer le premier exemple concret d’une « chaîne de Kitaev bosonique », un modèle théorique jusqu’alors jamais réalisé expérimentalement. Cette chaîne tire ses propriétés particulières de sa nature de matériau topologique. Pour y parvenir, les scientifiques ont fait interagir des résonateurs nanomécaniques avec de la lumière laser via des forces de pression de radiation.

Le modèle de la chaîne de Kitaev, initialement développé pour décrire le comportement des électrons dans un matériau supraconducteur, est célèbre pour prédire l’existence d’excitations particulières aux extrémités d’un nanofil : les modes zéro de Majorana. Ces derniers suscitent un vif intérêt en raison de leur potentielle utilisation dans les ordinateurs quantiques.

Des “ressorts optiques” pour coupler les résonateurs

La chaîne de Kitaev bosonique est essentiellement une chaîne de résonateurs couplés. Les chercheurs ont réalisé les liens nécessaires entre les résonateurs nanomécaniques, de petites cordes vibrantes en silicium sur une puce, en les couplant à l’aide de forces exercées par la lumière, créant ainsi des «ressorts optiques».

Jesse Slim, premier auteur de l’article publié dans Nature, explique : « En faisant varier soigneusement l’intensité d’un laser au fil du temps, nous avons pu relier cinq résonateurs et mettre en œuvre la chaîne de Kitaev bosonique. »

Une amplification exponentielle et directionnelle des vibrations

Les résultats obtenus sont remarquables. Le couplage optique ajoute une amplification aux vibrations nanomécaniques. Ainsi, les ondes sonores, qui sont les vibrations mécaniques se propageant le long de la chaîne, sont amplifiées de manière exponentielle d’une extrémité à l’autre. Fait intéressant, dans la direction opposée, la transmission des vibrations est interdite.

De plus, si l’onde est légèrement retardée, d’un quart de période d’oscillation, le comportement est complètement inversé : le signal est amplifié vers l’arrière et bloqué vers l’avant. La chaîne de Kitaev bosonique agit donc comme un amplificateur directionnel unique, pouvant avoir des applications intéressantes pour la manipulation de signaux, en particulier dans les technologies quantiques.

Un métamatériau topologique aux propriétés uniques

Les chercheurs ont montré que la chaîne de Kitaev bosonique est en fait une nouvelle phase topologique de la matière. L’amplification directionnelle observée est un phénomène topologique associé à cette phase, comme l’avaient prédit les collaborateurs théoriciens en 2018.

Ils ont démontré une signature expérimentale unique de la nature topologique du métamatériau : si la chaîne est fermée, formant un «collier», les ondes sonores amplifiées dans l’anneau de résonateurs continuent de circuler et atteignent une très haute intensité, de manière similaire à la génération de faisceaux lumineux intenses dans les lasers.

Vers une amélioration des performances des capteurs ?

Ewold Verhagen, responsable du groupe AMOLF, souligne que la chaîne est particulièrement sensible à un type spécifique de perturbation. Si la fréquence du dernier résonateur de la chaîne est légèrement perturbée, les signaux amplifiés le long de la chaîne peuvent soudainement se propager à nouveau vers l’arrière, subissant une seconde amplification. Cette sensibilité accrue pourrait être exploitée pour détecter la masse d’une molécule adhérant au résonateur ou un qubit interagissant avec lui.

Grâce à une subvention du Conseil européen de la recherche (ERC), Verhagen souhaite étudier les possibilités d’améliorer la sensibilité des capteurs nanomécaniques dans ces systèmes. Cette découverte ouvre de nouvelles perspectives passionnantes pour le développement de technologies de capteurs innovantes.

Légende illustration : Impression d’artiste de la chaîne bosonique de Kitaev : plusieurs résonateurs mécaniques à cordes sont reliés pour former une chaîne utilisant la lumière. Les vibrations mécaniques (ondes sonores) sont transportées et amplifiées le long de la chaîne. Crédit : Ella Maru Studio

Article : “Optomechanical realization of a bosonic Kitaev chain” – DOI: 10.1038/s41586-024-07174-w

Micro-braille plus petit qu’une tête d’épingle : l’exploit d’un polymère innovant

Micro-braille plus petit qu'une tête d'épingle : l'exploit d'un polymère innovant

Les lasers de haute puissance sont couramment utilisés pour modifier les surfaces polymères afin de fabriquer des produits biomédicaux de haute technologie, des composants électroniques et de stockage de données. Une équipe de chercheurs de l’Université Flinders a découvert un polymère dérivé du soufre, peu coûteux et sensible à la lumière, qui réagit aux lasers à lumière visible de faible puissance.

Les détails de ce nouveau système ont été publiés dans l’une des revues de chimie, Angewandte Chemie International Edition. L’article présente notamment une version gravée au laser de la célèbre peinture de la Joconde et une impression en micro-braille plus petite qu’une tête d’épingle.

Selon le professeur de chimie Matthew Flinders, Justin Chalker, de l’Université Flinders, « cette découverte pourrait permettre de réduire le besoin en équipements spécialisés coûteux, notamment en lasers de haute puissance présentant un risque de rayonnement dangereux, tout en utilisant des matériaux plus durables. Par exemple, le polymère clé est fabriqué à partir de soufre élémentaire à faible coût, un sous-produit industriel, et de cyclopentadiène ou de dicyclopentadiène. »

Les applications potentielles comprennent de nouvelles approches pour le stockage des données sur les polymères, de nouvelles surfaces à motifs pour les applications biomédicales et de nouvelles façons de fabriquer des dispositifs à micro- et nano-échelle pour l’électronique, les capteurs et la microfluidique. Crédit : Flinders University

Une réactivité immédiate à la lumière laser

L’étude a utilisé une série de lasers avec des longueurs d’onde discrètes (532, 638 et 786 nm) et des puissances variables pour démontrer une variété de modifications de surface sur ces polymères spéciaux, notamment un gonflement contrôlé ou une gravure par ablation.

Dès que la lumière laser touche la surface, le polymère gonfle ou grave instantanément un creux pour façonner des lignes, des trous, des pointes et des canaux. Cette découverte a été faite par le chercheur de l’Université Flinders et co-auteur de l’étude, le Dr Christopher Gibson, lors de ce qui devait être une analyse de routine d’un polymère inventé pour la première fois au Chalker Lab en 2022.

Christopher Gibson, chercheur principal à l’université Flinders, a découvert qu’un nouveau polymère inventé dans le laboratoire Chalker en 2022 pouvait être immédiatement modifié par une lumière laser visible de faible puissance. Crédit : Flinders University

De multiples applications potentielles

Abigail Mann, doctorante au Collège des sciences et de l’ingénierie de Flinders et premier auteur de l’article, a dirigé la phase suivante du projet. « Le résultat de ces efforts est une nouvelle technologie permettant de générer des motifs précis sur la surface du polymère », explique-t-elle.

Les applications potentielles comprennent de nouvelles approches pour stocker des données sur des polymères, de nouvelles surfaces structurées pour des applications biomédicales, et de nouvelles façons de fabriquer des dispositifs à l’échelle micro et nanométrique pour l’électronique, les capteurs et la microfluidique.

Le Dr Lynn Lisboa, associée de recherche, ajoute : « L’impact de cette découverte s’étend bien au-delà du laboratoire, avec des utilisations potentielles dans les dispositifs biomédicaux, l’électronique, le stockage d’informations, la microfluidique et de nombreuses autres applications de matériaux fonctionnels. »

En synthèse

Cette découverte d’un polymère dérivé du soufre sensible à la lumière laser de faible puissance ouvre de nouvelles perspectives pour la production durable de dispositifs de haute technologie. Grâce à sa réactivité immédiate et contrôlable, ce matériau innovant pourrait trouver de multiples applications dans des domaines variés comme la biomédecine, l’électronique ou le stockage de données. Les chercheurs de l’Université Flinders espèrent inspirer un large éventail d’applications concrètes dans leur laboratoire et au-delà.

Pour une meilleure compréhension

Qu’est-ce qu’un polymère dérivé du soufre ?

Un polymère dérivé du soufre est un matériau composé de longues chaînes moléculaires contenant principalement des atomes de soufre. Dans cette étude, le polymère clé est fabriqué à partir de soufre élémentaire, un sous-produit industriel, et de cyclopentadiène ou de dicyclopentadiène.

Quels sont les avantages de ce nouveau polymère sensible à la lumière ?

Ce polymère réagit aux lasers à lumière visible de faible puissance, ce qui permet une production plus abordable et plus sûre par rapport aux lasers de haute puissance couramment utilisés. De plus, il est fabriqué à partir de matériaux durables et peu coûteux.

Comment le laser modifie-t-il la surface du polymère ?

Dès que la lumière laser touche la surface, le polymère gonfle ou grave instantanément un creux pour façonner des lignes, des trous, des pointes et des canaux. L’étude a démontré qu’il est possible de contrôler le type et la taille de ces modifications en ajustant les paramètres du laser.

Quelles sont les applications potentielles de cette découverte ?

Les applications potentielles comprennent de nouvelles approches pour stocker des données sur des polymères, de nouvelles surfaces structurées pour des applications biomédicales, et de nouvelles façons de fabriquer des dispositifs à l’échelle micro et nanométrique pour l’électronique, les capteurs et la microfluidique.

Quel est l’impact de cette découverte au-delà du laboratoire ?

Cette découverte pourrait avoir un impact significatif dans de nombreux domaines, tels que les dispositifs biomédicaux, l’électronique, le stockage d’informations, la microfluidique et de nombreuses autres applications de matériaux fonctionnels. Les chercheurs espèrent inspirer un large éventail d’applications concrètes grâce à ce nouveau matériau innovant.

Références

Légende illustration : Le premier auteur, Mme Abigail Mann, candidate au doctorat, à côté du laser de faible puissance, à gauche, Jason Gascooke, spectroscopiste à l’ANFF, et Lynn Lisboa, avec l’image du laser “micro-Lisa” affichée sur un écran d’ordinateur normal. Crédit : Flinders University

Article : “Modification of Polysulfide Surfaces with Low-Power Lasers” – DOI: 10.1002/anie.202404802

Une approche en tandem pour de meilleures cellules solaires

Une approche en tandem pour de meilleures cellules solaires

Les cellules solaires à base de pérovskite représentent une percée dans le domaine de l’énergie solaire. Leur potentiel pour améliorer l’efficacité et la rentabilité des panneaux solaires suscite un vif intérêt dans la communauté scientifique. Pour que cette technologie passe du laboratoire à la production commerciale, plusieurs défis doivent encore être relevés.

Les pérovskites, plus précisément les halogénures de plomb méthylammonium, ont été découvertes en 2009 pour leurs excellentes propriétés d’absorption de la lumière. Bien que l’efficacité des premières cellules solaires à base de pérovskite était modeste, cela a marqué le début d’une nouvelle voie dans la recherche photovoltaïque.

L’enthousiasme suscité par les pérovskites s’explique par le fait qu’elles peuvent être créées à basse température et facilement déposées sur la plupart des surfaces, y compris les surfaces flexibles, les rendant plus légères, plus adaptables et potentiellement moins chères que les panneaux solaires en silicium.

La technologie tandem : combiner pérovskite et silicium

Aujourd’hui, il est clair que les futures cellules solaires incluront probablement ces pérovskites en combinaison avec le silicium traditionnel.

Erkan Aydin, Stefaan De Wolf et une équipe de KAUST ont examiné comment cette technologie tandem peut sortir du laboratoire et être produite à grande échelle pour une fabrication commerciale.

Selon Erkan Aydin, « Les cellules solaires à base de pérovskite et de silicium se sont toutes deux révélées très efficaces ; cependant, leur utilisation conjointe en tandem dans une seule cellule permet une meilleure utilisation de la lumière du soleil en minimisant les pertes qui ne sont pas converties en charge électrique. »

Les défis de la fabrication à grande échelle

Erkan Aydin et ses co-auteurs ont recensé les développements dans la fabrication de cellules solaires tandem qui permettent d’augmenter la taille et l’efficacité de conversion de l’énergie. Mais ils soulignent que d’autres approches sont nécessaires pour les rendre commercialement viables.

Un défi, par exemple, est que la topographie de la surface du silicium affecte le dépôt de la pérovskite. Les dispositifs de laboratoire les plus performants à ce jour ont utilisé l’enduction centrifuge d’une encre de précurseur de pérovskite combinée à un traitement antisolvant. Cette approche ne convient pas encore au traitement commercial car elle est difficile à mettre à l’échelle et gaspille beaucoup de matériau.

La fiabilité et la durabilité des cellules tandem

Une autre considération est que l’humidité, la chaleur et leur combinaison avec la lumière accélèrent la dégradation des sous-cellules de pérovskite. Les auteurs détaillent divers tests de vieillissement accéléré et d’environnement réel sur les cellules solaires tandem pérovskite/silicium et soulignent la nécessité d’efforts ciblés dans cette direction.

Selon Erkan Aydin, « Je pense que le plus grand défi est d’augmenter la fiabilité des sous-cellules de pérovskite. Les activités de recherche que nous avons menées jusqu’à présent ont indiqué que nous n’avons pas encore atteint de limite fondamentale, nous avons donc besoin d’efforts plus concentrés pour réaliser des dispositifs stables à long terme. »

En synthèse

Les modules tandem de preuve de concept ont déjà été introduits. Cependant, compte tenu des défis pratiques importants, il n’est pas encore clair quand les tandems pérovskite/silicium atteindront le niveau du marché. Néanmoins, le succès dans le développement de cellules solaires commerciales efficaces est vital pour répondre à la demande croissante d’énergie tout en réduisant l’impact environnemental.

Pour une meilleure compréhension

Qu’est-ce que les pérovskites et pourquoi suscitent-elles tant d’intérêt ?

Les pérovskites, en particulier les halogénures de plomb méthylammonium, sont des matériaux qui possèdent d’excellentes propriétés d’absorption de la lumière. Elles peuvent être créées à basse température et facilement déposées sur diverses surfaces, les rendant prometteuses pour la fabrication de cellules solaires plus légères, adaptables et abordables que les panneaux en silicium.

Qu’est-ce que la technologie tandem et quels sont ses avantages ?

La technologie tandem consiste à combiner des cellules solaires à base de pérovskite avec des cellules en silicium traditionnel. Cette approche permet une meilleure utilisation de la lumière du soleil en minimisant les pertes d’énergie, augmentant ainsi l’efficacité globale de la cellule solaire.

Quels sont les défis de la fabrication des cellules tandem pérovskite/silicium ?

Les principaux défis incluent l’optimisation du dépôt de la pérovskite sur la surface du silicium, le développement de méthodes de fabrication adaptées à la production commerciale, ainsi que l’amélioration de la fiabilité et de la durabilité des sous-cellules de pérovskite face à l’humidité, la chaleur et la lumière.

Où en est la recherche actuelle sur les cellules tandem pérovskite/silicium ?

Des modules tandem de preuve de concept ont déjà été introduits, démontrant le potentiel de cette technologie. Cependant, des efforts de recherche supplémentaires sont nécessaires pour surmonter les défis pratiques et atteindre un niveau de performance et de fiabilité suffisant pour une commercialisation à grande échelle.

Quelle est l’importance du développement de cellules solaires tandem efficaces ?

Le succès dans le développement de cellules solaires commerciales efficaces est crucial pour répondre à la demande croissante d’énergie mondiale tout en réduisant l’impact environnemental. Les cellules tandem pérovskite/silicium pourraient jouer un rôle clé dans la transition vers une énergie propre et durable.

Références

Légende illustration : Un examen du potentiel de la combinaison des cellules solaires au silicium avec des matériaux pérovskites met en évidence la façon de développer cette technologie. 2024 KAUST ; Heno Hwang.

Article : “Pathways toward commercial perovskite/silicon tandem photovoltaics” – DOI: 10.1126/science.adh3849 . Auteurs : Aydin, E., Allen, T.B., De Bastiani, M., Razzaq, A., Xu, L., Ugur, E., Liu, J. & De Wolf, S. Pathways toward commercial perovskite/silicon tandem photovoltaics.

Laser à fibre femtoseconde visible : 1 W de puissance moyenne atteint

Laser à fibre femtoseconde visible : 1 W de puissance moyenne atteint

Les lasers à impulsions ultracourtes ont connu des progrès remarquables ces dernières années dans de nombreuses applications et domaines aussi variés que l’industrie, l’énergie et les sciences de la vie. Parmi les différentes plateformes laser développées, les oscillateurs à fibre femtoseconde se distinguent par leur design compact, leurs performances exceptionnelles et leur rentabilité.

Leurs longueurs d’onde de fonctionnement sont toutefois principalement limitées à la région infrarouge restreignant leur applicabilité dans de nombreux domaines nécessitant des sources de lumière dans le visible. L’extension des oscillateurs à fibre femtoseconde compacts à de nouvelles longueurs d’onde visibles est depuis longtemps un défi et un objectif ardemment poursuivi dans la science des lasers.

Les lasers à fibre visibles actuels

Actuellement, la majorité des lasers à fibre visibles utilisent des fibres fluorées dopées aux terres rares, comme le Pr3+, comme milieu de gain efficace. Au fil des années, des progrès remarquables ont été réalisés dans le développement de lasers à fibre visibles accordables en longueur d’onde, de haute puissance, à commutation Q et à verrouillage de modes.

Aussi, malgré les progrès significatifs dans la région proche infrarouge, le verrouillage de modes femtoseconde dans les lasers à fibre visibles reste une tâche exceptionnellement difficile. Ce défi est attribué au sous-développement des composants optiques ultrarapides aux longueurs d’onde visibles, à la disponibilité limitée de modulateurs visibles hautes performances et à la dispersion extrêmement normale rencontrée dans les cavités laser à fibre visibles.

L’attention s’est récemment portée sur les oscillateurs à fibre à verrouillage de modes femtoseconde dans le proche infrarouge utilisant un miroir à boucle amplificatrice non linéaire à polarisation (PB-NALM). Le PB-NALM élimine le besoin de longues fibres intracavitaires pour accumuler les déphasages. Cette innovation facilite non seulement la flexibilité d’accord et le fonctionnement à longue durée de vie, mais offre également la possibilité de gérer la dispersion intracavitaire dans un espace de paramètres plus large, des régimes de dispersion normale à anormale.

Par conséquent, on s’attend à ce qu’elle catalyse une percée dans le verrouillage de modes femtoseconde direct des lasers à fibre visibles et propulse les oscillateurs à fibre femtoseconde dans la bande visible.

Une nouvelle avancée dans les lasers à fibre femtoseconde visibles

Des chercheurs du Laboratoire du Fujian sur la technologie et les applications des lasers ultrarapides de l’Université de Xiamen ont récemment développé un oscillateur et un amplificateur à fibre à verrouillage de modes femtoseconde à lumière visible, comme rapporté dans Advanced Photonics Nexus.

L’oscillateur à fibre femtoseconde, qui émet une lumière rouge à 635 nm, utilise une configuration de cavité en forme de neuf. Il applique une fibre fluorée dopée au Pr3+ à double gaine comme milieu de gain visible, intègre un PB-NALM à longueur d’onde visible pour le verrouillage de modes et utilise une paire de réseaux de diffraction personnalisés à haute efficacité et haute densité de traits pour la gestion de la dispersion.

Un verrouillage de modes auto-démarrant visible établi par le PB-NALM produit directement des impulsions laser rouges avec une durée d’impulsion de 199 fs et un taux de répétition de 53,957 MHz à partir de l’oscillateur. Un contrôle précis de l’espacement de la paire de réseaux peut faire passer l’état d’impulsion d’un soliton dissipatif ou étiré à un soliton conventionnel.

De plus, un système d’amplification d’impulsions à dérive de fréquence construit à côté de l’oscillateur augmente considérablement les performances du laser, résultant en une puissance de sortie moyenne supérieure à 1 W, une énergie d’impulsion de 19,55 nJ et une durée d’impulsion déchirpée de 230 fs.

Le professeur Zhengqian Luo, chef du département d’ingénierie électronique de l’Université de Xiamen, précise : « Notre résultat représente une étape concrète vers des lasers à fibre femtoseconde de haute puissance couvrant la région spectrale visible et pourrait avoir des applications importantes dans le traitement industriel, la biomédecine et la recherche scientifique. »

Perspectives d’avenir

Les auteurs prévoient que leur nouveau schéma de génération de laser à fibre femtoseconde à lumière visible haute performance jettera les bases des lasers à fibre femtoseconde à lumière visible pour servir dans des applications telles que le traitement de précision des matériaux spéciaux, la biomédecine, la détection sous-marine et les horloges atomiques optiques.

Article by J. Zou, Q. Ruan, et al., “635 nm femtosecond fiber laser oscillator and amplifier,” Adv. Photon. Nexus 3(2) 026004 (2024), doi 10.1117/1.APN.3.2.026004

Un catalyseur 44 fois plus efficace pour transformer le CO2 en méthanol

Un catalyseur 44 fois plus efficace pour transformer le CO2 en méthanol

Les chercheurs ont franchi une étape importante dans la lutte contre le changement climatique en transformant le CO2 en méthanol grâce à une nouvelle technique de photocatalyse. Cette découverte pourrait offrir une alternative durable aux méthodes traditionnelles de production de méthanol à partir de combustibles fossiles.

Des chercheurs de l’Université de Nottingham, de l’Université de Birmingham, de l’Université du Queensland et de l’Université d’Ulm ont conçu un matériau composé d’atomes de cuivre déposés sur du nitrure de carbone nanocristallin. Cette structure permet aux électrons de se déplacer du nitrure de carbone vers le CO2, une étape essentielle dans la production de méthanol à partir de CO2 sous l’influence du rayonnement solaire.

Le Dr Madasamy Thangamuthu, chercheur à l’École de chimie de l’Université de Nottingham et co-responsable de l’équipe de recherche, explique : « Nous avons développé une nouvelle forme de nitrure de carbone avec des domaines nanocristallins qui permettent une interaction efficace avec la lumière ainsi qu’une séparation de charge suffisante. »

Un process de fabrication pour optimiser les propriétés du matériau

Les chercheurs ont mis au point un processus de chauffage du nitrure de carbone pour atteindre le degré de cristallinité requis, maximisant ainsi les propriétés fonctionnelles de ce matériau pour la photocatalyse. Ils ont ensuite déposé du cuivre atomique par pulvérisation cathodique magnétron, permettant un contact intime entre le semi-conducteur et les atomes métalliques.

Tara LeMercier, doctorante qui a réalisé les travaux expérimentaux à l’École de chimie de l’Université de Nottingham, souligne : « Même sans cuivre, la nouvelle forme de nitrure de carbone est 44 fois plus active que le nitrure de carbone traditionnel. Cependant, à notre grande surprise, l’ajout de seulement 1 mg de cuivre par gramme de nitrure de carbone a quadruplé cette efficacité. »

Un catalyseur durable composé d’éléments abondants sur Terre

Le professeur Andrei Khlobystov de l’École de chimie de l’Université de Nottingham souligne un avantage majeur de ce nouveau catalyseur : « Il est composé d’éléments durables – carbone, azote et cuivre – tous très abondants sur notre planète. »

Cette invention représente une étape significative vers une compréhension approfondie des matériaux photocatalytiques dans la conversion du CO2. Elle ouvre la voie à la création de catalyseurs hautement sélectifs et ajustables où le produit souhaité pourrait être obtenu en contrôlant le catalyseur à l’échelle nanométrique.

Financement pour développer des matériaux catalytiques durables

Ce travail est financé par la subvention du programme EPSRC «Metal atoms on surfaces and interfaces (MASI) for sustainable future» (www.masi.ac.uk) qui vise à développer des matériaux catalytiques pour la conversion de trois molécules clés – le dioxyde de carbone, l’hydrogène et l’ammoniac – d’une importance cruciale pour l’économie et l’environnement.

L’Université de Nottingham est dédiée à la promotion des technologies vertes et durables. Le Zero Carbon Cluster a été créé dans les East Midlands pour accélérer le développement et le déploiement de l’innovation dans les industries vertes et la fabrication avancée.

Légende illustration : Le processus de conversion du CO2 en méthanol (carburant) par la lumière. Crédit : University of Nottingham

Article : “La synergie entre le nitrure de carbone nanocristallin et le catalyseur à atome unique de Cu conduit à une réduction photocatalytique sélective du CO2 en méthanol” – DOI: 10.1039/D4SE00028E

Des chercheurs exploitent le soleil pour produire une alternative énergétique propre

Des chercheurs exploitent le soleil pour produire une alternative énergétique propre

Les chercheurs de l’Université de Caroline du Nord à Chapel Hill ont développé une approche innovante pour exploiter l’énergie solaire afin de produire de l’hydrogène, une source d’énergie propre potentielle, à partir de l’eau. Cette découverte ouvre de nouvelles perspectives dans le domaine des technologies énergétiques durables et efficaces.

L’étude, intitulée « Catalyst Self-Assembly Accelerates Bimetallic Light-driven Electrocatalytic H2 Evolution in Water », ou en français « L’auto-assemblage des catalyseurs accélère l’évolution électrocatalytique bimétallique de H2 dans l’eau sous l’effet de la lumière » a été publiée dans la revue scientifique Nature Chemistry. Elle explore un système utilisant la lumière et l’électricité pour scinder l’eau en ses éléments constitutifs : l’hydrogène et l’oxygène.

L’équipe de recherche, dirigée par le chimiste Alexander Miller, a découvert que l’on peut inciter les catalyseurs à s’auto-assembler en globules, ce qui améliore leur capacité à absorber la lumière et à créer les liaisons chimiques nécessaires à la production d’hydrogène. Cette découverte représente une contribution majeure dans le domaine de la catalyse et ouvre la voie au développement de technologies énergétiques efficaces et durables.

Un processus clé dans les technologies des énergies renouvelables

La dissociation de l’eau est un processus clé dans les technologies des énergies renouvelables, en particulier pour la production d’hydrogène en tant que carburant propre et durable. L’hydrogène obtenu à partir de l’eau peut être utilisé dans les piles à combustible, les moteurs à combustion et d’autres applications, avec pour seul sous-produit de la vapeur d’eau.

Selon Alexander Miller, « La dissociation de l’eau a le potentiel de stocker l’énergie solaire sous forme de liaisons chimiques, ce qui permet de pallier la nature intermittente de la production d’énergie solaire ». La recherche de méthodes efficaces et rentables pour la dissociation de l’eau demeure un domaine d’intérêt majeur dans le secteur des énergies renouvelables et du développement durable.

Des techniques d’analyse innovantes

Les chercheurs ont également utilisé une technique spéciale appelée diffusion dynamique de la lumière, également connue sous le nom de spectroscopie de corrélation de photons, pour mesurer la taille des catalyseurs en analysant les fluctuations de l’intensité de la lumière diffusée. La technique employée non invasive a fourni des informations précieuses sur la taille, la forme et la distribution des catalyseurs.

De plus, ils ont eu recours à un outil analytique appelé spectroscopie par résonance magnétique nucléaire, qui a confirmé qu’au sein de ces particules, les catalyseurs étaient proches les uns des autres. Les micelles plus grandes produisaient de l’hydrogène plus rapidement.

En synthèse

Cette étude menée représente une avancée dans le domaine de la production d’hydrogène à partir de l’eau, en utilisant l’énergie solaire. Grâce à une approche innovante basée sur l’auto-assemblage de catalyseurs en globules, ils ont réussi à améliorer l’efficacité du processus de dissociation de l’eau.

Pour une meilleure compréhension

Qu’est-ce que la dissociation de l’eau ?

La dissociation de l’eau est un processus chimique qui consiste à séparer les molécules d’eau (H2O) en leurs éléments constitutifs : l’hydrogène (H2) et l’oxygène (O2). Ce processus nécessite un apport d’énergie, qui peut provenir de différentes sources, comme l’électricité ou la lumière.

Pourquoi l’hydrogène est-il considéré comme une source d’énergie propre ?

L’hydrogène est considéré comme une source d’énergie propre car sa combustion ne produit que de l’eau comme sous-produit, contrairement aux combustibles fossiles qui émettent du dioxyde de carbone (CO2) et d’autres polluants.

De plus, l’hydrogène peut être produit à partir de sources renouvelables, comme l’eau et l’énergie solaire, ce qui en fait une option durable pour la transition énergétique.

Qu’est-ce qu’un catalyseur ?

Un catalyseur est une substance qui accélère une réaction chimique sans être consommée dans le processus. Les catalyseurs abaissent l’énergie d’activation nécessaire pour que la réaction se produise, ce qui permet d’augmenter la vitesse de réaction et l’efficacité du processus.

Quelles sont les applications potentielles de l’hydrogène produit à partir de l’eau ?

L’hydrogène produit à partir de l’eau peut être utilisé dans diverses applications, notamment dans les piles à combustible pour produire de l’électricité, dans les moteurs à combustion comme carburant alternatif, et pour le stockage d’énergie à long terme. L’hydrogène peut également être utilisé dans l’industrie chimique pour la production d’engrais, de plastiques et d’autres produits.

Quels sont les défis à relever pour une utilisation généralisée de l’hydrogène ?

Malgré ses avantages, l’utilisation généralisée de l’hydrogène comme source d’énergie fait face à plusieurs défis, notamment le coût élevé des technologies de production et de stockage, l’absence d’infrastructures de distribution à grande échelle, et les préoccupations en matière de sécurité liées à la manipulation et au stockage de l’hydrogène. Des efforts de recherche et de développement sont en cours pour surmonter ces obstacles et permettre une adoption plus large de l’hydrogène comme source d’énergie propre et durable.

Références


Article : “Catalyst Self-Assembly Accelerates Bimetallic Light-driven Electrocatalytic H2 Evolution in Water.” Nature Chemistry. s41557-024-01483-3

L’oxygène du corps, nouvelle source d’énergie pour les implants médicaux

L'oxygène du corps, nouvelle source d'énergie pour les implants médicaux

Les dispositifs médicaux implantables, tels que les stimulateurs cardiaques et les neurostimulateurs, sont essentiels pour maintenir la santé et le bien-être de nombreux patients. Leur dépendance aux batteries conventionnelles pose toutefois des défis en termes de durée de vie limitée et de nécessité d’interventions chirurgicales invasives pour leur remplacement.

Des chercheurs chinois ont développé une nouvelle approche pour résoudre ces problèmes en créant une batterie implantable qui utilise l’oxygène présent dans le corps comme source d’énergie.

Une batterie “révolutionnaire” alimentée par l’oxygène du corps

Dans une étude publiée dans la revue scientifique Chem, les chercheurs de l’Université de Technologie de Tianjin ont présenté une batterie implantable innovante qui tire son énergie de l’oxygène présent dans l’organisme. Selon Xizheng Liu, auteur principal de l’étude et spécialiste des matériaux et dispositifs énergétiques, cette approche permet de s’affranchir des limites de durée de vie imposées par les matériaux finis des batteries conventionnelles.

Pour concevoir une batterie sûre et efficace, les chercheurs ont utilisé des électrodes composées d’un alliage à base de sodium et d’or nanoporeux, un matériau dont les pores sont des milliers de fois plus petits que l’épaisseur d’un cheveu. L’or est connu pour sa compatibilité avec les systèmes vivants, tandis que le sodium est un élément essentiel et omniprésent dans le corps humain. Les électrodes subissent des réactions chimiques avec l’oxygène présent dans l’organisme pour produire de l’électricité.

La batterie est protégée par un film polymère poreux, souple et flexible.

Des résultats prometteurs chez les rats

Les chercheurs ont implanté la batterie sous la peau du dos de rats et ont mesuré sa production d’électricité. Deux semaines après l’implantation, ils ont constaté que la batterie pouvait produire des tensions stables comprises entre 1,3 V et 1,4 V, avec une densité de puissance maximale de 2,6 µW/cm2. Bien que cette puissance soit insuffisante pour alimenter des dispositifs médicaux, la conception démontre qu’il est possible d’exploiter l’oxygène présent dans le corps pour produire de l’énergie.

L’équipe a également évalué les réactions inflammatoires, les changements métaboliques et la régénération tissulaire autour de la batterie. Les rats n’ont montré aucune inflammation apparente.

Les sous-produits des réactions chimiques de la batterie, notamment les ions sodium, les ions hydroxyde et de faibles niveaux de peroxyde d’hydrogène, ont été facilement métabolisés par l’organisme et n’ont pas affecté les reins et le foie. Les rats ont bien guéri après l’implantation, les poils de leur dos ayant complètement repoussé au bout de quatre semaines. À la surprise des chercheurs, des vaisseaux sanguins se sont également régénérés autour de la batterie.

Perspectives d’avenir et applications potentielles

L’équipe prévoit d’améliorer la production d’énergie de la batterie en explorant des matériaux plus efficaces pour les électrodes et en optimisant la structure et la conception de la batterie. Xizheng Liu a également souligné que la batterie est facile à produire à grande échelle et que le choix de matériaux rentables peut encore réduire son prix. La batterie développée par l’équipe pourrait également trouver d’autres applications au-delà de l’alimentation des dispositifs médicaux.

Étant donné que les cellules tumorales sont sensibles aux niveaux d’oxygène, l’implantation de cette batterie consommant de l’oxygène autour d’une tumeur pourrait contribuer à affamer les cellules cancéreuses. Il est également possible de convertir l’énergie de la batterie en chaleur pour détruire les cellules cancéreuses.

Selon Xizheng Liu, les perspectives de cette batterie sont passionnantes, allant d’une nouvelle source d’énergie à de potentielles biothérapies.

Légende illustration : Batterie Na-O2 implantable et biocompatible. Crédit : Chem/Lv et al.

Article : “Implantable and Bio-compatible Na-O2 battery” – DOI: 10.1016/j.chempr.2024.02.012

Le mystère des fullerènes dans l’espace expliqué

Le mystère des fullerènes dans l'espace expliqué

Les fullerènes, ces molécules de carbone complexes et résistantes, ont longtemps intrigué les scientifiques. Découverts en laboratoire en 1985, leur existence dans l’espace a depuis été confirmée à maintes reprises, notamment au sein des nébuleuses planétaires. Une récente étude menée par l’Institut d’astrophysique des Canaries (IAC) apporte un nouvel éclairage sur l’origine de ces mystérieuses molécules et leur rôle potentiel dans l’émergence de la vie sur Terre.

Les fullerènes sont des molécules de carbone de grande taille, complexes et extrêmement résistantes. Leurs atomes s’organisent en structures sphériques tridimensionnelles, alternant hexagones et pentagones, rappelant la forme d’un ballon de football (fullerènes C60) ou de rugby (fullerènes C70).

Découvertes en laboratoire en 1985, ces molécules ont valu à leurs trois découvreurs le prix Nobel de chimie onze ans plus tard. Depuis, de nombreuses preuves observationnelles de leur existence dans l’espace ont été rapportées, notamment au sein des nuages de gaz entourant les étoiles âgées et mourantes de la taille du Soleil, appelées nébuleuses planétaires, expulsés des couches externes de ces astres en fin de vie.

La stabilité et la résistance exceptionnelles des fullerènes laissent penser qu’ils pourraient agir comme des cages pour d’autres molécules et atomes, et ainsi avoir apporté des molécules complexes sur Terre, donnant une impulsion au démarrage de la vie. Leur étude est donc cruciale pour comprendre les processus physiques fondamentaux à l’œuvre dans l’organisation de la matière organique dans l’univers.

Une empreinte chimique mystérieuse

La spectroscopie est essentielle pour rechercher et identifier les fullerènes dans l’espace. Elle permet d’étudier la matière composant l’univers en analysant les empreintes chimiques laissées par les atomes et molécules sur la lumière qui nous parvient.

Une étude récente, entièrement menée par l’IAC, a analysé des données de spectroscopie infrarouge obtenues précédemment par des télescopes spatiaux, à partir de la nébuleuse planétaire Tc1. Ces spectres révèlent des raies spectrales indiquant la présence de fullerènes, mais aussi des bandes infrarouges plus larges (UIR pour Unidentified Infrared Bands en anglais), détectées à grande échelle dans l’univers, des petits corps du système solaire aux galaxies lointaines.

« L’identification des espèces chimiques à l’origine de cette émission infrarouge, largement présente dans l’univers, était un mystère astrochimique, bien qu’on ait toujours pensé qu’elle était probablement riche en carbone, l’un des éléments de base de la vie », explique Marco A. Gómez Muñoz, chercheur à l’IAC et principal auteur de l’étude.

Une nouvelle origine pour les fullerènes

Pour identifier ces mystérieuses bandes, l’équipe de recherche a reproduit l’émission infrarouge de la nébuleuse planétaire Tc 1. L’analyse des bandes d’émission a révélé la présence de grains de carbone amorphe hydrogéné (HAC). Ces composés de carbone et d’hydrogène dans un état hautement désordonné, très abondants dans les enveloppes des étoiles mourantes, peuvent rendre compte de l’émission infrarouge de cette nébuleuse.

« Nous avons combiné pour la première fois les constantes optiques du HAC, obtenues à partir d’expériences en laboratoire, avec des modèles de photoionisation, et en faisant cela, nous avons reproduit l’émission infrarouge de la nébuleuse planétaire Tc 1, très riche en fullerènes », explique Domingo Anibal García Hernández, chercheur à l’IAC et coauteur de l’article.

Pour l’équipe de recherche, la présence dans un même objet de HAC et de fullerènes étaye la théorie selon laquelle les fullerènes pourraient s’être formés lors du processus de destruction des grains de poussière, par exemple par interaction avec le rayonnement ultraviolet, bien plus énergétique que la lumière visible.

Avec ce résultat, les scientifiques ouvrent la voie à de futures recherches basées sur la collaboration entre chimie de laboratoire et astrophysique. « Notre travail montre clairement le grand potentiel de la science et de la technologie interdisciplinaires pour réaliser des avancées fondamentales en astrophysique et en astrochimie », conclut Gómez Muñoz.

Légende illustration : Centre de la nébuleuse planétaire M57, prise par l’astrophotographe Dr. Robert Gendler, et John Bozeman. Crédit : NASA/ESA

Article : “Grains de carbone amorphe hydrogénés comme support alternatif de la caractéristique de plateau 9-13 μm dans la nébuleuse planétaire fullerène Tc 1.” – DOI: 10.1051/0004-6361/202349087

Le pari audacieux des chercheurs pour décarboner le minage de cryptos

Le pari audacieux des chercheurs pour décarboner le minage de cryptos

La consommation d’énergie liée au minage de cryptomonnaies, connue pour son utilisation disproportionnée de combustibles à base de carbone, pourrait servir de fondement à un déploiement plus large des énergies renouvelables selon une nouvelle étude de l’Université Cornell. Les chercheurs proposent une solution innovante pour transformer ce qui était autrefois un défi environnemental en une force dynamique pour l’atténuation du changement climatique et la durabilité.

Selon un rapport de 2022 du Bureau de la science et de la technologie de la Maison Blanche, le minage de cryptomonnaies basé sur la blockchain aux États-Unis peut consommer autant d’énergie à base de carbone que l’ensemble du pays d’Argentine. Près de toute l’électricité nationale utilisée pour le minage de cryptomonnaies est générée par des mécanismes de consensus gourmands en énergie informatique, connus sous le nom de «preuve de travail», utilisés pour vérifier les actifs cryptographiques.

Les estimations préliminaires de l’Administration américaine d’information sur l’énergie suggèrent que la consommation annuelle d’électricité pour le minage de cryptomonnaies en 2023 représente probablement entre 0,6 % et 2,3 % de la consommation totale d’électricité aux États-Unis.

Le duo dynamique de l’hydrogène vert et des cryptomonnaies

Fengqi You, professeur d’ingénierie des systèmes énergétiques à Cornell, et Apoorv Lal, doctorant, sont les auteurs de l’étude «Climate Sustainability Through a Dynamic Duo: Green Hydrogen and Crypto Driving Energy Transition and Decarbonization», publiée dans les Proceedings of the National Academy of Sciences.

Leur recherche montre comment le fait de lier l’utilisation du minage de cryptomonnaies énergivore à la technologie de l’hydrogène vert peut stimuler les secteurs des énergies renouvelables.

« Construire une infrastructure d’hydrogène vert pour aider à produire des cryptomonnaies peut accélérer les énergies renouvelables et créer un paysage énergétique plus durable », a indiqué Apoorv Lal.

L’utilisation de sources d’énergie propre pour alimenter les opérations de minage de la blockchain et la production d’hydrogène vert conduiraient à une augmentation de la capacité éolienne et solaire, et à une expansion de la production d’énergie durable dans tout le pays, selon les chercheurs.

Évaluation du potentiel énergétique par État

Les scientifiques ont examiné les États américains individuels pour évaluer les forces énergétiques potentielles de chaque région. Le soutien aux cryptomonnaies peut accélérer la construction d’infrastructures énergétiques supplémentaires et potentiellement créer 78,4 mégawattheures d’énergie solaire pour chaque Bitcoin miné au Nouveau-Mexique, par exemple, et potentiellement 265,8 mégawattheures d’énergie éolienne pour chaque Bitcoin miné au Wyoming, selon l’article.

« Bien que les cryptomonnaies aient actuellement une valeur élevée en dollars (le Bitcoin s’échangeait à plus de 73 000 dollars le 13 mars), vous ne pouvez pas les tenir dans votre main », a précisé Fengqi You. « C’est virtuel. Pensez aux cryptomonnaies et à l’énergie de la même manière – un peu comme le concept de carte-cadeau. Les cryptomonnaies peuvent également avoir une valeur énergétique, ce qui devient une fonction supplémentaire. »

Nécessité de politiques fédérales plus fortes

Pour faire progresser un avenir durable pour les cryptomonnaies basées sur la blockchain, les chercheurs affirment que des politiques fédérales plus fortes en matière d’objectifs climatiques et d’énergies renouvelables doivent être mises en place.

« Associée à l’hydrogène vert, cette approche des cryptomonnaies non seulement atténue son propre impact environnemental, mais ouvre également la voie à une transition durable vers les énergies renouvelables », a conclu Fengqi You. « C’est une stratégie novatrice. »

En synthèse

L’étude menée par l’Université Cornell propose une solution innovante pour transformer l’impact environnemental du minage de cryptomonnaies en une force dynamique pour l’atténuation du changement climatique et la durabilité. En associant l’utilisation du minage de cryptomonnaies énergivore à la technologie de l’hydrogène vert, les chercheurs montrent comment stimuler les secteurs des énergies renouvelables et créer un paysage énergétique plus durable.

Pour une meilleure compréhension

Quel est l’impact actuel du minage de cryptomonnaies aux États-Unis ?

Selon un rapport de 2022 de la Maison Blanche, le minage de cryptomonnaies basé sur la blockchain aux États-Unis peut consommer autant d’énergie à base de carbone que l’ensemble du pays d’Argentine. Les estimations préliminaires suggèrent que la consommation annuelle d’électricité pour le minage de cryptomonnaies en 2023 représente probablement entre 0,6 % et 2,3 % de la consommation totale d’électricité aux États-Unis.

Quelle solution innovante les chercheurs proposent-ils pour atténuer cet impact ?

Les chercheurs proposent de lier l’utilisation du minage de cryptomonnaies énergivore à la technologie de l’hydrogène vert. Cette approche, qu’ils appellent le «duo dynamique», peut stimuler les secteurs des énergies renouvelables et créer un paysage énergétique plus durable.

Comment l’utilisation de renouvelables pour le minage peut-elle contribuer ?

L’utilisation de sources d’énergie propre pour alimenter les opérations de minage de la blockchain et la production d’hydrogène vert peut conduire à une augmentation de la capacité éolienne et solaire, et à une expansion de la production d’énergie durable dans tout le pays.

Quels sont les potentiels énergétiques identifiés par les chercheurs dans certains États

Les chercheurs ont évalué les forces énergétiques potentielles de chaque région. Par exemple, le soutien aux cryptomonnaies pourrait potentiellement créer 78,4 mégawattheures d’énergie solaire pour chaque Bitcoin miné au Nouveau-Mexique, et 265,8 mégawattheures d’énergie éolienne pour chaque Bitcoin miné au Wyoming.

Que faut-il pour faire progresser un avenir durable pour les cryptomonnaies ?

Pour faire progresser un avenir durable pour les cryptomonnaies basées sur la blockchain, les chercheurs affirment que des politiques fédérales plus fortes en matière d’objectifs climatiques et d’énergies renouvelables doivent être mises en place.

Références

Article : “Climate sustainability through a dynamic duo: Green hydrogen and crypto driving energy transition and decarbonization” – 10.1073/pnas.2313911121

Les “cannibales cosmiques” expulsent des jets dans l’espace à 40 % de la vitesse de la lumière

Les "cannibales cosmiques" expulsent des jets dans l'espace à 40 % de la vitesse de la lumière

Les astronomes ont réussi, pour la première fois, à mesurer la vitesse des jets de matière expulsés par des étoiles surnommées “cannibales cosmiques”. Cette découverte, publiée dans la revue Nature, apporte un nouvel éclairage sur les processus violents à l’œuvre dans l’univers, essentiels à la formation des étoiles et à la distribution des éléments nécessaires à la vie.

Grâce à une expérience innovante, les chercheurs ont pu déterminer que ces jets de matière se déplacent à plus d’un tiers de la vitesse de la lumière, soit environ 114 000 kilomètres par seconde. Cette prouesse a été rendue possible par l’utilisation astucieuse des explosions nucléaires qui se produisent à la surface de ces étoiles.

Jakob van den Eijnden, chercheur à l’Université de Warwick et co-auteur de l’étude, explique : « Les explosions se produisent sur des étoiles à neutrons, qui sont incroyablement denses et réputées pour leur énorme force gravitationnelle. Cette force les pousse à absorber le gaz de leur environnement, une attraction gravitationnelle qui n’est surpassée que par celle des trous noirs. »

Une pluie de matière à la surface des étoiles à neutrons

La matière, principalement de l’hydrogène provenant d’une étoile proche en orbite, tourbillonne vers l’étoile effondrée, tombant comme de la neige sur sa surface. Au fur et à mesure que de plus en plus de matière s’accumule, le champ gravitationnel la compresse jusqu’à ce qu’une explosion nucléaire incontrôlée soit déclenchée. Cette explosion a un impact sur les jets, qui sont également expulsés à partir de la matière en chute et éjectent des particules dans l’espace à très grande vitesse.

Thomas Russell, co-auteur de l’étude et chercheur à l’Institut National d’Astrophysique (INAF) de Palerme en Italie, précise : « Cela nous a donné une expérience parfaite. Nous avions une impulsion très brève et de courte durée de matière supplémentaire qui est projetée dans le jet et que nous pouvons suivre au fur et à mesure qu’elle se déplace le long du jet pour en apprendre davantage sur sa vitesse. »

Une collaboration internationale pour une découverte majeure

L’équipe a mis au point une méthode pour mesurer la vitesse et les propriétés des jets en comparant les signaux radio et rayons X captés par le réseau de télescopes Australia Telescope Compact Array (propriété et exploité par le CSIRO, l’agence scientifique nationale australienne) et le satellite Integral de l’Agence Spatiale Européenne (ESA).

Jakob van den Eijnden ajoute : « Ces explosions se produisent toutes les quelques heures, mais il est impossible de prédire exactement quand elles auront lieu. Il faut donc observer longuement avec les télescopes et espérer capter quelques explosions. Sur trois jours d’observations, nous avons vu 10 explosions et des jets s’illuminer. »

C’est la première fois que les astronomes ont pu anticiper et observer directement comment une certaine quantité de gaz est canalisée dans un jet et accélérée dans l’espace.

De nouvelles perspectives pour l’étude de l’univers

Nathalie Degenaar, co-auteure de l’étude et chercheuse à l’Université d’Amsterdam aux Pays-Bas, poursuit : « Sur la base des données précédentes, nous pensions que l’explosion détruirait l’endroit où le jet était lancé. Mais nous avons observé exactement le contraire : un apport important dans le jet plutôt qu’une perturbation. »

Les chercheurs pensent que la masse et la rotation des étoiles à neutrons et des trous noirs ont également un impact sur les jets. Ayant maintenant démontré que cette recherche est possible, cette étude servira de modèle pour de futures expériences sur les étoiles à neutrons et leurs jets. Les jets peuvent également être produits par des événements cataclysmiques tels que les explosions de supernovæ et les sursauts gamma. Ces nouveaux résultats auront une large applicabilité dans de nombreuses études du cosmos.

En synthèse

Cette découverte majeure, fruit d’une collaboration internationale, ouvre de nouvelles perspectives dans l’étude des processus violents à l’œuvre dans l’univers. En mesurant pour la première fois la vitesse des jets de matière expulsés par les étoiles à neutrons, les astronomes ont franchi une étape cruciale dans la compréhension de la formation des étoiles et de la distribution des éléments nécessaires à la vie. Ces résultats serviront de base pour de futures recherches sur les étoiles à neutrons, les trous noirs et les phénomènes cataclysmiques comme les supernovæ et les sursauts gamma.

Pour une meilleure compréhension

Qu’est-ce qu’une étoile à neutrons ?

Une étoile à neutrons est un objet céleste extrêmement dense, résultant de l’effondrement d’une étoile massive en fin de vie. Sa densité est telle qu’une cuillère à café de matière d’étoile à neutrons pèserait plusieurs milliards de tonnes sur Terre.

Comment se forment les jets de matière ?

Les jets de matière se forment lorsque du gaz, principalement de l’hydrogène, est attiré par la force gravitationnelle intense de l’étoile à neutrons. Ce gaz s’accumule à la surface de l’étoile jusqu’à ce qu’une explosion nucléaire se produise, projetant de la matière dans l’espace à très grande vitesse.

Quelle est l’importance de cette découverte ?

Cette découverte permet de mieux comprendre les processus violents à l’œuvre dans l’univers, essentiels à la formation des étoiles et à la distribution des éléments nécessaires à la vie. Elle ouvre également la voie à de futures recherches sur les étoiles à neutrons, les trous noirs et les phénomènes cataclysmiques.

Comment les astronomes ont-ils mesuré la vitesse des jets de matière ?

Les astronomes ont utilisé une combinaison d’observations radio et rayons X, captées par des télescopes au sol et un satellite. En comparant les signaux, ils ont pu suivre le déplacement de la matière dans les jets et en déduire leur vitesse.

Quelles sont les perspectives futures de cette recherche ?

Cette étude servira de modèle pour de futures expériences sur les étoiles à neutrons et leurs jets. Les résultats auront une large applicabilité dans de nombreuses études du cosmos, notamment sur les trous noirs et les phénomènes cataclysmiques tels que les supernovae et les sursauts gamma.

Références

Légende illustration : Cette impression d’artiste montre comment les explosions nucléaires d’une étoile à neutrons alimentent les jets qui jaillissent de ses régions polaires magnétiques. Au premier plan, au centre droit, une boule blanche très brillante représente l’étoile à neutrons. Des filaments blancs et violets s’échappent de sa région polaire. La boule est entourée d’une sphère plus large d’un blanc trouble, la couronne, et plus loin d’un disque avec des bandes concentriques de différentes couleurs, allant du blanc dans le disque intérieur à l’orange au milieu et au rouge-magenta dans la région extérieure. Une bande orange relie la partie extérieure du disque à une grande section jaune-orange-rouge d’une sphère dans le coin supérieur gauche. Il s’agit du compagnon stellaire de l’étoile à neutrons, qui alimente le disque autour du corps sphérique blanc brillant. Crédit : Danielle Futselaar et Nathalie Degenaar, Institut Anton Pannekoek, Université d’Amsterdam. Licence CC BY-SA 3.0

Article : “Thermonuclear explosions on neutron stars reveal the speed and feeding of their jets” 10.1038/s41586-024-07133-5

Vagues de chaleur et de froid : une opportunité pour les énergies vertes ?

Vagues de chaleur et de froid : une opportunité pour les énergies vertes ?

Les conditions météorologiques extrêmes, qu’il s’agisse de vagues de chaleur ou de froid intenses, mettent à rude épreuve les réseaux électriques. Une étude menée par des chercheurs de l’Université d’État de Washington révèle que ces mêmes conditions pourraient offrir des opportunités accrues pour capter l’énergie solaire et éolienne.

L’étude, publiée dans la revue Environmental Research Letters, a analysé les vagues de chaleur et de froid intenses dans les six régions interconnectées du réseau énergétique des États-Unis entre 1980 et 2021. Les chercheurs ont constaté que ces événements extrêmes s’accompagnent souvent d’un rayonnement solaire plus important et de vitesses de vent plus élevées, qui pourraient être exploités par des panneaux solaires et des éoliennes.

Deepti Singh, climatologue à l’Université d’État de Washington et auteure principale de l’étude, souligne l’importance de se préparer aux risques liés à ces événements extrêmes et de garantir un accès fiable à l’énergie lorsque les gens en ont le plus besoin. Elle suggère que l’utilisation accrue des énergies renouvelables pendant ces périodes pourrait aider à compenser l’augmentation de la demande d’énergie.

Un potentiel accru pour l’énergie solaire et éolienne

L’étude a montré un potentiel accru pour l’énergie solaire dans les six régions des États-Unis pendant les vagues de chaleur, et dans toutes les régions sauf une pendant les vagues de froid. Les chercheurs ont noté que les systèmes de haute pression atmosphérique qui provoquent une chaleur intense, comme la vague de chaleur qui a frappé le Nord-Ouest du Pacifique en 2021, se caractérisent souvent par des ciels dégagés et bleus, permettant à une plus grande partie du rayonnement solaire d’atteindre la Terre.

En ce qui concerne l’énergie éolienne, les conditions étaient plus variables, mais au moins trois régions présentaient un potentiel accru pour capter ce type d’énergie pendant les vagues de chaleur et de froid : le Nord-Est pendant les vagues de froid généralisées, et les réseaux du Texas et du Midwest pendant les vagues de chaleur.

L’impact du changement climatique sur les événements extrêmes

L’analyse a également montré que les grandes vagues de chaleur augmentent en fréquence, en particulier dans les réseaux de l’Ouest des États-Unis et du Texas, avec une hausse respective de 123 % et 132 %. Dans l’Ouest, elles gagnent également en intensité, en durée et en étendue. En revanche, les vagues de froid diminuent en fréquence, mais restent globalement similaires en termes d’intensité, de durée et d’étendue.

Toutes les régions connaissent une augmentation de la demande d’énergie pendant ces événements extrêmes, ce qui met à rude épreuve leurs réseaux électriques et souligne la nécessité de solutions alternatives.

Deepti Singh souligne que le développement de l’énergie solaire et éolienne pourrait améliorer la résilience des systèmes énergétiques pendant les événements extrêmes, tout en réduisant la pollution de l’air associée aux combustibles fossiles.

Il s’agit d’une question complexe, car nous devons tenir compte des vulnérabilités des infrastructures de transmission et de distribution, ainsi que de l’impact environnemental de l’expansion des systèmes solaires et éoliens, mais nous espérons que ces avantages nous donneront des raisons supplémentaires d’accélérer notre transition vers les énergies renouvelables“, a précisé Deepti Singh. “Il existe également des améliorations technologiques qui pourraient nous permettre de tirer parti de l’énergie renouvelable en cas de besoin. La capacité est là.

En synthèse

Cette étude met en lumière le potentiel de l’énergie solaire et éolienne pour renforcer les réseaux électriques face aux événements météorologiques extrêmes. L’expansion de ces sources d’énergie renouvelable pourrait non seulement améliorer la résilience climatique des infrastructures énergétiques du pays, mais aussi réduire la pollution de l’air et favoriser une distribution plus équitable de l’énergie.

Pour une meilleure compréhension

Quels principaux avantages pendant les événements météorologiques extrêmes ?

L’énergie solaire et éolienne peuvent aider à compenser l’augmentation de la demande d’énergie pendant les vagues de chaleur et de froid intenses, tout en réduisant la dépendance aux combustibles fossiles et la pollution de l’air associée.

Comment les caractéristiques des vagues de chaleur et de froid évoluent-elles ?

Les grandes vagues de chaleur augmentent en fréquence, en intensité, en durée et en étendue, en particulier dans l’Ouest des États-Unis et au Texas. Les vagues de froid, quant à elles, diminuent en fréquence mais restent globalement similaires en termes d’intensité, de durée et d’étendue.

Quels avantages supplémentaires, au-delà de la résilience des réseaux électriques ?

L’énergie solaire et éolienne réduisent la pollution de l’air associée aux combustibles fossiles, ce qui est bénéfique pour la santé humaine et les écosystèmes. De plus, ces sources d’énergie peuvent être installées plus près des communautés où elles sont utilisées, favorisant ainsi l’équité et l’accès à l’énergie.

Quelles sont les limites de cette étude et les perspectives futures ?

L’étude identifie le potentiel de l’énergie solaire et éolienne pour renforcer les réseaux électriques, mais des recherches et des développements supplémentaires sont nécessaires pour accroître la résilience des réseaux face à la variabilité et aux extrêmes climatiques. Il faut également prendre en compte les vulnérabilités des infrastructures de transmission et de distribution, ainsi que l’impact environnemental de l’expansion des systèmes solaires et éoliens.

Quel est le message clé de cette étude ?

Les événements météorologiques extrêmes ne vont pas disparaître de sitôt, et il est crucial de se préparer à leurs risques et de garantir un accès fiable à l’énergie lorsque les gens en ont le plus besoin. L’énergie solaire et éolienne offrent des opportunités pour renforcer la résilience des réseaux électriques tout en réduisant la dépendance aux combustibles fossiles et la pollution de l’air associée.

Références

Légende illustration: Photo par Bob Hubner/WSU Photo Services.

Singh, D., et al. (2023). Extreme temperature events in the United States: Potential for increased solar and wind energy capture. Environmental Research Letters. DOI: 10.1088/1748-9326/acbf8a

Des points quantiques alignés avec une précision inégalée

Des points quantiques alignés avec une précision inégalée

La microscopie traçable pourrait améliorer la fiabilité des technologies de l’information quantique, de l’imagerie biologique et bien plus encore. Les chercheurs du National Institute of Standards and Technology (NIST) et leurs collègues ont développé des normes et des calibrations pour les microscopes optiques permettant d’aligner des points quantiques avec le centre d’un composant photonique avec une précision de 10 à 20 nanomètres.

Les chercheurs du NIST, en collaboration avec des collègues du Joint Quantum Institute (JQI), ont créé des normes et des calibrations traçables au Système International d’Unités (SI) pour les microscopes optiques utilisés dans l’alignement des points quantiques. Cette méthode permet d’identifier et de corriger les erreurs de mesure, auparavant négligées, liées au rétrécissement des matériaux semi-conducteurs à basse température et aux imprécisions du processus de fabrication des normes de calibration.

L’équipe a développé deux types de normes traçables pour calibrer les microscopes optiques : une à température ambiante pour analyser le processus de fabrication, et une autre à température cryogénique pour mesurer la position des points quantiques. La norme à température ambiante consiste en un réseau de trous nanométriques espacés d’une distance fixe dans un film métallique, tandis que la norme à basse température est un réseau de piliers fabriqués sur une plaquette de silicium.

Amélioration des performances des dispositifs à points quantiques

Les chercheurs ont développé un modèle détaillé des erreurs de mesure et de fabrication dans l’intégration des points quantiques avec des composants photoniques à l’échelle de la puce. Ils ont étudié comment ces erreurs limitent la capacité des dispositifs à points quantiques à fonctionner comme prévu, révélant un potentiel d’amélioration des performances d’un facteur cent.

Selon Samuel Stavis, chercheur au NIST, « un chercheur pourrait être satisfait si un dispositif sur cent fonctionne pour sa première expérience, mais un fabricant pourrait avoir besoin que quatre-vingt-dix-neuf dispositifs sur cent fonctionnent. Notre travail est un bond en avant dans cette transition du laboratoire à la fabrication. »

Des applications au-delà des dispositifs à points quantiques

Au-delà des dispositifs à points quantiques, les normes et calibrations traçables en cours de développement au NIST pourraient améliorer la précision et la fiabilité d’autres applications exigeantes de la microscopie optique, comme l’imagerie des cellules cérébrales et la cartographie des connexions neuronales.

Pour ces projets, les chercheurs cherchent également à déterminer avec précision les positions des objets étudiés sur l’ensemble d’une image microscopique. De plus, les scientifiques peuvent avoir besoin de coordonner les données de position provenant de différents instruments à différentes températures, comme c’est le cas pour les dispositifs à points quantiques.

Légende illustration : L’alignement précis des points quantiques avec les composants photoniques est essentiel pour extraire le rayonnement émis par les points. Dans cette illustration, un point quantique centré dans le “point chaud” optique d’un réseau circulaire (point central dans l’encadré) émet plus de lumière qu’un point mal aligné (point décentré dans l’encadré). Crédit : S. Kelley/NIST

Article : Craig R. Copeland, Adam L. Pintar, Ronald G. Dixson, Ashish Chanana, Kartik Srinivasan, Daron A. Westly, B. Robert Ilic, Marcelo I. Davanco, and Samuel M. Stavis. Traceable localization enables accurate integration of quantum emitters and photonic structures with high yield. Optica Quantum, Vol. 2, Issue no. 2, pp. 72-84. Posted online March 18, 2024. https://doi.org/10.1364/OPTICAQ.502464

125 millions de livres pour un microscope d’exception à Liverpool

125 millions de livres pour un microscope d'exception à Liverpool

L’Université de Liverpool, au Royaume-Uni, va diriger un nouveau centre de recherche national d’une valeur de 125 millions de livres sterling. Ce centre vise à stimuler les découvertes scientifiques et les avancées technologiques dans des domaines tels que l’énergie durable, les matériaux avancés, les technologies quantiques et la médecine personnalisée.

Un microscope unique au monde

Soutenu par le Fonds d’infrastructure de UK Research and Innovation (UKRI), ce centre, connu sous le nom de RUEDI (Relativistic Ultrafast Electron Diffraction and Imaging), sera le microscope le plus puissant au monde pour l’imagerie dynamique. Il sera le seul instrument de ce type, disposant à la fois du microscope électronique à résolution temporelle la plus rapide et de l’instrument de diffraction électronique à résolution temporelle la plus rapide, pour soutenir de manière unique la recherche scientifique britannique dans les sciences fondamentales.

RUEDI permettra l’étude dynamique, plutôt que statique, des processus biologiques et chimiques en «temps réel» au fur et à mesure qu’ils se produisent, et ce à l’échelle de la femtoseconde, soit un millionième de milliardième de seconde ou plus rapide. C’est comme la différence entre voir le score final d’un match de football et pouvoir observer toute l’action qui se déroule avant, pendant et après le match.

De nouvelles perspectives pour la recherche

Cette capacité unique ouvre la voie aux chercheurs pour explorer les changements dans les cellules vivantes au fur et à mesure qu’ils se produisent, afin d’aider à développer des traitements plus personnalisés pour les patients et de trouver de nouvelles façons de générer de l’énergie renouvelable et de concevoir de meilleures batteries pour un avenir durable.

RUEDI fournira également un nouvel aperçu de l’intégrité structurelle des matériaux – tels que les plastiques, le béton et l’acier – dans des conditions extrêmes telles que les explosions, les tremblements de terre et les processus de fabrication avancés. Il aidera à dévoiler les phénomènes sous-jacents qui conduiront à l’informatique quantique, une nouvelle génération d’ordinateurs.

Un partenariat collaboratif

RUEDI est un partenariat collaboratif entre l’Université de Liverpool, le Science and Technology Facilities Council (STFC) et le Rosalind Franklin Institute. La construction débutera en 2027 et l’ouverture est prévue pour 2032. Il sera situé au laboratoire Daresbury du STFC à Sci-Tech Daresbury, dans la région de la ville de Liverpool.

Le professeur Nigel Browning, titulaire de la chaire de microscopie électronique à l’École d’ingénierie de l’Université de Liverpool, dirigera RUEDI. Il possède plus de deux décennies d’expertise en recherche sur l’imagerie dynamique des processus des matériaux en microscopie électronique.

« Cette annonce est une excellente nouvelle pour l’Université de Liverpool, pour la région du Nord-Ouest et pour la communauté scientifique britannique », a-t-il déclaré. « RUEDI est le premier centre à permettre l’observation et la détermination de l’évolution des changements structurels dans les matériaux par le biais d’expériences résolues dans le temps, plutôt que par une structure statique. Cette capacité révolutionnaire aidera les chercheurs à développer les nouvelles technologies et solutions nécessaires pour relever certains des défis les plus pressants de notre époque. »

Un investissement crucial pour l’avenir

Le professeur Angus Kirkland, responsable de RUEDI pour les sciences de la vie, titulaire de la chaire des matériaux à l’Université d’Oxford et directeur scientifique du Rosalind Franklin Institute, a précisé : «Nous sommes ravis de faire partie de ce partenariat avec l’Université de Liverpool et le STFC. Ce projet a un grand potentiel pour révolutionner notre façon de voir la vie. En utilisant cette technologie, nous serons en mesure de voir les interactions se produisant au sein d’une cellule à une résolution moléculaire. Cela nous donnera de nouvelles perspectives sur la biologie et ouvrira, espérons-le, la porte à la découverte de nouveaux médicaments.»

Le secrétaire d’État à la science, à l’innovation et à la technologie, Michelle Donelan, a indiqué : « Alors que la science et la technologie se développent plus rapidement que jamais, il est vital que nous nous assurions que les innovateurs britanniques disposent des bons outils pour poursuivre leur travail de pionnier, qu’il s’agisse de révolutionner la médecine ou de protéger le monde dans lequel nous vivons pour les générations à venir. Notre investissement de 473 millions de livres sterling dans les infrastructures créera les conditions permettant à nos esprits les plus brillants de s’épanouir et de construire un Royaume-Uni plus sain et plus prospère. »

Le professeur Nigel Browning, titulaire de la chaire de microscopie électronique à l’école d’ingénierie de l’université de Liverpool, dirigera le projet RUEDI. Crédit : University of Liverpool

Un nouveau transistor défie les limites de la physique quantique

Un nouveau transistor défie les limites de la physique quantique

Les chercheurs ont développé un nouveau transistor à molécule unique qui utilise l’interférence quantique pour contrôler le flux d’électrons. Cette avancée ouvre de nouvelles perspectives pour l’utilisation des effets quantiques dans les dispositifs électroniques, offrant ainsi des possibilités prometteuses pour l’avenir de l’électronique.

Une équipe internationale de chercheurs de la Queen Mary University of London, de l’Université d’Oxford, de l’Université de Lancaster et de l’Université de Waterloo a mis au point un nouveau transistor à molécule unique qui exploite l’interférence quantique pour contrôler le flux d’électrons. Ce transistor, décrit dans un article publié dans la revue Nature Nanotechnology, pourrait faire en sorte de pouvoir d’utiliser des effets quantiques dans les dispositifs électroniques.

Les transistors sont les éléments de base de l’électronique moderne. Ils sont utilisés pour amplifier et commuter les signaux électriques et sont essentiels pour tout, des smartphones aux vaisseaux spatiaux. La méthode traditionnelle de fabrication des transistors, qui consiste à graver le silicium en minuscules canaux, atteint ses limites. À mesure que les transistors deviennent plus petits, ils deviennent de plus en plus inefficaces et sensibles aux erreurs, car les électrons peuvent fuir à travers le dispositif même lorsqu’il est censé être éteint, par un processus connu sous le nom de tunnel quantique.

L’interférence quantique au cœur du fonctionnement du transistor

Dans les structures à l’échelle nanométrique étudiées par le professeur Jan Mol, le Dr James Thomas et leur groupe à l’École des sciences physiques et chimiques de Queen Mary, les effets quantiques dominent et les électrons se comportent comme des ondes plutôt que comme des particules. Tirant parti de ces effets quantiques, les chercheurs ont construit un nouveau transistor dont le canal conducteur est une porphyrine de zinc unique, une molécule capable de conduire l’électricité.

La porphyrine est prise en sandwich entre deux électrodes de graphène et, lorsqu’une tension est appliquée aux électrodes, le flux d’électrons à travers la molécule peut être contrôlé à l’aide de l’interférence quantique. L’interférence est un phénomène qui se produit lorsque deux ondes interagissent l’une avec l’autre et s’annulent mutuellement (interférence destructive) ou se renforcent mutuellement (interférence constructive).

Dans le cas du nouveau transistor, les chercheurs ont allumé et éteint le transistor en contrôlant si les électrons interfèrent de manière constructive (on) ou destructive (off) lorsqu’ils traversent la molécule de porphyrine de zinc.

Des performances prometteuses pour le nouveau transistor

Les chercheurs ont constaté que le nouveau transistor présente un rapport on/off très élevé, ce qui signifie qu’il peut être allumé et éteint de manière très précise. L’interférence quantique destructive joue un rôle crucial en éliminant le flux d’électrons de fuite dû à l’effet tunnel quantique à travers le transistor lorsqu’il est censé être éteint. Ils ont également constaté que le transistor est très stable. Les transistors précédents fabriqués à partir d’une seule molécule n’ont pu démontrer qu’une poignée de cycles de commutation, mais ce dispositif peut fonctionner pendant des centaines de milliers de cycles sans se dégrader.

Selon le Dr James Thomas, auteur principal de l’étude et maître de conférences en technologies quantiques à Queen Mary, l’interférence quantique est un phénomène puissant qui pourrait être utilisé dans une grande variété d’applications électroniques. Les chercheurs estiment que leurs travaux constituent une étape importante vers la réalisation de ce potentiel.

Vers une nouvelle génération de dispositifs électroniques

Les chercheurs ont également constaté que les effets d’interférence quantique pourraient être utilisés pour améliorer la pente sous le seuil du transistor, qui est une mesure de la sensibilité du transistor aux changements de tension de grille. Plus la pente sous le seuil est faible, plus le transistor est efficace. Les transistors des chercheurs présentaient une pente sous le seuil de 140 mV/dec, ce qui est meilleur que les pentes sous le seuil rapportées pour d’autres transistors à molécule unique et comparable à des dispositifs plus grands fabriqués à partir de matériaux tels que les nanotubes de carbone.

Bien que la recherche n’en soit qu’à ses débuts, les chercheurs sont optimistes quant à la possibilité d’utiliser le nouveau transistor pour créer une nouvelle génération de dispositifs électroniques. Ces dispositifs pourraient être utilisés dans une variété d’applications, allant des ordinateurs et des smartphones aux dispositifs médicaux./es

Article : “Quantum interference enhances the performance of single-molecule transistors” – DOI: 10.1038/s41565-024-01633-1

Des surfaces 1000 fois plus fines qu’un cheveu pour explorer l’espace

Des surfaces 1000 fois plus fines qu'un cheveu pour explorer l'espace

Le Southwest Research Institute (SwRi) investit des fonds internes pour développer des surfaces de conversion plus efficaces permettant aux futurs instruments spatiaux de collecter et d’analyser des particules de basse énergie. Recouvrant un wafer de silicium, ces surfaces ultra-lisses et ultra-fines convertissent les atomes neutres en ions pour une détection plus efficace des particules provenant de l’espace.

Le changement de charge des particules simplifie et améliore les capacités de détection et d’analyse.

Les docteurs Jianliang Lin de la division d’ingénierie mécanique de l’institut et Justyna Sokół de la division des sciences spatiales de SwRI dirigent ce projet multidisciplinaire. Celui-ci s’appuie sur la création réussie de surfaces de conversion pour l’instrument IMAP-Lo de la sonde spatiale Interstellar Mapping and Acceleration Probe (IMAP). IMAP, dont le lancement est prévu en 2025, aidera les chercheurs à mieux comprendre les limites de notre héliosphère, la région de l’espace englobant le système solaire, où le vent solaire exerce une influence significative.

« Lorsque des atomes de basse énergie entrent dans l’instrument depuis l’espace, ils rebondissent sur la surface de conversion et gagnent ou perdent un électron, déséquilibrant leur charge électrique. Cela facilite l’augmentation de leur vitesse et l’analyse de leur masse et d’autres propriétés », explique Justyna Sokół.

Des surfaces ultra-fines et ultra-lisses

Il est essentiel que ces surfaces maintiennent leur efficacité de conversion au cours de missions parfois longues de plusieurs décennies.

« L’épaisseur de la surface de conversion est généralement inférieure à 50 nanomètres, plus de 1 000 fois plus fine qu’un cheveu humain », précise Jianliang Lin. « La surface doit également être la plus lisse possible, proche de la perfection. Si elle n’est pas suffisamment lisse, les particules seront ralenties par la dispersion d’énergie, ce qui rendra beaucoup plus difficile la détection et l’analyse de leurs propriétés. »

De nouveaux matériaux prometteurs

S’appuyant sur les recherches menées à l’Université de Berne, Lin et Sokół travaillent maintenant à la création de surfaces de conversion encore plus efficaces en tellurure de cadmium (CdTe) et séléniure de zinc (ZnSe).

« Les films minces de tellurure de cadmium et de séléniure de zinc sont de nouveaux matériaux pour les surfaces de conversion qui pourraient potentiellement réduire la dispersion angulaire à la surface afin d’améliorer l’efficacité de conversion », souligne Jianliang Lin.

SwRI a réussi à créer un film mince de ZnSe répondant aux normes de lissage. La prochaine étape consistera à tester l’efficacité du matériau en tant que surface de conversion.

« SwRI est particulièrement capable de relever ce type de défi, avec une expertise considérable dans l’instrumentation spatiale et le développement de films minces », conclut Jianliang Lin. « Cette collaboration interdisciplinaire a rendu cela possible, et c’est pourquoi nous sommes convaincus de pouvoir créer des surfaces de conversion meilleures et plus efficaces. »

Légende illustration : Les scientifiques de SwRI collaborent avec des spécialistes des matériaux pour créer des surfaces de détection de particules plus efficaces pour les instruments des engins spatiaux. La photo montre un substrat de surface de conversion développé spécifiquement pour l’instrument IMAP-Lo. Crédit : Southwest Research Institute