Auteur - Rédaction

L’apprentissage automatique permet d’assurer la viabilité des éoliennes à axe vertical

L'apprentissage automatique permet d'assurer la viabilité des éoliennes à axe vertical

Les éoliennes à axe vertical, bien que moins répandues que leurs homologues à axe horizontal, présentent de nombreux avantages en termes de densité énergétique, de bruit et de protection de la faune. Leur sensibilité aux variations de flux d’air a jusqu’à présent freiné leur développement.

Une équipe de chercheurs de l’EPFL a mis au point une solution innovante pour surmonter cet obstacle, ouvrant ainsi la voie à une utilisation plus large de cette technologie prometteuse.

Les premières éoliennes, développées au Moyen-Orient au 8ème siècle pour moudre le grain, étaient à axe vertical (VAWT), c’est-à-dire qu’elles tournaient perpendiculairement au vent, et non parallèlement comme les éoliennes à axe horizontal (HAWT) que nous connaissons aujourd’hui.

Les VAWT présentent plusieurs avantages par rapport aux HAWT. Leur vitesse de rotation plus lente les rend moins bruyantes et leur permet d’atteindre une plus grande densité d’énergie éolienne, ce qui signifie qu’elles nécessitent moins d’espace pour une même production, tant sur terre qu’en mer. Leurs pales sont également plus respectueuses de la faune : comme elles tournent latéralement et non de haut en bas, elles sont plus faciles à éviter pour les oiseaux.

Un problème d’ingénierie qui freine leur développement

Malgré ces atouts, les VAWT sont largement absentes du marché actuel de l’énergie éolienne. Selon Sébastien Le Fouest, chercheur au laboratoire UNFOLD de l’EPFL, cela est dû à un problème d’ingénierie lié au contrôle du flux d’air, qu’il pense pouvoir résoudre en combinant technologie des capteurs et apprentissage automatique.

Dans un article récemment publié dans Nature Communications, Le Fouest et Karen Mulleners, responsable de l’UNFOLD, décrivent deux profils de pas optimaux pour les pales des VAWT, qui permettent d’augmenter de 200% l’efficacité de la turbine et de réduire de 77% les vibrations menaçant la structure.

La lame VAWT expérimentale de l’EPFL © UNFOLD EPFL CC BY SA

Transformer une faiblesse en atout grâce à l’apprentissage automatique

Le principal inconvénient des VAWT est qu’elles ne fonctionnent bien qu’avec un flux d’air modéré et continu. L’axe de rotation vertical fait que les pales changent constamment d’orientation par rapport au vent. Une forte rafale augmente l’angle entre le flux d’air et la pale, formant un vortex dans un phénomène appelé décrochage dynamique. Ces vortex créent des charges structurelles transitoires que les pales ne peuvent pas supporter.

Pour résoudre ce problème, les chercheurs ont monté des capteurs sur un arbre de pale actionneur afin de mesurer les forces aériennes agissant sur celui-ci. En inclinant la pale d’avant en arrière à différents angles, vitesses et amplitudes, ils ont généré des séries de «profils de pas». Ils ont ensuite utilisé un ordinateur pour exécuter un algorithme génétique, qui a effectué plus de 3500 itérations expérimentales. Comme dans un processus évolutif, l’algorithme a sélectionné les profils de pas les plus efficaces et robustes, et a recombiné leurs caractéristiques pour générer une “descendance” nouvelle et améliorée.

Cette approche a permis aux chercheurs non seulement d’identifier deux séries de profils de pas qui contribuent à une efficacité et une robustesse nettement améliorées de la turbine, mais aussi de transformer la plus grande faiblesse des VAWT en force.

Le Fouest explique : « Le décrochage dynamique – le même phénomène qui détruit les éoliennes – peut en fait, à plus petite échelle, propulser la pale vers l’avant. Ici, nous utilisons vraiment le décrochage dynamique à notre avantage en réorientant le pas de la pale vers l’avant pour produire de l’énergie. La plupart des éoliennes orientent la force générée par les pales vers le haut, ce qui n’aide pas à la rotation. En modifiant cet angle, on forme non seulement un vortex plus petit, mais on le repousse simultanément au moment précis, ce qui crée une deuxième zone de production d’énergie sous le vent. »

Vers une commercialisation des VAWT

L’article de Nature Communications représente le travail de thèse de Le Fouest au laboratoire UNFOLD. Il a maintenant reçu une bourse BRIDGE du Fonds national suisse de la recherche scientifique (FNS) pour construire un prototype de VAWT. L’objectif est de l’installer à l’extérieur, afin qu’il puisse être testé en temps réel dans des conditions réelles.

« Nous espérons que cette méthode de contrôle du flux d’air pourra amener la technologie VAWT à maturité afin qu’elle puisse enfin être commercialisée », conclut Le Fouest.

En synthèse

Les éoliennes à axe vertical, bien que présentant de nombreux avantages, ont longtemps été freinées dans leur développement par leur sensibilité aux variations de flux d’air. Grâce à une approche innovante combinant capteurs et apprentissage automatique, des chercheurs de l’EPFL ont mis au point une solution permettant de surmonter cet obstacle et d’exploiter pleinement le potentiel de cette technologie.

Pour une meilleure compréhension

Quels sont les principaux avantages des éoliennes à axe vertical ?

Les éoliennes à axe vertical sont moins bruyantes, atteignent une plus grande densité d’énergie éolienne et sont plus respectueuses de la faune que les éoliennes à axe horizontal.

Quel est le principal obstacle au développement des éoliennes à axe vertical ?

Le principal obstacle est leur sensibilité aux variations de flux d’air, qui crée des vortex et des charges structurelles transitoires que les pales ne peuvent pas supporter.

Comment les chercheurs de l’EPFL ont-ils résolu ce problème ?

Ils ont combiné technologie des capteurs et apprentissage automatique pour identifier des profils de pas optimaux pour les pales, permettant d’augmenter l’efficacité et la robustesse des turbines.

Qu’est-ce que le décrochage dynamique et comment est-il utilisé dans cette solution ?

Le décrochage dynamique est un phénomène qui crée des vortex lorsque l’angle entre le flux d’air et la pale augmente. Les chercheurs l’utilisent à leur avantage en réorientant le pas de la pale pour produire de l’énergie.

Quelles sont les perspectives pour les éoliennes à axe vertical suite à ces travaux ?

Ces travaux ouvrent la voie à une commercialisation des éoliennes à axe vertical, qui pourraient ainsi contribuer de manière significative à la transition énergétique.

Références

Légende illustration : Sébastien Le Fouest et une lame VAWT expérimentale © Alain Herzog CC BY SA

Le Fouest, S., Mulleners, K. Optimal blade pitch control for enhanced vertical-axis wind turbine performance. Nat Commun 15, 2770 (2024). 10.1038/s41467-024-46988-0

Focalisation de lasers ultra-intenses sur une seule longueur d’onde

Focalisation de lasers ultra-intenses sur une seule longueur d'onde

Les lasers ultra-intenses et ultra-courts sont des outils puissants utilisés dans divers domaines comme la physique, la sécurité nationale, l’industrie et la santé. Ils permettent aux chercheurs d’explorer en profondeur la physique des lasers à champ fort, les sources de rayonnement induites par laser, l’accélération de particules et bien plus encore.

La «puissance crête» mesure l’intensité de ces lasers, comme le laser Nova (Lawrence Livermore National Laboratory, Californie, États-Unis) avec une puissance crête de 1,5 pétawatts, le Shanghai Super-intense Ultrafast Laser Facility (SULF, Chine) avec 10 pétawatts, ou l’Extreme Light Infrastructure – Nuclear Physics (ELI-NP, Roumanie) avec une puissance crête de 10 pétawatts.

Ce qui importe réellement dans les expériences reste par contre l’intensité focalisée sur la cible. Les lasers sont focalisés sur des cibles expérimentales à l’aide de miroirs paraboliques hors axe. L’intensité focalisée, et non la puissance crête, reflète la capacité du laser et est cruciale pour les utilisateurs.

Améliorer la focalisation avec des miroirs hyperboliques

Actuellement, l’ouverture du faisceau de ces lasers est de 150 à 500 mm, et le nombre F (lié à la capacité de focalisation) est de 2 à 10. L’ajout d’un miroir hyperbolique rotationnel après le miroir parabolique peut réduire considérablement le nombre F et donc la taille du spot focal.

Comme rapporté dans Advanced Photonics Nexus, cette méthode de focalisation secondaire peut réduire le nombre F d’un facteur 5, ce qui réduit ensuite la taille du spot focal du laser ultra-intense et ultra-court à une taille d’une seule longueur d’onde.

Atteindre le plus petit spot focal possible

L’auteur correspondant Zhaoyang Li du Key Laboratory of Ultra-intense Laser Science and Technology, Shanghai Institute of Optics and Fine Mechanics (Chine), note que cette technique permet d’obtenir le plus petit spot focal possible : « L’utilisation de miroirs hyperboliques pour une focalisation secondaire peut réduire le spot focal de nos lasers ultra-intenses et ultra-courts d’une taille de plusieurs longueurs d’onde à une taille d’une seule longueur d’onde, atteignant ainsi le plus petit spot focal possible. »

Li et son équipe rapportent que des spots focaux d’une seule longueur d’onde peuvent être obtenus en ajoutant un miroir hyperbolique rotationnel optimisé aux lasers femtosecondes de classe pétawatt actuels ou aux futurs lasers de classe pétawatt à cycle unique.

« En combinaison avec notre méthode Wide-angle Non-collinear Optical Parametric Chirped Pulse Amplification (WNOPCPA) proposée précédemment, on s’attend à atteindre la condition d’intensité la plus élevée d’une installation laser ultra-intense et ultra-courte, c’est-à-dire en focalisant toute l’énergie laser dans un cube focal spatio-temporel bordé par la longueur d’onde centrale du laser. Cela améliorera considérablement la capacité expérimentale des lasers ultra-intenses et ultra-courts dans l’application de la physique des lasers à champ fort, comme l’électrodynamique quantique du vide », déclare pour conclure Zhaoyang Li.

Légende illustration : Focalisation secondaire avec hyperbole après parabole. Crédit : Zhaoyang Li, doi 10.1117/1.APN.3.3.036002

Article original par Z. Li, et al., “Single-wavelength size focusing of ultra-intense ultrashort lasers with rotational hyperbolic mirrors,” Adv. Photon. Nexus 3(3) 036002 (2024), doi 10.1117/1.APN.3.3.036002

10% des plus riches émettent plus de 50% des gaz à effet de serre mondiaux

10% des plus riches émettent plus de 50% des gaz à effet de serre mondiaux

Dans un monde confronté à des défis environnementaux, sociaux et économiques sans précédent, une équipe internationale de scientifiques publie une étude révélatrice qui souligne l’urgence d’aligner la volonté politique, les ressources économiques et les valeurs sociétales pour assurer un avenir plus durable et équitable.

Menée par des chercheurs de l’Université d’Hawaï à Mānoa, cette étude réunit 18 auteurs combinant leurs expertises dans des domaines aussi variés que les sciences de la Terre et des océans, la politique, le droit, la santé publique, les énergies renouvelables, la géographie, la communication et les études ethniques. Leur objectif ? Évaluer les causes, les impacts et les solutions aux multiples crises mondiales auxquelles l’humanité est confrontée.

« Le changement climatique, la destruction écologique, les maladies, la pollution et les inégalités socio-économiques sont des défis mondiaux pressants auxquels l’humanité doit faire face au 21ème siècle », indique Chip Fletcher, auteur principal et doyen par intérim de l’École des sciences de l’océan et de la Terre de l’UH Mānoa. « Ces crises ne sont pas des problèmes isolés, mais sont étroitement liées, s’exacerbent mutuellement et créent des effets de rétroaction amplificateurs qui représentent une grave menace pour l’environnement et le bien-être humain. »

David Karl, co-auteur et professeur d’océanographie à l’UH Mānoa, souligne que «la santé environnementale et la santé humaine sont inextricablement liées. Une action urgente et globale est nécessaire, notamment une décarbonation rapide, le développement d’une relation plus harmonieuse avec la nature et un développement humain équitable.»

Les auteurs affirment que des siècles d’impérialisme, de capitalisme extractif et de croissance démographique ont poussé les écosystèmes terrestres au-delà de leurs limites, créant un schéma d’inégalités sociales grandissant. Bien que résumant les graves menaces pesant sur la planète, l’étude rejette une philosophie fataliste. Au contraire, ces menaces devraient motiver des actions rapides et substantielles.

Selon les auteurs, un modèle économique mondial axé sur l’accumulation de richesses et les profits, plutôt que sur une véritable durabilité, constitue un obstacle majeur à la décarbonation, à la préservation des ressources naturelles et à l’équité sociale. Ils plaident donc pour que les gouvernements imposent des réductions radicales et immédiates de l’utilisation des combustibles fossiles, éliminent les subventions nuisibles à l’environnement et restreignent le commerce générant pollution ou consommation non durable.

Si les valeurs humaines ne changent pas radicalement et rapidement, les dommages causés au monde naturel seront probablement catastrophiques. Crédit : Fletcher et al, 2024.

Les populations les plus vulnérables payent le prix fort

Les populations humaines les plus vulnérables, celles qui portent la moindre responsabilité, subissent de manière disproportionnée les conséquences de ces crises mondiales interconnectées. Ce schéma grandissant d’inégalités engendre déplacements, maladies, désillusion et mécontentement, érodant in fine la cohésion sociale.

Une répartition extrêmement inégale des richesses, couplée à l’augmentation de la consommation d’une classe moyenne mondiale en pleine expansion, amplifie la destruction écologique. Des études montrent que la moitié la plus pauvre de la population mondiale ne possède qu’à peine 2% de la richesse totale, tandis que les 10% les plus riches en détiennent 76%. Les 50% les plus pauvres ne contribuent qu’à 10% des émissions, alors que les 10% les plus riches émettent plus de 50% des émissions totales de carbone. Changement climatique, inégalités économiques et niveaux de consommation croissants s’entremêlent pour amplifier la destruction écologique.

Les biomes marins et terrestres font face à des points de basculement critiques, tandis que les défis croissants en matière d’accès à l’eau et à l’alimentation laissent présager des perspectives sombres pour la sécurité mondiale. Les conséquences de ces actions sont supportées de manière disproportionnée par les populations vulnérables, renforçant davantage les inégalités mondiales.

Vers une relation de parenté avec la nature

« Pour éviter ces conséquences, nous préconisons un changement culturel mondial qui élève la parenté avec la nature et le bien-être communautaire, sous-tendu par la reconnaissance des ressources finies de la Terre et de l’interconnexion de ses habitants », explique Krista Hiser, professeure d’anglais au Kapiolani Community College de l’Université d’Hawaï.

Les auteurs se réjouissent des signes montrant que l’humanité est intéressée à changer son système de valeurs pour prioriser la justice et la réciprocité au sein des sociétés humaines et entre les humains et les paysages et écosystèmes naturels, qu’ils considèrent comme la meilleure voie vers une véritable durabilité.

Selon Phoebe Barnard, professeure affiliée à l’Université de Washington, « l’impératif est clair : pour nous éloigner de ce précipice, nous devons collectivement mobiliser la volonté politique, les ressources économiques et les valeurs sociétales afin de nous orienter vers un avenir où le progrès humain ne se fait pas au détriment de l’intégrité écologique et de l’équité sociale. »

Les auteurs appellent à un changement culturel mondial des valeurs, aidé par l’éducation, des politiques robustes, des incitations économiques, des partenariats intersectoriels, l’autonomisation des communautés, la responsabilité des entreprises, l’innovation technologique, le leadership et des récits culturels véhiculés par l’art et les médias. Ils concluent que l’humanité doit cesser de traiter ces problèmes comme des défis isolés et établir une réponse systémique basée sur la parenté avec la nature, reconnaissant la Terre comme notre navire de vie dans l’océan cosmique de l’espace.

Légende illustration : La pollution, le changement climatique et les inégalités sont des défis mondiaux urgents. Crédit : Kouji Tsuru via Unsplash.

Article : “Earth at risk: An urgent call to end the age of destruction and forge a just and sustainable future” – DOI: 10.1093/pnasnexus/pgae106

Un nouveau revêtement des fenêtres bloque la chaleur, mais pas la vue

Un nouveau revêtement des fenêtres bloque la chaleur, mais pas la vue

Les fenêtres laissent entrer une lumière bienveillante dans les espaces intérieurs, mais elles apportent également et surtout l’été une chaleur bien souvent indésirable. Un nouveau revêtement pour fenêtres est en mesure de bloquer la lumière ultraviolette et infrarouge génératrice de chaleur afin de laisser passer la lumière visible, quelle que soit l’angle du soleil. Le revêtement peut être incorporé aux fenêtres ou aux automobiles existantes et peut réduire les coûts de climatisation de plus d’un tiers dans les climats chauds.

Un revêtement qui s’adapte à la position du soleil

« L’angle entre le soleil et votre fenêtre change constamment », a déclaré Tengfei Luo, professeur d’études énergétiques à l’Université de Notre Dame (USA) et responsable de l’étude. « Notre revêtement maintient sa fonctionnalité et son efficacité quelle que soit la position du soleil dans le ciel. »

Les revêtements de fenêtres utilisés dans de nombreuses études récentes sont optimisés pour la lumière qui pénètre dans une pièce à un angle de 90 degrés. Pourtant, à midi, souvent le moment le plus chaud de la journée, les rayons du soleil pénètrent dans les fenêtres installées verticalement à des angles obliques.

Une structure multicouche optimisée

Le Pr. Luo et son associé postdoctoral Seongmin Kim ont précédemment fabriqué un revêtement de fenêtre transparent en empilant des couches ultra-minces de silice, d’alumine et d’oxyde de titane sur une base de verre. Un polymère de silicium d’une épaisseur micrométrique a été ajouté pour améliorer le pouvoir de refroidissement de la structure en réfléchissant le rayonnement thermique à travers la fenêtre atmosphérique et dans l’espace.

Une optimisation supplémentaire de l’ordre des couches était nécessaire pour garantir que le revêtement puisse accueillir plusieurs angles de lumière solaire. Cependant, une approche par tâtonnements n’était pas pratique, étant donné le nombre immense de combinaisons possibles, a précisé Tengfei Luo.

L’informatique quantique à la rescousse

Pour réorganiser les couches dans une configuration optimale – une qui maximise la transmission de la lumière visible tout en minimisant le passage des longueurs d’onde produisant de la chaleur – l’équipe a utilisé l’informatique quantique, ou plus précisément, le recuit quantique, et a validé leurs résultats expérimentalement.

Leur modèle a produit un revêtement qui a à la fois maintenu la transparence et réduit la température de 5,4 à 7,2 degrés Celsius dans une pièce modèle, même lorsque la lumière était transmise dans une large gamme d’angles.

« Comme des lunettes de soleil polarisées, notre revêtement atténue l’intensité de la lumière entrante, mais, contrairement aux lunettes de soleil, notre revêtement reste clair et efficace même lorsque vous l’inclinez à différents angles », a ajouté Tengfei Luo.

Une approche applicable à d’autres matériaux

Le schéma d’apprentissage actif et d’informatique quantique développé pour créer ce revêtement peut être utilisé pour la conception d’une large gamme de matériaux aux propriétés complexes.

Légende illustration : Des chercheurs de l’université de Notre Dame ont mis au point un nouveau revêtement de fenêtre qui bloque les rayons ultraviolets et infrarouges générateurs de chaleur et laisse passer la lumière visible, quel que soit l’angle du soleil.

Article : “Wide-Angle Spectral Filter for Energy-Saving Windows Designed by Quantum Annealing-Enhanced Active Learning” – DOI: 10.1016/j.xcrp.2024.101847

Réseaux neuronaux optiques : 2 parties clés pour une IA plus rapide

Réseaux neuronaux optiques : 2 parties clés pour une IA plus rapide

Les réseaux de neurones optiques corrélés, une nouvelle approche prometteuse pour l’intelligence artificielle, offrent des performances exceptionnelles tout en réduisant les coûts de calcul. Cette technologie innovante ouvre des perspectives dans le domaine du traitement de l’information à l’ère du Big Data.

Ces dernières années, les technologies d’intelligence artificielle, en particulier les algorithmes d’apprentissage automatique, ont connu des progrès considérables. Ces technologies ont permis une efficacité sans précédent dans des tâches telles que la reconnaissance d’images, la génération et le traitement du langage naturel, ainsi que la détection d’objets.

Ces fonctionnalités exceptionnelles nécessitent par contre une puissance de calcul substantielle comme fondement. À l’heure actuelle, les ressources informatiques permettant d’y parvenir approchent de leur limite. Par conséquent, la réduction efficace du coût d’entraînement des modèles d’apprentissage automatique et l’amélioration de leur efficacité d’entraînement constituent un enjeu majeur dans le domaine de la recherche.

Pour résoudre ce problème, d’importants efforts ont été déployés dans deux directions de recherche : les réseaux de neurones optiques et les réseaux de neurones quantiques. Les réseaux de neurones optiques utilisent des méthodes avancées de manipulation optique pour exécuter des algorithmes d’apprentissage automatique dans le traitement classique de l’information optique. Ils présentent des avantages uniques tels qu’une faible consommation d’énergie, une faible diaphonie et une faible latence de transmission.

Toutefois, les réseaux de neurones optiques actuels ne présentent pas d’accélération algorithmique, comme une vitesse de convergence plus rapide des modèles. Les réseaux de neurones quantiques sont des algorithmes de réseaux de neurones basés sur la théorie de l’informatique quantique.

Des recherches récentes ont montré que les réseaux de neurones quantiques peuvent démontrer une accélération algorithmique en raison des corrélations quantiques. Toutefois, en raison de limitations techniques, il est actuellement difficile d’exécuter ces algorithmes de réseaux de neurones sur du matériel à grande échelle, ce qui rend leur application difficile pour les problèmes pratiques auxquels les gens sont confrontés actuellement.

a, un scénario illustratif pour un réseau neuronal convolutionnel optique corrélé. La structure de base comprend quatre parties : la source de lumière corrélée (colorée en brun), la convolution (colorée en bleu), la mise en commun (colorée en orange) et les détections (colorées en noir). Les stratégies de mise en œuvre de la convolution et de la mise en commun sont indiquées dans les cases en pointillés. Les éléments de base comprennent des plaques d’onde, des interféromètres et des dispositifs optiques non linéaires. b, la performance d’entraînement du réseau neuronal convolutionnel optique corrélé (ligne verte) dans une tâche de classification binaire, comparée au réseau neuronal convolutionnel classique (ligne bleue). Les courbes montrent que le réseau neuronal convolutif optique corrélé converge plus rapidement que le réseau classique. c, la performance d’apprentissage du réseau neuronal convolutif optique corrélé (ligne magenta) dans une tâche de classification quadruple, par rapport au réseau neuronal convolutif classique (ligne rouge). Les courbes montrent également que le réseau neuronal convolutionnel optique corrélé converge plus rapidement que le réseau classique. d. Résultats expérimentaux du réseau neuronal convolutionnel optique corrélé pour l’identification de la phase topologique des états quantiques. Le panneau de gauche montre les résultats expérimentaux, dont les coordonnées x-y sont les paramètres des états. En prenant la dérivée de second ordre des résultats, les limites de phase peuvent être obtenues. Le panneau de droite donne la comparaison des limites obtenues par les expériences avec celles calculées par le réseau de neurones. Les deux résultats correspondent bien, ce qui confirme la correspondance entre les réseaux neuronaux convolutionnels optiques corrélés et les réseaux convolutionnels quantiques. Crédit : by Yifan Sun, Qian Li, Ling-Jun Kong, and Xiangdong Zhang

Dans un nouvel article publié dans Light Science & Application, une équipe de scientifiques en Chine, et ses collaborateurs ont développé un nouveau type de réseau de neurones optiques capable de présenter une accélération analogue à celle d’un réseau de neurones quantiques. Cette propriété intéressante émerge grâce à l’introduction de corrélations optiques classiques comme support de l’information. En fait, en utilisant ce type de support, on peut imiter le mode de traitement de l’information permis par l’informatique quantique, ce qui a été prouvé par des travaux antérieurs des chercheurs.

Sur la base de cette propriété, les chercheurs développent l’opération de convolution et de pooling sur l’état optique corrélé, et établissent finalement un réseau de neurones à convolution optique corrélé. Ce réseau de neurones optiques a une correspondance biunivoque avec le réseau de neurones à convolution quantique. Il montre une accélération du processus d’apprentissage sur certains ensembles de données, et peut être appliqué pour identifier le caractère des états quantiques selon un principe de codage particulier. La méthode et la technique rapportées ouvriront de nouvelles voies pour la réalisation de réseaux de neurones optiques algorithmiquement améliorés, ce qui profitera au traitement de l’information à l’ère du Big Data.

La structure de base d’un réseau de neurones à convolution optique corrélé comprend quatre parties : la source de lumière corrélée, la convolution, le pooling et les détections. Le traitement de base de l’état optique corrélé est effectué par la partie convolution et la partie pooling. Contrairement à celles appliquées dans les réseaux de neurones à convolution classiques, ces deux parties dans le réseau de neurones optiques à convolution corrélée manipulent la corrélation des états optiques et génèrent des états corrélés plus simples en fusionnant les faisceaux.

« Ces deux parties effectuent en fait des opérations analogues aux portes quantiques dans les réseaux de neurones à convolution quantique », ont déclaré les scientifiques à l’origine de ces travaux.

« La partie convolution de notre réseau est composée d’opérations unitaires sur l’état optique corrélé. C’est comme les opérations unitaires sur l’espace de Hilbert des qubits. La partie pooling que nous considérons est équivalente à la mesure de qubits partiels pour obtenir un sous-espace de Hilbert. Cette partie entraîne une diminution exponentielle de la dimension des données. Ainsi, la fonction de ces deux parties contribue à une convergence plus rapide de la fonction de perte lors de l’apprentissage de certains ensembles de données. En outre, nous certifions également la similitude de notre réseau de neurones à convolution optique corrélé avec le réseau de neurones à convolution quantique en effectuant l’identification de la phase topologique des états quantiques. La certification est étayée par des résultats théoriques et expérimentaux. »

Une alternative plus abordable aux réseaux de neurones quantiques

« Les résultats indiquent également que les propriétés du réseau de neurones quantiques peuvent être réalisées de manière plus abordable », ont-ils ajouté. « Malgré les avantages potentiels des réseaux de neurones quantiques, leur mise en œuvre pratique nécessite des circuits quantiques profonds avec de nombreuses portes multi-qubits et des mesures compliquées. Cela nécessite des ressources importantes pour stabiliser les circuits et corriger les erreurs, ce qui est techniquement difficile en raison des perturbations environnementales inévitables. Une alternative potentiellement meilleure consiste à trouver un système décrit par les mêmes mathématiques que la théorie quantique et moins perturbé par l’environnement. Les réseaux de neurones optiques corrélés proposés en sont un exemple, comme en témoignent la facilité d’agencement des éléments et les faibles exigences sur les circonstances dans nos expériences. Compte tenu de la croissance exponentielle des données et de la rareté des ressources pour un calcul de haute qualité, notre approche présente une solution rentable et performante qui pourrait avoir de nombreuses applications dans divers domaines de recherche en science des données. »

En synthèse

Les réseaux de neurones optiques corrélés représentent une avancée majeure dans le domaine de l’intelligence artificielle. En exploitant les corrélations optiques classiques comme support de l’information, cette approche innovante permet d’obtenir des performances similaires à celles des réseaux de neurones quantiques, tout en étant plus abordable et plus facile à mettre en œuvre. Les résultats prometteurs obtenus par l’équipe de chercheurs ouvrent de nouvelles perspectives pour le traitement de l’information à l’ère du Big Data, avec de nombreuses applications potentielles dans divers domaines de recherche en science des données.

Pour une meilleure compréhension

Qu’est-ce qu’un réseau de neurones optiques corrélés ?

Un réseau de neurones optiques corrélés est un nouveau type de réseau de neurones optiques capable de présenter une accélération analogue à celle d’un réseau de neurones quantiques, grâce à l’introduction de corrélations optiques classiques comme support de l’information.

Quels sont les avantages des réseaux de neurones optiques corrélés ?

Les réseaux de neurones optiques corrélés offrent des performances similaires aux réseaux de neurones quantiques, tout en étant plus abordables et plus faciles à mettre en œuvre. Ils nécessitent moins de ressources pour stabiliser les circuits et corriger les erreurs, ce qui les rend moins sensibles aux perturbations environnementales.

Comment les réseaux de neurones optiques corrélés traitent-ils l’information ?

Les réseaux de neurones optiques corrélés manipulent la corrélation des états optiques et génèrent des états corrélés plus simples en fusionnant les faisceaux. La partie convolution effectue des opérations unitaires sur l’état optique corrélé, tandis que la partie pooling mesure des qubits partiels pour obtenir un sous-espace de Hilbert, réduisant ainsi la dimension des données.

Quelles sont les applications potentielles des réseaux de neurones optiques corrélés ?

Les réseaux de neurones optiques corrélés pourraient avoir de nombreuses applications dans divers domaines de recherche en science des données, notamment dans le traitement de l’information à l’ère du Big Data. Ils offrent une solution rentable et performante pour faire face à la croissance exponentielle des données et à la rareté des ressources de calcul de haute qualité.

Quelles sont les perspectives futures pour les réseaux de neurones optiques corrélés ?

Les résultats prometteurs obtenus par l’équipe de chercheurs ouvrent de nouvelles voies pour la réalisation de réseaux de neurones optiques algorithmiquement améliorés. Les futures recherches pourraient se concentrer sur l’optimisation de ces réseaux et l’exploration de nouvelles applications dans divers domaines, afin de tirer pleinement parti de leur potentiel pour le traitement de l’information à l’ère du Big Data.

Références

Article : Correlated optical convolutional neural network with “quantum speedup” – DOI : s41377-024-01376-7

Un cristal révèle des secrets quantiques inédits

Un cristal révèle des secrets quantiques inédits

Des chercheurs américains ont fait une découverte remarquable dans le domaine des matériaux quantiques. Une équipe internationale de scientifiques, dirigée par des physiciens de Boston College, a mis en évidence l’existence de deux phases topologiques distinctes dans un cristal monocouche intrinsèque. Cette découverte ouvre de nouvelles perspectives dans l’exploration des propriétés uniques et inédites des matériaux quantiques.

Un cristal monocouche révèle des propriétés topologiques uniques

L’équipe de chercheurs a étudié des couches exceptionnellement fines de TaIrTe4, un matériau cristallin composé de tantale, d’iridium et de tellure. Chaque couche, d’une épaisseur inférieure à 1 nanomètre, a été soigneusement prélevée à partir d’un cristal plus grand en utilisant une méthode simple impliquant du ruban adhésif transparent, une technique largement utilisée en science des matériaux et récompensée par un prix Nobel.

L’objectif principal du projet était de tester la prédiction théorique selon laquelle la couche la plus fine de TaIrTe4 agit comme un isolant topologique bidimensionnel, également connu sous le nom d’isolant de Hall quantique de spin. Il s’agit d’un matériau novateur dont l’intérieur est isolant et l’électricité circule le long de ses frontières sans aucune perte d’énergie.

Dirigée par Qiong Ma, physicien au Boston College, une équipe internationale travaillant sur des cristaux épais d’un seul atome a découvert la transition du TaIrTe4 entre les deux états topologiques distincts de l’isolation et de la conduction. Le matériau présente une conductivité électrique nulle à l’intérieur, alors que ses limites restent conductrices. Les recherches de l’équipe ont permis de déterminer que les deux états topologiques ont des origines différentes. Ces nouvelles propriétés peuvent servir de plate-forme prometteuse pour l’exploration des phases quantiques exotiques et de l’électromagnétisme. Crédit : Qiong Ma, Boston College

Découverte inattendue de deux états topologiques distincts

En manipulant des paramètres spécifiques, appelés tensions de grille, l’équipe a découvert la transition de TaIrTe4 entre deux états topologiques distincts. Dans les deux cas, le matériau présente une conductivité électrique nulle à l’intérieur, tandis que ses frontières restent conductrices.

Qiong Ma, professeur adjoint de physique à Boston College et auteur principal du rapport, a déclaré : « Ce qui est particulièrement intrigant, c’est notre découverte non pas d’un seul, mais de deux états isolants topologiques, au-delà des prédictions de la théorie. »

Les chercheurs ont déterminé, grâce à une investigation expérimentale et théorique systématique, que ces deux états topologiques proviennent d’origines disparates. Cette découverte introduit un nouvel effet que l’équipe appelle l’isolant topologique dual ou l’isolant de Hall quantique de spin dual.

Un comportement inattendu qui ouvre de nouvelles perspectives

Typiquement, l’ajout d’électrons à un matériau augmente sa conductivité en raison du plus grand nombre de porteurs de charge ou d’électricité. Cependant, au-delà d’un certain point, l’ajout d’électrons supplémentaires a rendu l’intérieur isolant de manière inattendue, avec une conduction électrique uniquement aux frontières et sans perte d’énergie.

Les chercheurs prévoient de collaborer avec des groupes spécialisés dans d’autres techniques, comme les sondes d’imagerie à l’échelle nanométrique, pour mieux comprendre ce comportement inattendu. Ils se concentreront également sur l’amélioration de la qualité du matériau pour optimiser la conduction topologique sans dissipation déjà impressionnante.

Cette découverte ouvre de nouvelles perspectives dans l’exploration des propriétés exotiques des matériaux quantiques et offre une plateforme prometteuse pour l’étude des phases quantiques et de l’électromagnétisme. Les chercheurs envisagent également de construire des hétérostructures basées sur ce nouveau matériau pour débloquer des comportements physiques encore plus intrigants.

« Nous nous attacherons également à affiner la qualité de notre matériau afin d’améliorer la conduction topologique sans dissipation, déjà impressionnante », a déclaré M. Ma. « En outre, nous prévoyons de construire des hétérostructures basées sur ce nouveau matériau afin d’obtenir des comportements physiques encore plus intrigants. »

Article : “Dual quantum spin Hall insulator by density-tuned correlations in TaIrTe4” – DOI: 10.1038/s41586-024-07211-8

Légende illustration : Dirigée par Qiong Ma, physicien au Boston College, une équipe internationale travaillant sur des cristaux épais d’un seul atome a découvert la transition du TaIrTe4 entre les deux états topologiques distincts de l’isolation et de la conduction. Le matériau présente une conductivité électrique nulle à l’intérieur, alors que ses limites restent conductrices. Les recherches de l’équipe ont permis de déterminer que les deux états topologiques ont des origines différentes. Ces nouvelles propriétés peuvent servir de plateforme prometteuse pour l’exploration des phases quantiques exotiques et de l’électromagnétisme. Crédit : Qiong Ma, Boston College

Des chimistes modifient la technologie solaire pour produire un gaz à effet de serre moins nocif

Des chimistes modifient la technologie solaire pour produire un gaz à effet de serre moins nocif

Les chercheurs du département de chimie de l’UNC-Chapel Hill explorent des pistes novatrices pour exploiter l’énergie solaire et la convertir en composés à haute énergie, ouvrant ainsi la porte à la production de carburants respectueux de l’environnement. L’approche envisagé pourrait bien être une pièce maîtresse dans le puzzle de la transition énergétique.

Dans leur article intitulé les chercheurs détaillent comment ils utilisent un procédé appelé “terminaison méthyle“. Cette technique consiste à modifier la surface du silicium, un composant essentiel des cellules solaires, à l’aide d’un composé organique simple constitué d’un atome de carbone lié à trois atomes d’hydrogène. L’objectif est d’améliorer les performances du silicium dans la conversion du dioxyde de carbone en monoxyde de carbone en utilisant la lumière du soleil.

Ces travaux, soutenus par le Center for Hybrid Approaches in Solar Energy to Liquid Fuels (CHASE), un pôle d’innovation énergétique financé par le Département de l’Énergie des États-Unis, s’inspirent d’un processus appelé « photosynthèse artificielle ». Celui-ci imite la façon dont les plantes utilisent la lumière du soleil pour convertir le dioxyde de carbone en molécules riches en énergie.

Vers une atténuation de l’impact environnemental du CO2

Le dioxyde de carbone est un gaz à effet de serre majeur contribuant au changement climatique. En le convertissant en monoxyde de carbone, un gaz à effet de serre moins nocif et un élément de base pour des carburants plus complexes, les chercheurs affirment pouvoir potentiellement atténuer l’impact environnemental des émissions de CO2.

Gabriella Bein, première auteure de l’article et doctorante en chimie, souligne l’un des défis de l’énergie solaire : « Elle n’est pas toujours disponible lorsque nous en avons le plus besoin ». Elle ajoute : « Un autre défi est que l’électricité renouvelable, comme celle des panneaux solaires, ne fournit pas directement les matières premières nécessaires à la fabrication de produits chimiques. Notre objectif est de stocker l’énergie solaire sous forme de carburants liquides qui pourront être utilisés ultérieurement. »

Catalyseur moléculaire au ruthénium pour une conversion efficace

L’équipe de recherche a utilisé un catalyseur moléculaire au ruthénium associé à un morceau de silicium chimiquement modifié, appelé photoélectrode. Ce dispositif a facilité la conversion du dioxyde de carbone en monoxyde de carbone en utilisant l’énergie lumineuse, sans produire de sous-produits indésirables tels que l’hydrogène gazeux, rendant ainsi le processus plus efficace pour convertir le CO2 en d’autres substances.

Jillian Dempsey, co-auteure de l’article et professeure distinguée Bowman et Gordon Gray, indique que lors d’expériences menées dans une solution remplie de dioxyde de carbone, ils ont pu produire du monoxyde de carbone avec une efficacité de 87%. Cela signifie que le système utilisant les photo-électrodes en silicium modifié est comparable, voire supérieur, aux systèmes utilisant des électrodes métalliques traditionnelles, comme l’or ou le platine.

Une réduction significative de l’énergie électrique nécessaire

De plus, la photoélectrode en silicium a nécessité 460 millivolts d’énergie électrique en moins pour produire une réaction par rapport à ce qui aurait été nécessaire en utilisant uniquement de l’électricité. Jillian Dempsey qualifie cela de significatif, car le processus utilise la collecte directe de la lumière pour compléter ou compenser l’énergie requise pour conduire la réaction chimique qui convertit le dioxyde de carbone en monoxyde de carbone.

« Ce qui est intéressant, c’est que normalement, les surfaces en silicium produisent de l’hydrogène gazeux au lieu du monoxyde de carbone, ce qui rend plus difficile la production de ce dernier à partir du dioxyde de carbone », explique Jillian Dempsey, également directrice adjointe de CHASE.

« En utilisant cette surface spéciale de silicium à terminaison méthyle, nous avons pu éviter ce problème. La modification de la surface du silicium rend le processus de conversion du CO2 en monoxyde de carbone plus efficace et sélectif, ce qui pourrait être vraiment utile pour fabriquer des carburants liquides à partir de la lumière du soleil à l’avenir. »

Article : “Methyl Termination of p-Type Silicon Enables Selective Photoelectrochemical CO2 Reduction by a Molecular Ruthenium Catalyst” – DOI : 10.1021/acsenergylett.4c00122

Ces travaux, fruit d’une collaboration entre Bein, Dempsey, le professeur Alexander Miller, Eric Assaf (ancien étudiant diplômé du département), Renato Sampaio (chercheur principal), Madison Stewart (étudiante en chimie) et Stephen Tereniak (chercheur principal), s’inscrivent dans le cadre du projet CHASE. Ce consortium, composé de sept institutions différentes et dont le siège est à l’UNC-Chapel Hill, a reçu 40 millions de dollars de financement du Département de l’Énergie en 2020 pour accélérer la recherche fondamentale sur les moyens de produire des carburants à partir de la lumière du soleil.

Quand l’IA s’attaque au casse-tête de l’emballage des produits en ligne

Quand l'IA s'attaque au casse-tête de l'emballage des produits en ligne

Le commerce en ligne connaît une croissance exponentielle, mais cette expansion s’accompagne d’un défi majeur : l’optimisation de l’emballage des produits expédiés. Les chercheurs de l’Institut Fraunhofer pour la logistique et le flux de matériaux (IML) ont développé un logiciel innovant, CASTN, qui vise à résoudre ce problème en calculant la combinaison optimale entre les commandes et les cartons d’expédition.

Les produits commandés en ligne sont souvent expédiés dans des cartons surdimensionnés, avec un volume global bien supérieur à celui de leur contenu. Par exemple, un flacon de parfum peut se retrouver dans un emballage de la taille d’une boîte à chaussures, avec du rembourrage pour combler l’espace vide. Cette pratique n’est pas durable et génère un gaspillage important de matériaux d’emballage.

Avec la diversification croissante des produits et la variabilité de la structure des commandes, la gamme de cartons d’expédition ne cesse de s’élargir. Bien que les types d’emballages disponibles soient de plus en plus diversifiés, dans de nombreux cas, le degré d’utilisation du volume diminue. Les articles nécessitant peu d’emballage, comme les parfums, les cosmétiques et les bijoux, se retrouvent dans des cartons surdimensionnés.

CASTN, un logiciel d’optimisation innovant

Pour remédier à ce problème, les chercheurs de l’Institut Fraunhofer IML ont développé le logiciel CASTN (Carton Set Optimization), financé par le Centre d’excellence Fraunhofer pour la logistique et l’informatique. CASTN compose l’ensemble de cartons optimal pour la structure individuelle des articles et des commandes des entreprises d’expédition.

Lukas Lehmann, chercheur à l’Institut Fraunhofer IML, explique : «Si un détaillant souhaite utiliser un ensemble de dix cartons différents à ses postes d’emballage, ils doivent être adaptés à la structure des commandes et des articles afin d’obtenir la meilleure utilisation possible du volume. Les produits doivent remplir au maximum le volume du carton afin d’utiliser le moins de rembourrage possible (par exemple, du papier bulle).»

Un fonctionnement basé sur deux algorithmes complémentaires

CASTN fonctionne à l’aide de deux algorithmes : le premier utilise une approche évolutive pour créer différents ensembles de cartons sur la base de paramètres tels que le nombre de cartons autorisés ou les dimensions maximales et minimales. Le second, un algorithme de bin-packing, veille à ce que les commandes soient emballées efficacement dans les cartons sélectionnés.

L’objectif est de minimiser le volume d’emballage et d’obtenir le plus petit volume global possible. À la fin de ce processus, le logiciel évalue chaque carton d’un ensemble, en vérifiant dans quelle mesure la capacité interne est remplie par la commande qu’il contient. Cette information est réinjectée dans l’algorithme évolutif, qui utilise le score de chaque carton pour créer de nouveaux ensembles plus performants.

Des résultats prometteurs pour les partenaires industriels

Plusieurs partenaires industriels, chacun ayant sa propre activité de vente au détail en ligne, ont déjà bénéficié de l’optimisation des ensembles de cartons et ont augmenté leur utilisation de volume de 35 à 45 %, tout en réduisant le nombre de types de cartons utilisés.

Lukas Lehmann souligne : «Les clients ne sont souvent pas conscients de l’utilisation du volume de leurs emballages, qui n’est fréquemment que d’environ 30 %. Ils n’ont aucune idée de la quantité d’air qu’ils envoient. C’est ce que notre logiciel calcule.»

Vers un e-commerce plus éco-responsable

Dans la prochaine étape, Lukas Lehmann et son équipe souhaitent étendre les fonctionnalités du logiciel pour inclure des formes d’articles complexes et des caractéristiques d’articles supplémentaires.

« Nous voulons que CASTN augmente la durabilité dans la logistique. Les matériaux d’emballage et de rembourrage peuvent être réduits grâce à des ensembles de cartons coordonnés de manière optimale. Cela se traduira par un meilleur chargement des camions ainsi que par une réduction des émissions de CO2 et peut également éviter les espaces perdus », précise Lukas Lehmann.

En utilisant CASTN, les entreprises expédiant des produits peuvent faire une différence pour la planète tout en économisant sur les coûts d’emballage et de transport. Cette solution innovante ouvre la voie à un e-commerce plus éco-responsable, conciliant efficacité logistique et préservation de l’environnement.

Légende illustration : Avec l’aide du logiciel d’optimisation CASTN, les sociétés d’expédition peuvent sélectionner l’ensemble de cartons optimal pour chaque article et chaque structure de commande. Crédit : © Fraunhofer IML

Création de câbles silencieux pour les événements physiques rares

Création de câbles silencieux pour les événements physiques rares

Les expériences de physique ultra-sensibles nécessitent des niveaux extrêmement faibles de radioactivité ambiante pour détecter des événements rares. Les chercheurs ont développé de nouveaux câbles sur mesure à faible radioactivité, ouvrant la voie à des recherches plus précises sur la matière noire et la désintégration double bêta sans neutrino.

La science derrière les câbles à faible radioactivité

La radioactivité de fond, présente dans tout, de la poussière à l’environnement, peut interférer avec les expériences de physique ultra-sensibles. Cela inclut la radioactivité naturelle des câbles et de l’électronique qui détectent les signaux. Pour réduire la quantité de rayonnement de fond provenant des câbles, les scientifiques ont systématiquement examiné les contaminants radioactifs introduits lors de la production des câbles.

Ils ont ensuite identifié des méthodes alternatives pour nettoyer et préparer les câbles afin de réduire les niveaux de contamination. Cela a permis d’obtenir des câbles contenant 10 à 100 fois moins d’isotopes radioactifs naturels uranium-238 et thorium-232 que les câbles commerciaux. Ces niveaux sont suffisamment bas pour être utilisés dans des expériences de physique ultra-sensibles.

L’impact des câbles à faible radioactivité sur la recherche

Certaines expériences de physique, comme la recherche de la désintégration double bêta sans neutrino ou de la matière noire, cherchent à détecter des événements extrêmement rares. La découverte de ces événements pourrait aider les scientifiques à comprendre l’origine et la nature de la matière dans l’univers.

Toutefois, les contaminants radioactifs dans ces détecteurs peuvent imiter les signaux insaisissables que les physiciens recherchent, même à des concentrations aussi faibles qu’une partie par milliard. Les chercheurs ont besoin de câbles pour extraire les signaux de ces détecteurs, mais les câbles commerciaux ne répondent pas aux normes de la prochaine génération de détecteurs.

Cette recherche a conduit à de nouveaux câbles personnalisés à faible radioactivité. Ces câbles peuvent augmenter la sensibilité de ces expériences en réduisant la quantité de radioactivité interférente. Ils permettent également aux chercheurs de déployer des capteurs supplémentaires dans le détecteur.

Le développement de câbles à faible radioactivité

Des chercheurs du Pacific Northwest National Laboratory (PNNL), en collaboration avec leur partenaire commercial Q-Flex Inc., ont étudié les niveaux de contamination radioactive dans les processus de fabrication des câbles en utilisant de petits «coupons» détachables qui agissent comme substituts des câbles.

À chaque étape du processus, les scientifiques ont retiré un coupon individuel d’un panneau pour l’analyser par spectrométrie de masse à plasma à couplage inductif (ICP-MS), une technique hautement sensible mais destructive permettant de détecter des sous-parties par billion d’uranium-238 et de thorium-232.

Leurs résultats ont révélé que, même en commençant avec des matériaux radiopurs soigneusement sélectionnés, des contaminants radioactifs étaient introduits via des solutions chimiques lors des étapes de photolithographie et de placage. Le PNNL et Q-Flex ont exploré de nouvelles techniques de fabrication ainsi que des matériaux de substitution et ont développé une recette de nettoyage pour réduire la contamination radioactive en uranium-238 et thorium-232 à quelques dizaines de parties par billion.

Une fois les principales étapes de contamination et les méthodes alternatives appropriées identifiées, les scientifiques ont produit deux ensembles de câbles entièrement fonctionnels en utilisant le nouveau processus de fabrication à faible bruit de fond. Ces câbles représentent les types qui seront utilisés dans les expériences prévues de désintégration double bêta sans neutrino nEXO et de matière noire DAMIC-M.

Les câbles résultants ont des niveaux de radiation extrêmement faibles, à environ 10-30 parties par billion d’uranium-238 et de thorium-232. Ces câbles «silencieux» permettront des recherches plus sensibles d’événements extrêmement rares tels que la désintégration double bêta sans neutrino et les interactions de matière noire.

Légende illustration : Isaac Arnquist, chimiste au Pacific Northwest National Laboratory, examine les “coupons” de câbles en cuivre à très faible rayonnement spécialement créés pour les expériences sensibles de détection de la physique. Crédit : Andrea Starr, Pacific Northwest National Laboratory

Ammoniac vert : 60% moins cher grâce à un nouveau procédé au lithium

Ammoniac vert : 60% moins cher grâce à un nouveau procédé au lithium

La production d’ammoniac, un composé chimique largement utilisé dans divers secteurs industriels, fait face à des défis environnementaux majeurs en raison de son impact significatif sur les émissions de carbone. Une équipe d’ingénieurs de l’Université de l’Illinois à Chicago, dirigée par le professeur Meenesh Singh, a développé un nouveau procédé de synthèse d’ammoniac prometteur, répondant à plusieurs critères de durabilité.

Un procédé innovant basé sur le lithium

Le procédé, appelé synthèse d’ammoniac médiée par le lithium, combine du diazote et un fluide donneur d’hydrogène, comme l’éthanol, avec une électrode de lithium chargée. Contrairement aux méthodes conventionnelles nécessitant des températures et des pressions élevées pour dissocier les molécules de diazote, les atomes d’azote adhèrent au lithium, puis se combinent avec l’hydrogène pour former la molécule d’ammoniac.

L’un des avantages majeurs de cette réaction est qu’elle fonctionne à basse température. De plus, elle est régénérative, restaurant les matériaux d’origine à chaque cycle de production d’ammoniac. Selon le professeur Singh, « il y a une symphonie dans cette réaction, en raison du processus cyclique. Ce que nous avons fait, c’est de mieux comprendre cette symphonie et d’essayer de la moduler de manière très efficace, afin de créer une résonance et de la faire avancer plus rapidement. »

Les ingénieurs de l’UIC ont mis au point un nouveau processus de création d’ammoniac qui pourrait être plus respectueux de l’environnement. L’ammoniac est un ingrédient clé de nombreux produits, tels que les engrais, les colorants et les explosifs. Mais sa fabrication nécessite beaucoup de chaleur et d’énergie, ce qui libère de grandes quantités de carbone dans l’atmosphère.

Des résultats prometteurs en termes d’efficacité et de coût

Les résultats obtenus par l’équipe du professeur Singh figurent parmi les premiers à atteindre des niveaux de sélectivité et d’utilisation d’énergie répondant aux normes du Département de l’Énergie des États-Unis pour la production d’ammoniac à l’échelle industrielle. Si le procédé était mis à l’échelle, il permettrait de produire de l’ammoniac à environ 450 dollars par tonne, soit 60 % moins cher que les approches précédentes basées sur le lithium et d’autres méthodes vertes proposées.

De plus, le procédé peut être rendu encore plus écologique en l’alimentant avec de l’électricité provenant de panneaux solaires ou d’autres sources renouvelables, et en utilisant de l’air et de l’eau pour la réaction. Le professeur Singh souligne également que l’ammoniac produit pourrait servir de vecteur d’hydrogène, facilitant ainsi le transport et l’utilisation de l’hydrogène comme carburant.

Vers une mise à l’échelle industrielle

Actuellement, les scientifiques collaborent avec la société General Ammonia Co. pour piloter et mettre à l’échelle leur procédé de synthèse d’ammoniac médiée par le lithium dans une usine de la région de Chicago. L’Office de gestion de la technologie de l’UIC a déposé un brevet pour ce procédé innovant.

Cette percée dans la production d’ammoniac ouvre le chemin à une industrie chimique plus durable et respectueuse de l’environnement, tout en offrant de nouvelles perspectives pour l’utilisation de l’hydrogène comme carburant propre.

Légende illustration : Cet art graphique illustre la conversion de N2 en ammoniac par l’intermédiaire du lithium. On y voit une symphonie de réactions se produisant sur un lithium électro-déposé (tuiles noires). Sous haute pression, l’azote (ajout de blocs bleus) est chimisorbé sur le lithium, suivi d’une protonation (ajout de blocs blancs) pour former NHx, ce qui conduit finalement à l’ammoniac et à la récupération du lithium. Le processus cyclique crée un rythme catalytique produisant de l’ammoniac. Cette recherche met en évidence l’importance de la pression et du potentiel dans le contrôle de la structure et de la stabilité de l’interface solide-électrolyte pour la synthèse de l’ammoniac. Crédit : Crystal Price & Joseph Gauthier, Texas Tech University; Meenesh Singh, University of Illinois Chicago

SwRI construit l’avenir du ravitaillement spatial avec l’APS-R

SwRI construit l'avenir du ravitaillement spatial avec l'APS-R

Alors que les projets d’exploration spatiale s’accélèrent, des innovations technologiques permettraient de prolonger la durée de vie des engins spatiaux en orbite.

Le Southwest Research Institute (SwRI) s’apprête à construire, intégrer et tester un petit vaisseau spatial de démonstration dans le cadre d’un projet de prototypage de mobilité et de logistique spatiales (SML) d’une valeur de 25,5 millions de dollars, financé par la Force spatiale américaine et dirigé par le contractant principal Astroscale U.S.

Un vaisseau spatial pour ravitailler en orbite géostationnaire

Le vaisseau spatial, baptisé Astroscale Prototype Servicer for Refueling (APS-R) ou en français Prototype de serviteur de ravitaillement en carburant à l’échelle de l’astronef, sera chargé de ravitailler d’autres véhicules compatibles en orbite géostationnaire.

Selon Steve Thompson, ingénieur de projet chez SwRI, l’épuisement du carburant est un problème courant pour les engins spatiaux en orbite terrestre, mettant fin à leur mission même si le véhicule est en excellent état. Un véhicule de ravitaillement peut prolonger ces missions et offrir une durée de vie supplémentaire aux engins spatiaux déjà en orbite.

L’APS-R opérera en orbite géostationnaire autour de la Terre, suivant une orbite circulaire synchronisée avec la période de rotation de la Terre de 24 heures. Le vaisseau spatial transportera de l’hydrazine depuis un dépôt, également en orbite géostationnaire, jusqu’au vaisseau spatial ayant besoin de carburant. L’APS-R pourra desservir tout engin spatial équipé d’un port de ravitaillement compatible.

Une alternative flexible pour prolonger la durée de vie des engins

Récemment, d’autres approches pour prolonger la durée de vie des engins spatiaux ont émergé, comme un véhicule capable d’utiliser ses propulseurs pour pousser un autre engin spatial là où il doit aller après avoir épuisé son carburant. Un véhicule de ravitaillement élargit les options de prolongation de vie avec une alternative flexible.

Au cours des 16 prochains mois, SwRI construira le véhicule hôte de l’APS-R dans sa nouvelle installation de traitement des engins spatiaux et des charges utiles de 74 000 pieds carrés (ou 6 874 M2), créée pour répondre rapidement aux besoins des clients en matière de conception, d’assemblage et de test d’engins spatiaux, en particulier de petits satellites.

Caractéristiques techniques et calendrier de lancement

Selon Steve Thompson, les dimensions maximales de l’APS-R seront de 24 x 28 x 45 pouces une fois replié pour le lancement, et la masse totale du véhicule au lancement sera de 437 livres (ou 200 Kg), propergol compris.

Une fois le bus du vaisseau spatial hôte terminé, SwRI intégrera la charge utile fournie par Astroscale et effectuera des tests environnementaux au niveau du système pour préparer le véhicule au lancement. SwRI livrera l’APS-R prêt au lancement d’ici 2026.

Légende illustration : Le Southwest Research Institute (SwRI) construira, intégrera et testera un petit engin spatial de démonstration dans le cadre d’un projet de prototypage Space Mobility and Logistics (SML) de 25,5 millions de dollars financé par l’U.S. Space Force et dirigé par le maître d’œuvre Astroscale U.S. L’engin spatial, appelé Astroscale Prototype Servicer for Refueling (APS-R), sera capable de ravitailler d’autres véhicules lorsqu’il se trouvera en orbite géostationnaire. Crédit : Astroscale US

Découverte d’un électrolyte solide stable et ultra-conducteur pour batteries

Découverte d'un électrolyte solide stable et ultra-conducteur pour batteries

Les batteries lithium-ion à l’état solide avec des électrolytes solides offrent des avantages significatifs en termes de sécurité et de densité énergétique par rapport aux batteries conventionnelles à électrolyte liquide. Le développement de ces batteries se heurte à des défis majeurs, notamment en ce qui concerne la conductivité ionique et la stabilité des électrolytes solides.

Dans une étude, une équipe de recherche dirigée par le professeur Kenjiro Fujimoto et le professeur Akihisa Aimi de l’Université des sciences de Tokyo, ainsi que le Dr Shuhei Yoshida de Denso Corp. a découvert un conducteur ionique lithium stable et hautement conducteur sous la forme d’un oxyfluorure de type pyrochlore.

Selon le professeur Fujimoto, « La fabrication de batteries lithium-ion secondaires à l’état solide a longtemps été un rêve pour de nombreux chercheurs dans le domaine des batteries. Nous avons découvert un électrolyte solide à base d’oxyde qui est un composant clé des batteries lithium-ion à l’état solide, offrant à la fois une haute densité énergétique et une sécurité accrue. En plus d’être stable à l’air, ce matériau présente une conductivité ionique supérieure à celle des électrolytes solides à base d’oxyde précédemment rapportés. »

Caractérisation et performances du nouvel électrolyte solide

L’oxyfluorure de type pyrochlore étudié dans ce travail peut être désigné par la formule Li2-xLa(1+x)/3M2O6F (M = Nb, Ta). Il a fait l’objet d’une analyse structurale et compositionnelle à l’aide de diverses techniques, notamment la diffraction des rayons X, l’analyse de Rietveld, la spectrométrie d’émission optique à plasma à couplage inductif et la diffraction électronique en aire sélectionnée.

Plus précisément, le composé Li1.25La0.58Nb2O6F a été développé, démontrant une conductivité ionique en volume de 7,0 mS cm⁻¹ et une conductivité ionique totale de 3,9 mS cm⁻¹ à température ambiante. Ces valeurs sont supérieures à la conductivité des ions lithium des électrolytes solides à base d’oxyde connus. L’énergie d’activation de la conduction ionique de ce matériau est extrêmement faible, et sa conductivité ionique à basse température est l’une des plus élevées parmi les électrolytes solides connus, y compris les matériaux à base de sulfure.

Mécanisme de conduction des ions lithium dans le nouveau matériau

Le mécanisme de conduction des ions Li dans ce matériau a été étudié. Le chemin de conduction de la structure de type pyrochlore couvre les ions F situés dans les tunnels créés par les octaèdres MO6.

Le mécanisme de conduction est le mouvement séquentiel des ions Li tout en changeant les liaisons avec les ions F. Les ions Li se déplacent vers la position Li la plus proche en passant toujours par des positions métastables. Les ions La3+ immobiles liés aux ions F inhibent la conduction des ions Li en bloquant le chemin de conduction et en faisant disparaître les positions métastables environnantes.

Contrairement aux batteries lithium-ion secondaires existantes, les batteries tout solide à base d’oxyde ne présentent aucun risque de fuite d’électrolyte en cas de dommage et aucun risque de génération de gaz toxique comme avec les batteries à base de sulfure. Par conséquent, cette nouvelle innovation devrait orienter les recherches futures.

Perspectives d’application et de recherche future

Selon le professeur Fujimoto, « Le matériau nouvellement découvert est sûr et présente une conductivité ionique supérieure à celle des électrolytes solides à base d’oxyde précédemment rapportés. L’application de ce matériau est prometteuse pour le développement de batteries révolutionnaires capables de fonctionner dans une large gamme de températures, des basses aux hautes températures. Nous pensons que les performances requises pour l’application des électrolytes solides aux véhicules électriques sont satisfaites. »

Il est important de noter que le nouveau matériau est très stable et ne s’enflamme pas s’il est endommagé. Il convient aux avions et autres endroits où la sécurité est cruciale. Il est également adapté aux applications à haute capacité, telles que les véhicules électriques, car il peut être utilisé à des températures élevées et permet une recharge rapide. De plus, il est également un matériau prometteur pour la miniaturisation des batteries, des appareils électroménagers et des dispositifs médicaux.

Les chercheurs ont non seulement découvert un conducteur d’ions Li à haute conductivité et stable à l’air, mais ont également introduit un nouveau type de conducteur superionique avec un oxyfluorure de type pyrochlore. L’exploration de la structure locale autour du lithium, de leurs changements dynamiques pendant la conduction et de leur potentiel en tant qu’électrolytes solides pour les batteries tout solide sont des domaines importants pour les recherches futures.

Article : “High Li-ion conductivity in pyrochlore-type solid electrolyte Li2-xLa(1+x)/3M2O6F (M = Nb, Ta)” – DOI: 10.1021/acs.chemmater.3c03288

La photonique intégrée rassemble plus de 400 acteurs mondiaux de la technologie

La photonique intégrée rassemble plus de 400 acteurs mondiaux de la technologie

L’intégration de la photonique avec l’électronique devrait autoriser une nouvelle génération de dispositifs plus compacts, rapides et éco-énergétiques. Cette intégration promet d’élargir les fonctionnalités et de créer de nombreuses applications innovantes, permettant des avancées majeures dans des domaines comme les véhicules autonomes, les télécommunications de données et la santé.

Un nouveau plan directeur intégré pour la photonique, fruit de la collaboration de plus de 400 organisations technologiques, académiques et industrielles du monde entier, vient d’être publié.

Sous la direction du Microphotonics Center du MIT et de la fondation PhotonDelta, la feuille de route IPSR-I (Integrated Photonics System Roadmap – International) identifie les principales lacunes technologiques qui, une fois comblées, permettront à la photonique intégrée de révolutionner des industries telles que la communication sans fil, l’imagerie 3D, les télécommunications de données et la détection.

Comme l’explique Lionel Kimerling, professeur de science et d’ingénierie des matériaux au MIT et directeur par intérim du Materials Research Laboratory de l’institut : « L’intégration électronique-photonique a la capacité de transformer radicalement toute une série d’industries et de débloquer une gamme de nouvelles technologies qui changeront nos vies. La transition de cette vision vers une fabrication à grand volume nécessite un plan bien pensé, basé sur les connaissances d’un large éventail d’experts issus de différents domaines, organisations et nations. C’est ce que IPSR-I a réalisé – il décrit une voie claire à suivre et spécifie une courbe d’apprentissage innovante pour l’évolution des performances et des applications au cours des 15 prochaines années. »

Peter van Arkel, directeur technique de PhotonDelta, souligne l’importance de rassembler toutes les ressources de recherche et développement de l’industrie et du monde universitaire de la photonique intégrée pour résoudre les lacunes technologiques identifiées par IPSR-I. Cela contribuera à relever les grands défis sociétaux de manière spectaculaire.

Au cœur de la feuille de route se trouve une approche globale derrière laquelle l’industrie de la photonique intégrée peut se rallier pour relever les défis fondamentaux. IPSR-I appelle à établir et à maintenir un réseau mondial de partenaires industriels et de R&D basé sur la confiance, qui travaillent ensemble pour créer la technologie des circuits photoniques intégrés (PIC) et les exigences des systèmes. En alignant l’ensemble de la chaîne d’approvisionnement, de la recherche aux utilisateurs finaux, l’industrie de la photonique intégrée sera en mesure de stimuler la fabrication en volume des PIC.

IPSR-I décrit le consensus de plus de 400 organisations, dont Airbus, Meta, NASA, Dupont Electronics, General Motors, l’Agence spatiale européenne et VodafoneZiggo, issu de plus de 100 ateliers et 13 conférences. Il comprend un aperçu complet des principales lacunes technologiques pour la fabrication en volume des PIC et une analyse détaillée des défis que l’industrie de la photonique intégrée doit surmonter pour réaliser son potentiel.

Le MIT Microphotonics Center dirige la création de ces versions de feuille de route depuis 1997 et s’est récemment associé à PhotonDelta. Il s’agit de la deuxième version de la feuille de route conjointe. Élaborée au cours des trois dernières années, elle inclut désormais des informations sur la communication sans fil et l’imagerie 3D.

La feuille de route complète peut être téléchargée à cette adresse : www.photondelta.com/ipsri-2024/

100 kilomètres de transfert crypté quantique

100 kilomètres de transfert crypté quantique

La sécurité des communications numériques est un enjeu majeur à l’ère du développement des ordinateurs quantiques. Les chercheurs du DTU ont franchi une étape importante dans la mise au point d’une méthode de cryptage quantique permettant de sécuriser les échanges de données sur de longues distances, ouvrant ainsi la voie à une protection renforcée des informations sensibles.

Les chercheurs du DTU sont parvenus à distribuer une clé quantique sécurisée en utilisant la méthode de distribution de clés quantiques à variables continues (CV QKD) sur une distance record de 100 km, la plus longue jamais atteinte avec cette technique. L’avantage de cette méthode réside dans sa compatibilité avec l’infrastructure Internet existante, ce qui facilite son déploiement à grande échelle.

Tobias Gehring, professeur associé au DTU, explique : « Nous avons réalisé de nombreuses améliorations, notamment en ce qui concerne la perte de photons le long du trajet. Dans cette expérience, publiée dans Science Advances, nous avons distribué de manière sécurisée une clé quantique cryptée sur 100 kilomètres via un câble à fibre optique. C’est une distance record avec cette méthode. »

La distribution de clés quantiques (QKD) est une technologie avancée sur laquelle travaillent les chercheurs pour sécuriser les échanges de clés cryptographiques. Cette technologie exploite les propriétés quantiques des photons pour créer une clé unique partagée entre l’expéditeur et le destinataire. Toute tentative d’interception ou de mesure des photons dans un état quantique modifie instantanément leur état, rendant impossible la copie de la clé sans altération du signal.

« Il est impossible de faire une copie d’un état quantique, comme lorsqu’on fait une copie d’une feuille A4 – si on essaie, ce sera une copie de qualité inférieure. C’est ce qui garantit qu’il n’est pas possible de copier la clé. Cela peut protéger les infrastructures critiques telles que les dossiers de santé et le secteur financier contre le piratage », précise Tobias Gehring.

La technologie CV QKD peut être intégrée à l’infrastructure Internet existante, basée sur la communication optique via des câbles à fibre optique. « L’avantage d’utiliser cette technologie est que nous pouvons construire un système qui ressemble à ce sur quoi repose déjà la communication optique », souligne Tobias Gehring. Cette compatibilité facilite l’implémentation de la CV QKD et réduit significativement les coûts associés.

Pour accroître la distance de transmission des clés quantiques, les chercheurs ont dû s’attaquer à trois facteurs limitants : le bruit, les erreurs et les imperfections matérielles. L’apprentissage automatique a permis de détecter plus tôt les perturbations affectant le système, tandis que des améliorations ont été apportées pour corriger plus efficacement les erreurs survenant lors de la transmission.

Fort de ces avancées, Tobias Gehring et son équipe prévoient d’établir un réseau de communication sécurisé entre les ministères danois et de générer des clés secrètes entre Copenhague et Odense pour permettre aux entreprises ayant des succursales dans les deux villes d’établir une communication quantique sûre.

Légende illustration : Le câble de fibre optique de 100 kilomètres par lequel une équipe de chercheurs de DTU a réussi à distribuer en toute sécurité une clé à chiffrement quantique. Photo : DTU

Qubits d’arsenic : la nouvelle piste pour l’informatique quantique

Qubits d'arsenic : la nouvelle piste pour l'informatique quantique

Des chercheurs britanniques ont franchi une étape cruciale dans la fabrication de ordinateurs quantiques, en développant un processus permettant de positionner des atomes uniques dans un réseau de silicium avec une précision proche de 100%. Cette avancée pourrait permettre de concevoir des ordinateurs quantiques capables de résoudre les problèmes les plus complexes, bien que des défis d’ingénierie substantiels doivent encore être surmontés pour concrétiser cette ambition.

Selon une nouvelle étude publiée dans Advanced Materials, des ingénieurs et physiciens de l’UCL ont mis au point un processus de fabrication permettant de positionner des atomes uniques dans un réseau avec un taux d’échec proche de zéro. Il s’agit de la première tentative réussie de positionner de manière fiable des atomes uniques dans un réseau depuis que l’idée a été proposée il y a 25 ans.

La précision proche de 100% et la possibilité de passer à l’échelle de cette approche soulèvent la possibilité de construire un ordinateur quantique capable de s’attaquer aux problèmes les plus complexes du monde, bien que des défis d’ingénierie substantiels doivent encore être surmontés pour concrétiser cette ambition.

En théorie, l’informatique quantique a le potentiel de résoudre des problèmes complexes que les ordinateurs «classiques» binaires à base de transistors ne pourront jamais résoudre. Une façon de créer les portes d’un ordinateur quantique universel, appelées qubits (bits quantiques), consiste à placer des atomes uniques dans du silicium, refroidis à des températures extrêmement basses pour maintenir leurs propriétés quantiques stables.

Ces qubits peuvent ensuite être manipulés avec des signaux électriques et magnétiques pour traiter l’information, de la même manière qu’un transistor binaire dans un ordinateur classique est manipulé pour produire un zéro ou un un. Cela permet à l’ordinateur d’exploiter la puissance de la mécanique quantique, les lois profondes de la physique qui déterminent le fonctionnement de l’univers, notamment des phénomènes tels que la superposition ou l’intrication quantique.

Dans cette étude, les chercheurs de l’UCL ont émis l’hypothèse que l’arsenic pourrait être un meilleur matériau que le phosphore pour atteindre le faible taux d’échec nécessaire à la construction d’un ordinateur quantique. Ils ont utilisé un microscope capable d’identifier et de manipuler des atomes uniques pour insérer précisément des atomes d’arsenic dans un cristal de silicium.

Ils ont ensuite répété ce processus pour construire un réseau 2×2 d’atomes d’arsenic uniques, prêts à devenir des qubits. Selon le Dr Taylor Stock, premier auteur de l’étude, « une fabrication fiable et précise à l’échelle atomique pourrait être utilisée pour construire un ordinateur quantique évolutif en silicium ».

Actuellement, la méthode développée dans l’étude nécessite de positionner chaque atome à la main un par un, ce qui prend plusieurs minutes. Théoriquement, ce processus peut être répété indéfiniment, mais en pratique, il sera nécessaire d’automatiser et d’industrialiser le processus afin de construire un ordinateur quantique universel, ce qui implique de créer des réseaux de millions, voire de milliards de qubits.

Selon le professeur Neil Curson, auteur principal de l’étude, « la capacité de placer des atomes dans le silicium avec une précision quasi parfaite et d’une manière que nous pouvons faire évoluer est une étape importante pour le domaine de l’informatique quantique, la première fois que nous avons démontré un moyen d’atteindre la précision et l’échelle requises ».

Légende illustration : Taylor Stock chargeant un échantillon dans le microscope à effet tunnel (STM), utilisé pour la fabrication à l’échelle atomique. Crédit ( Agnese Abrusci/UCL ).

Article : “Single-Atom Control of Arsenic Incorporation in Silicon for High-Yield Artificial Lattice Fabrication” – DOI: 10.1002/adma.202312282

Repousser les limites des matériaux pour améliorer l’électronique

Repousser les limites des matériaux pour améliorer l'électronique

Les leçons apprises lors des cours d’introduction à l’université peuvent être la clé pour réaliser de grandes découvertes scientifiques. C’est le cas de Jeehwan Kim, récemment titularisé au sein des départements de génie mécanique et de science et génie des matériaux du MIT. Ses recherches visent à repousser les limites inhérentes du silicium et à concevoir des dispositifs électroniques de nouvelle génération.

Jeehwan Kim n’a pas toujours été un étudiant modèle. Pendant sa jeunesse à Séoul, en Corée du Sud, il était passionné par la musique et s’ennuyait dans la plupart des matières enseignées au lycée. Cependant, lors de sa deuxième année à l’université Hongik, il a découvert les sciences des matériaux et a développé une véritable passion pour ce domaine.

Après avoir obtenu sa maîtrise à l’université nationale de Séoul, Kim a poursuivi ses études aux États-Unis, où il a obtenu un doctorat en sciences des matériaux à l’université de Californie à Los Angeles. C’est durant cette période qu’il a commencé à s’intéresser de près à la manipulation des matériaux électroniques à l’échelle microscopique pour créer des dispositifs plus rapides.

Une carrière chez IBM marquée par l’innovation

Lors d’un stage chez IBM, Kim a relevé un défi majeur : trouver un moyen fiable de doper le germanium, un matériau pressenti pour remplacer le silicium dans les transistors. En s’appuyant sur les principes fondamentaux appris durant ses études, il a proposé une solution innovante consistant à doper le germanium avec une combinaison de deux atomes différents.

Cette réussite lui a valu un poste de chercheur chez IBM, où il a appris à se concentrer sur des recherches ayant un impact direct sur la vie quotidienne et à appliquer les principes fondamentaux pour développer des produits de nouvelle génération.

Transmettre la passion de la recherche aux jeunes générations

Et pourtant, Kim sentait qu’il pouvait faire plus. Il travaillait sur des recherches novatrices dans l’un des principaux centres d’innovation du pays, où l’on encourageait la pensée “hors des sentiers battus” et où l’on testait les expériences. Mais il voulait aller au-delà du portefeuille de recherche de l’entreprise et trouver un moyen de poursuivre la recherche non seulement en tant que profession, mais aussi en tant que passion.

«Mon expérience m’a appris que l’on peut mener une vie très heureuse en tant qu’ingénieur ou scientifique si la recherche devient un passe-temps», explique Kim. «Je voulais enseigner ce cycle – bonheur, recherche et passion – aux jeunes et aider les doctorants à se développer comme des artistes ou des chanteurs

En 2015, il a fait ses valises pour le MIT, où il a accepté un poste de jeune professeur dans le département de génie mécanique. Ses premières impressions en arrivant à l’Institut ?

«La liberté“, dit Kim. «Pour moi, la liberté de penser – composer de la musique, innover quelque chose de totalement nouveau – est la chose la plus importante. Et les gens du MIT sont très talentueux et curieux de tout.»

Depuis qu’il s’est installé sur le campus, il a mis sur pied un groupe de recherche très productif, axé sur la fabrication de matériaux et de dispositifs électroniques ultraminces, empilables et très performants, qui, selon Kim, pourraient être utilisés pour construire des systèmes électroniques hybrides aussi petits qu’un ongle et aussi puissants qu’un superordinateur. Il attribue les nombreuses innovations du groupe à la quarantaine d’étudiants, de postdocs et de chercheurs qui ont contribué à son laboratoire.

Pour Kim, la recherche est un art et il espère que ses étudiants apprendront à l’apprécier autant que lui. Son message aux jeunes chercheurs est clair : «Si vous aimez ce que vous faites, alors vous pouvez devenir ce que vous voulez être.»

Légende illustration : M. Kim applique ses connaissances à la conception de dispositifs de la prochaine génération, notamment des transistors et des dispositifs de mémoire à faible consommation d’énergie et à haute performance, des puces d’intelligence artificielle, des écrans micro-LED à ultra-haute définition et des “peaux” électroniques flexibles. À terme, il envisage que ces dispositifs au-delà du silicium puissent être intégrés dans des superordinateurs suffisamment petits pour tenir dans la poche. Crédit : Jake Belcher

Voitures du futur : un superordinateur sur roues pour tout gérer 

Voitures du futur : un superordinateur sur roues pour tout gérer 

Les voitures modernes regorgent de composants électroniques sophistiqués, dont la gestion représente un défi de taille pour les constructeurs automobiles. Dans le cadre du projet de recherche conjoint CeCaS, des chercheurs de l’institut Fraunhofer travaillent sur une architecture système innovante visant à centraliser la gestion de l’ensemble des composants électroniques depuis une plateforme informatique unique.

Cette approche aurait l’avantage de faciliter la conception de véhicules hautement automatisés et connectés, tout en réduisant la complexité et le poids des faisceaux de câbles.

L’élément central de cette technologie développée par Fraunhofer est un backbone Ethernet extrêmement fiable et fonctionnant en temps réel. Cette infrastructure de communication permet aux différents composants du véhicule d’échanger des données de manière rapide et sécurisée, tout en garantissant une priorité aux fonctions critiques telles que le freinage.

Selon le Dr Frank Deicke, responsable de la communication de données et de l’informatique chez Fraunhofer IPMS, « TSN (Time-Sensitive Networking) permet de combiner capacité temps réel et fiabilité grâce à l’utilisation d’un temps système cohérent pour tous les dispositifs de contrôle pertinents, d’un système intelligent de gestion des files d’attente et de priorisation des tâches. »

Ethernet : flexibilité, évolutivité et réduction du poids

« La flexibilité et la grande évolutivité de l’Ethernet constituent ses atouts fondamentaux. Associée à nos cœurs de propriété intellectuelle, cette technologie peut facilement s’adapter à des véhicules de différentes tailles, catégories de performance et fonctionnalités », explique le Dr Deicke.

De plus, cette architecture centralisée permettra de réduire la taille des faisceaux de câbles, diminuant ainsi les coûts de production et le poids global du véhicule. Les mises à jour logicielles pourront également être réalisées sans passer par un garagiste, simplement via une connexion Wi-Fi.

« Si nécessaire, il sera également possible d’intégrer de nouvelles fonctionnalités de cette manière », ajoute le Dr Deicke.

©Fraunhofer IPMS. Une tendance lourde dans le secteur automobile : Un superordinateur central contrôle tous les composants de la voiture et peut être mis à jour via une connexion Wi-Fi.

De la gestion par domaine à la gestion par zone

Le projet CeCaS marque une rupture radicale avec les méthodes de construction actuelles des véhicules, en passant d’un contrôle des composants par domaine à une gestion par zone. Dans cette approche, quelques plateformes informatiques haute performance contrôlent simultanément de nombreux modules, qu’il s’agisse de systèmes critiques pour la sécurité (moteur, boîte de vitesses, freins) ou de fonctions de confort et de divertissement (climatisation, vitres électriques, système multimédia).

Ce projet, financé par le gouvernement fédéral allemand, ne se contente pas d’améliorer les performances des véhicules et de réduire les coûts. Il joue également un rôle essentiel dans le maintien et le renforcement de la souveraineté technologique et de l’indépendance des constructeurs automobiles allemands.

Légende illustration : Le système de commande centralisé nécessite moins de câbles, ce qui réduit la quantité de matériel et les coûts de production. Le véhicule est ainsi nettement plus léger.

Un nouveau modèle explique pourquoi l’eau gèle à différentes températures

Un nouveau modèle explique pourquoi l'eau gèle à différentes températures

La formation de la glace, un phénomène omniprésent dans notre environnement, suscite depuis longtemps l’intérêt des chercheurs. Des études récentes menées par une équipe de scientifiques apportent un nouvel éclairage sur les mécanismes qui régissent la nucléation de la glace, ouvrant ainsi la voie à de potentielles applications dans des domaines variés.

Valeria Molinero, professeure de chimie physique et des matériaux, et son équipe ont développé un modèle mathématique qui permet de prédire l’influence de la structure des surfaces sur la température de congélation de l’eau. Ce modèle, s’appuie sur l’analyse de centaines de mesures expérimentales antérieures.

Les chercheurs ont identifié une expression mathématique qui montre que certains angles entre les caractéristiques structurelles d’une surface facilitent la cristallisation des molécules d’eau à des températures relativement plus élevées. Cette découverte ouvre la voie à la conception de matériaux dont les surfaces favoriseraient la formation de glace de manière plus efficace, tout en minimisant l’apport énergétique nécessaire.

Des applications potentielles variées

Ce modèle pourrait trouver des applications dans divers domaines, tels que la fabrication de neige ou de glace artificielles, ou encore la conception de surfaces adaptées à l’ensemencement des nuages, une technique utilisée par plusieurs États de l’Ouest américain pour augmenter les précipitations.

En outre, cette étude pourrait contribuer à mieux comprendre le rôle des particules minérales présentes dans l’atmosphère dans la formation des nuages par nucléation de la glace, permettant ainsi d’améliorer l’efficacité des modèles météorologiques.

Perspectives de recherche sur les protéines de nucléation de la glace

Forts de ce modèle, les chercheurs envisagent de poursuivre leurs travaux sur les protéines de nucléation de la glace présentes chez les bactéries. Plus de 200 protéines sont supposées avoir cette propriété, mais leurs structures ne sont pas toutes connues.

L’équipe de recherche prévoit d’étudier les protéines dont les structures ont été résolues à l’aide d’outils d’intelligence artificielle, puis de modéliser l’impact des agrégats de ces protéines sur la formation de la glace.

Cette étude ouvre de nouvelles perspectives dans la compréhension des mécanismes de nucléation de la glace et laisse entrevoir de nombreuses applications potentielles, tant dans le domaine de la météorologie que dans celui des matériaux.

Focus sur la nucléation de la glace

La nucléation de la glace est le processus par lequel les molécules d’eau s’organisent pour former les premiers cristaux de glace dans un liquide. C’est une étape cruciale dans la transformation de l’eau liquide en glace solide.

Dans l’eau pure, la nucléation de la glace ne se produit qu’à des températures très basses, autour de -51°F (-46°C). Cependant, la présence d’impuretés, même en quantités infimes, peut faciliter la nucléation de la glace à des températures plus élevées.

Ces impuretés, appelées noyaux glaçogènes, peuvent être des particules de différentes natures, telles que des poussières, des bactéries, ou même certaines protéines. Elles agissent comme des sites de nucléation, offrant une surface sur laquelle les molécules d’eau peuvent s’organiser plus facilement pour former des cristaux de glace.

La nucléation de la glace joue un rôle important dans de nombreux phénomènes naturels et applications pratiques, tels que :

  • La formation des nuages et des précipitations
  • La création de neige et de glace artificielles
  • La congélation des aliments et la cryoconservation
  • Les dommages causés par le gel aux infrastructures et aux organismes vivants

Comprendre les mécanismes de la nucléation de la glace et les facteurs qui l’influencent est essentiel pour mieux appréhender ces phénomènes et développer des applications dans des domaines variés, de la météorologie à l’industrie agroalimentaire en passant par la biologie.

La recherche a été financée par la National Science Foundation, l’Air Force Office of Scientific Research et la bourse Yen de l’Institute for Biophysics Dynamics de l’université de Chicago.

Le laser DUV à 193 nm : une avancée majeure pour la lithographie de pointe

Le laser DUV à 193 nm : une avancée majeure pour la lithographie de pointe

Des scientifiques ont développé un laser DUV à l’état solide de 60 milliwatts à 193 nm en utilisant des cristaux LBO, établissant de nouvelles références en termes d’efficacité. Cette recherche ouvre de nouvelles perspectives dans de nombreux domaines d’application, de la lithographie à l’usinage laser.

Dans le domaine de la science et de la technologie, l’exploitation de sources de lumière cohérente dans la région des ultraviolets profonds (DUV) revêt une importance considérable pour diverses applications telles que la lithographie, l’inspection des défauts, la métrologie et la spectroscopie. Traditionnellement, les lasers de 193 nanomètres (nm) à haute puissance ont joué un rôle central dans la lithographie, faisant partie intégrante des systèmes utilisés pour la structuration précise.

Cependant, les limites de cohérence associées aux lasers excimères ArF conventionnels entravent leur efficacité dans les applications nécessitant des motifs à haute résolution, comme la lithographie par interférence.

Le concept de “laser excimère ArF hybride”

L’intégration d’une source laser à l’état solide de 193 nm à faible largeur de raie à la place de l’oscillateur ArF permet d’améliorer la cohérence et d’obtenir une faible largeur de raie, ce qui améliore les performances de la lithographie par interférence à haut débit. Cette innovation augmente non seulement la précision des motifs, mais accélère également la vitesse de la lithographie.

De plus, l’énergie des photons et la cohérence accrues du laser excimère ArF hybride facilitent le traitement direct de divers matériaux, y compris les composés carbonés et les solides, avec un impact thermique minimal. Cette polyvalence souligne son potentiel dans divers domaines, de la lithographie à l’usinage laser.

Optimisation de l’ensemencement pour un amplificateur ArF

Pour optimiser l’ensemencement d’un amplificateur ArF, la largeur de raie du laser de départ à 193 nm doit être méticuleusement contrôlée, idéalement en dessous de 4 gigahertz (GHz). Cette spécification dicte la longueur de cohérence cruciale pour l’interférence, un critère facilement rempli par les technologies laser à l’état solide.

Comme rapporté dans Advanced Photonics Nexus, ils ont réalisé un remarquable laser DUV à l’état solide de 60 milliwatts (mW) à 193 nm avec une faible largeur de raie en utilisant un processus sophistiqué de génération de fréquence somme à deux étages employant des cristaux LBO. Le processus implique des lasers de pompe à 258 et 1553 nm, dérivés respectivement d’un laser Yb-hybride et d’un laser à fibre dopée Er.

Le laser DUV généré, accompagné de son homologue à 221 nm, présente une puissance moyenne de 60 mW, une durée d’impulsion de 4,6 nanosecondes (ns) et un taux de répétition de 6 kilohertz (kHz), avec une largeur de raie d’environ 640 mégahertz (MHz). Il s’agit notamment de la puissance de sortie la plus élevée pour les lasers à 193 et 221 nm générés par un cristal LBO, ainsi que de la largeur de raie la plus étroite rapportée pour un laser à 193 nm.

Une efficacité de conversion remarquable

L’efficacité de conversion obtenue est remarquable : 27 % pour le passage de 221 à 193 nm et 3 % pour le passage de 258 à 193 nm, établissant de nouvelles références en termes d’efficacité. Cette recherche souligne l’immense potentiel des cristaux LBO pour générer des lasers DUV à des niveaux de puissance allant de centaines de milliwatts à des watts, ouvrant la voie à l’exploration d’autres longueurs d’onde laser DUV.

Selon le professeur Hongwen Xuan, auteur correspondant de ces travaux, la recherche rapportée démontre « la viabilité du pompage LBO avec des lasers à l’état solide pour une génération fiable et efficace de laser à faible largeur de raie à 193 nm, et ouvre une nouvelle voie pour fabriquer un système laser DUV rentable et de haute puissance utilisant LBO ».

Ces avancées repoussent non seulement les limites de la technologie des lasers DUV, mais promettent également de révolutionner une myriade d’applications dans les domaines scientifiques et industriels.

Légende illustration : Laser DUV à 193 nm généré par des cristaux LBO en cascade. Crédit : H. Xuan (branche GBA de l’Institut de recherche en information aérospatiale, Académie chinoise des sciences)

Article : “High-power, narrow linewidth solid-state deep ultraviolet laser generation at 193 nm by frequency mixing in LBO crystals” – DOI: https://doi.org/10.1117/1.APN.3.2.026012

Pourquoi devriez-vous songer à acheter vos pièces auto d’occasion ?

Pourquoi devriez-vous songer à acheter vos pièces auto d'occasion ?

L’achat de pièces auto d’occasion offre de nombreux avantages. Non seulement elles sont plus économiques, mais elles sont également garanties et testées pour assurer leur qualité. Que vous recherchiez des pièces détachées, de carrosserie ou autres, les casses automobiles proposent un large éventail de choix. Alors, pourquoi devriez-vous urgemment vous intéresser à l’achat de pièces auto d’occasion ?

Quels sont les avantages liés à l’achat de pièces auto d’occasion ?

L’achat de pièces auto d’occasion offre une alternative économique aux pièces neuves. Il est en effet possible de réaliser des économies conséquentes, parfois jusqu’à 80% du coût initial. C’est une option particulièrement intéressante pour les pièces de grande valeur comme les moteurs ou les boîtes de vitesses.

Ces pièces de réemploi sont également un choix judicieux pour les propriétaires de véhicules anciens ou de modèles moins courants. Il peut être difficile de trouver des pièces neuves pour ces véhicules, alors qu’il existe une grande variété de pièces d’occasion disponibles.

L’achat de pièces d’occasion contribue aussi à limiter l’impact écologique de l’industrie automobile. Cela permet de prolonger la durée de vie des pièces et de réduire la quantité de déchets générés. C’est donc une pratique qui s’inscrit dans le cadre de l’économie circulaire.
Notez que les pièces auto d’occasion sont souvent garanties et ont été testées pour assurer leur qualité. Il est donc possible de faire des économies sans faire de compromis sur la qualité, en optant pour des pièces automobiles d’occasion au meilleur prix.

Comment récupérer ses pièces auto d’occasion en casse ?

Pour récupérer vos pièces auto en casse, plusieurs solutions s’offrent à vous. Vous pouvez vous rendre directement dans une casse automobile pour effectuer vos recherches. Certaines casses proposent un service de démontage sur place, vous permettant de récupérer la pièce dont vous avez besoin directement sur le véhicule hors d’usage.

Vous pouvez également opter pour une recherche en ligne. De nombreux sites internet proposent une large gamme de pièces d’occasion, vous permettant de trouver la bonne pièce pour votre modèle de voiture. Vous pouvez alors entrer en contact directement avec le vendeur pour organiser la récupération de la pièce.

Quelle que soit la méthode choisie, n’oubliez pas de vérifier les conditions du vendeur et d’assurer que la pièce est compatible avec votre véhicule en vous référant à la référence constructeur.

Peut-on faire confiance aux casses auto en ligne ?

Le marché automobile en ligne a pris de l’ampleur ces dernières années. Avec l’arrivée du numérique, l’achat de pièces auto d’occasion en ligne est devenu un moyen pratique et efficace d’obtenir des pièces de qualité à moindre coût. Cette tendance est alimentée par la facilité de recherche et la possibilité de comparer les prix sur différentes plateformes.

Dans ce contexte, plusieurs sites web se sont spécialisés dans la vente de pièces auto d’occasion. Ces plateformes offrent une grande variété de pièces pour divers modèles et marques de véhicules. Elles permettent également de bénéficier de services supplémentaires comme la garantie, le paiement sécurisé et la livraison rapide.
Parmi les avantages à retenir des casses automobiles en ligne, nous pouvons citer :

  • La recherche facile et rapide : Les sites web proposent des outils de recherche avancés qui permettent aux utilisateurs de trouver rapidement la pièce qu’ils cherchent en entrant simplement la marque, le modèle de leur véhicule ou la référence de la pièce.
  • La comparaison des prix : Les plateformes en ligne offrent la possibilité de comparer les prix des différentes pièces disponibles pour choisir celle qui correspond le mieux à son budget.
  • La garantie et la qualité : Les pièces auto d’occasion vendues en ligne sont souvent garanties et ont été testées pour assurer leur qualité.
  • Le paiement sécurisé et livraison rapide : Les plateformes en ligne proposent des options de paiement sécurisé et garantissent une livraison rapide des pièces.

Vous l’aurez compris, l’achat en ligne s’impose comme une solution de choix pour l’acquisition de pièces auto d’occasion, alliant économie, facilité et rapidité.

Quels critères considérer lors de l’achat de pièces auto d’occasion ?

Lors de l’achat de pièces détachées d’occasion, plusieurs critères sont à prendre en compte pour assurer la qualité et la compatibilité de la pièce avec votre véhicule.

Vérifiez tout d’abord la provenance de la pièce. C’est un facteur important pour évaluer sa qualité. Les pièces issues de centres VHU agréés sont généralement de meilleure qualité.

Nous vous conseillons ensuite de vérifier la compatibilité de la pièce avec votre véhicule. Cela peut inclure des détails spécifiques tels que la marque du véhicule, le modèle, le type de motorisation ou même la série du véhicule.

Il est également important de prendre en compte l’âge et le kilométrage de la pièce. Une pièce trop usée ou trop vieille peut ne pas durer longtemps.

Le prix est enfin un facteur important. Les pièces d’occasion sont généralement moins chères, mais il est important de comparer les prix pour s’assurer de faire une bonne affaire.
——————-

Nous vous invitons à vous rapprocher de casses automobiles ou sites spécialisés pour profiter de pièces automobiles qualitatives au meilleur prix.

La course à l’efficacité énergétique passe par le diamant synthétique

La course à l'efficacité énergétique passe par le diamant synthétique

Les chercheurs ont réussi à développer des nanomembranes ultra-fines en diamant synthétique capables d’être intégrées dans des composants électroniques. Cette innovation permet de réduire jusqu’à dix fois la charge thermique locale, améliorant ainsi les performances routières et la durée de vie des voitures électriques, tout en réduisant considérablement le temps de charge des batteries.

Le diamant est reconnu pour sa conductivité thermique exceptionnelle, quatre à cinq fois supérieure à celle du cuivre. Cette caractéristique en fait un matériau particulièrement intéressant pour le refroidissement des composants électroniques à forte densité de puissance, tels que ceux utilisés dans les processeurs, les lasers à semi-conducteurs ou les véhicules électriques.

Jusqu’à présent, des dissipateurs thermiques en plaques de cuivre ou d’aluminium étaient utilisés pour augmenter la surface d’émission de chaleur des composants produisant de la chaleur, évitant ainsi les dommages dus à la surchauffe.

Les scientifiques de Fraunhofer USA Inc., Center Midwest CMW à East Lansing dans le Michigan, ont développé des nanomembranes en diamant synthétique plus fines qu’un cheveu humain. Ce matériau flexible peut être intégré directement dans les composants électroniques pour refroidir l’électronique de puissance des véhicules électriques, qui transfère l’énergie de traction de la batterie au moteur électrique et convertit le courant continu en courant alternatif.

©Fraunhofer USA, Centre Midwest CMW. Photographies de nanomembranes de diamant polycristallin autoportantes

Les nanomembranes flexibles et électriquement isolantes développées par Fraunhofer USA ont le potentiel de réduire d’un facteur dix la charge thermique locale des composants électroniques, tels que les régulateurs de courant dans les moteurs électriques. Cela permet d’améliorer significativement l’efficacité énergétique, la durée de vie et les performances routières des voitures électriques.

L’équipe du Dr. Matthias Mühle, responsable du groupe Diamond Technologies chez Fraunhofer USA Center Midwest CMW, a mis au point un procédé permettant de faire croître la nanomembrane en diamant polycristallin sur une plaquette de silicium séparée, puis de la détacher, de la retourner et de graver l’arrière de la couche de diamant.

Il en résulte un diamant lisse et autoportant qui peut être chauffé à basse température (80 degrés Celsius) et ensuite fixé au composant. « Le traitement thermique permet de lier automatiquement la membrane d’une épaisseur de quelques micromètres au composant électronique. Le diamant n’est alors plus autoportant mais intégré au système », explique le chercheur.

©Fraunhofer USA, Centre Midwest CMW. Images MEB d’une nanomembrane de diamant pliée élastiquement sous l’impact externe d’une force mécanique.

La nanomembrane peut être produite à l’échelle d’une plaquette (4 pouces et plus), ce qui la rend bien adaptée aux applications industrielles. Un brevet a déjà été déposé pour cette innovation.

Des tests d’application avec des onduleurs et des transformateurs dans des domaines tels que le transport électrique et les télécommunications devraient débuter cette année. Un autre avantage est que, lorsqu’elles sont utilisées dans l’infrastructure de charge, les membranes en diamant contribuent à des vitesses de charge cinq fois plus élevées.

En synthèse

Les nanomembranes en diamant synthétique développées par Fraunhofer USA représentent une avancée dans le domaine du refroidissement des composants électroniques à forte densité de puissance. Grâce à leur conductivité thermique exceptionnelle et à leur flexibilité, ces membranes peuvent être intégrées directement dans les systèmes électroniques, réduisant ainsi considérablement la charge thermique locale.

Cette innovation ouvre la voie à des améliorations significatives des performances, de la durée de vie et de l’efficacité énergétique des véhicules électriques, ainsi qu’à une réduction des temps de charge des batteries. Les applications potentielles de cette technologie s’étendent à divers domaines, tels que le transport électrique, les télécommunications et la photovoltaïque.

Pour une meilleure compréhension

Qu’est-ce qui rend le diamant si intéressant pour le refroidissement des composants ?

Le diamant possède une conductivité thermique exceptionnelle, quatre à cinq fois supérieure à celle du cuivre, ce qui en fait un matériau idéal pour dissiper la chaleur des composants électroniques à forte densité de puissance.

Comment les nanomembranes en diamant synthétique sont-elles fabriquées ?

Les nanomembranes en diamant polycristallin sont d’abord cultivées sur une plaquette de silicium séparée, puis détachées, retournées et gravées à l’arrière de la couche de diamant. Le résultat est un diamant lisse et autoportant qui peut être fixé au composant électronique après un traitement thermique à basse température.

Avantages des nanomembranes en diamant pour les véhicules électriques ?

Les nanomembranes en diamant peuvent réduire jusqu’à dix fois la charge thermique locale des composants électroniques, améliorant ainsi les performances routières, la durée de vie et l’efficacité énergétique des voitures électriques. Elles contribuent également à des vitesses de charge cinq fois plus élevées lorsqu’elles sont utilisées dans l’infrastructure de charge.

Quelles sont les autres applications potentielles de cette technologie ?

En plus du transport électrique, les nanomembranes en diamant synthétique peuvent trouver des applications dans des domaines tels que les télécommunications, la photovoltaïque et les systèmes de stockage d’énergie.

Où en est le développement de cette technologie ?

Un brevet a déjà été déposé pour cette innovation, et des tests d’application avec des onduleurs et des transformateurs dans des domaines tels que le transport électrique et les télécommunications devraient débuter cette année.

Références

Fraunhofer USA Inc., Center Midwest CMW. (2023). Des nanomembranes en diamant synthétique pour un refroidissement efficace des composants électroniques. East Lansing, Michigan, États-Unis.

Écrevisses : absorption du lithium multipliée dans une eau à 32°C

Écrevisses : absorption du lithium multipliée dans une eau à 32°C

Les batteries rechargeables au lithium-ion sont omniprésentes dans notre quotidien, alimentant une multitude d’appareils allant des téléphones portables aux montres en passant par les voitures électriques. Son utilisation croissante implique qu’une quantité plus importante de lithium pourrait se retrouver dans l’environnement à mesure que les consommateurs se débarrassent de leurs produits électroniques.

Des chercheurs ont récemment décrit comment le lithium peut s’accumuler chez un crustacé commun du Sud des États-Unis : l’écrevisse. Alors que la saison de pêche et de dégustation des écrevisses bat son plein, les résultats de ces recherches mettent en lumière les potentielles implications pour la santé publique et l’environnement.

Joseph Kazery, professeur de biologie, explique en substance ce phénomène : « En tant qu’organismes aquatiques, les écrevisses peuvent absorber de grandes quantités de lithium dissous dans l’eau. Étant donné que d’autres créatures, y compris les humains, consomment des écrevisses, leur étude nous permet de voir comment le lithium se déplace dans la chaîne alimentaire et potentiellement jusqu’à nous. »

Deux étudiants de premier cycle du laboratoire de Joseph Kazery au Mississippi College, Andrew Doubert et Javian Ervin, présentent les résultats de leurs expériences sur l’absorption du lithium ionique par différents organes d’écrevisses, ainsi que l’impact des températures saisonnières.

« Si les écrevisses sont élevées à proximité d’une décharge ou d’un site pollué, le ruissellement pourrait les exposer au lithium, avec des effets que nous ne comprenons pas encore totalement », souligne Javian Ervin. « Je consomme moi-même des écrevisses, donc cette question me tient à cœur. »

La contamination au lithium : un problème de longue date

La contamination au lithium n’est pas un phénomène nouveau. Même avant que les batteries au lithium-ion ne se généralisent, le lithium était et est toujours utilisé comme médicament pour traiter les troubles de l’humeur. Il pénètre dans l’approvisionnement en eau dans ces applications car le traitement typique des eaux usées n’élimine pas les contaminants médicamenteux.

À des niveaux élevés, le lithium peut avoir des effets toxiques sur la santé humaine, notamment en endommageant potentiellement les cellules du muscle cardiaque, ainsi qu’en provoquant confusion et troubles de la parole. Chez d’autres animaux, il cause éventuellement des dommages rénaux et une hypothyroïdie.

Des études ont également montré que lorsque le lithium s’accumule dans les plantes, il peut inhiber leur croissance, précise le Professeur Kazery.

Bien que l’Agence américaine de protection de l’environnement recommande de jeter les batteries au lithium-ion dans des points de collecte dédiés, Joseph Kazery affirme qu’elles finissent souvent dans des décharges. La demande en forte hausse, associée à des pratiques d’élimination laxistes, suggère que le lithium est sur le point de devenir un contaminant environnemental important, selon lui.

Les écrevisses comme bioindicateurs de la contamination au lithium

En tant qu’organismes entièrement aquatiques qui passent leur vie dans une zone relativement restreinte, les écrevisses (Procambarus clarkii) reflètent la contamination locale au lithium et pourraient servir de puissants bioindicateurs de sa présence dans un environnement. Le lithium qu’elles contiennent pourrait être transmis dans la chaîne alimentaire à leurs prédateurs, y compris les humains, soit directement, soit indirectement par le biais de poissons consommant des écrevisses et eux-mêmes consommés par les humains.

Pour ses expériences, l’équipe a acheté des écrevisses élevées pour la recherche. Sachant que le foie collecte les toxines du corps humain pour les éliminer par la suite, Andrew Doubert s’est demandé si le lithium s’accumulerait dans la version écrevisse de cet organe : l’hépatopancréas. Pour le savoir, il a ajouté du lithium ionique à la nourriture de cinq écrevisses, tout en donnant à cinq autres une nourriture sans lithium. Il a ensuite examiné la quantité de lithium présente dans quatre de leurs organes après une semaine. Il a constaté, en moyenne, la plus grande quantité de lithium dans le tractus gastro-intestinal (GI), suivi des branchies, de l’hépatopancréas et enfin du muscle abdominal de la queue.

Les chercheurs pensent que le tractus GI contenait probablement le niveau le plus élevé car la nourriture enrichie en lithium y reste pendant la digestion. Pendant ce temps, les branchies et l’hépatopancréas l’absorbent tous deux tout en l’éliminant du corps. Les gens consomment principalement la queue, qui semble absorber le lithium, mais pas aussi facilement que les autres parties du corps étudiées.

Andrew Doubert a également constaté que 27,5 % du lithium qu’il leur avait donné était passé du tractus GI des animaux dans d’autres tissus. Les animaux situés plus haut dans la chaîne alimentaire peuvent accumuler des niveaux plus élevés de substances toxiques s’ils mangent des proies contaminées, de sorte que le lithium deviendra probablement plus concentré chez les prédateurs des écrevisses. Les chercheurs s’attendent à ce que le taux élevé d’absorption observé exacerbe cette accumulation chez les humains et les autres animaux qui consomment des écrevisses.

Les écrevisses peuvent accumuler du lithium, un contaminant environnemental qui devrait augmenter avec l’utilisation croissante des batteries, et qui pourrait affecter les personnes qui les consomment. Crédit : Javian Ervin

Impact de la T° de l’eau sur l’absorption du lithium par les écrevisses

La température de l’eau dans laquelle vivent les écrevisses varie considérablement tout au long de l’année. Ces variations affectent le métabolisme des animaux, les rendant même inactifs pendant l’hiver. Sachant cela, Ervin a décidé d’examiner les effets de la température sur l’absorption du lithium. Il a placé des écrevisses dans des réservoirs maintenus à des températures allant de 10 à 32 degrés Celsius et a ajouté une concentration constante de lithium ionique à l’eau. Après cinq jours, il a constaté que l’absorption de lithium par le muscle abdominal et une partie de l’écrevisse que Andrew Doubert n’avait pas étudiée – l’exosquelette des animaux – augmentait dans le réservoir le plus chaud. Ces résultats suggèrent que les animaux peuvent contenir le plus de lithium pendant les mois chauds, selon Javian Ervin.

Le poids des écrevisses a également diminué dans l’eau plus chaude. À ce stade, on ne sait pas clairement comment ou si la perte de poids des écrevisses était liée au lithium qu’elles ont accumulé, note Javian Ervin, soulignant que l’équipe prévoit de donner suite à ces résultats.

En synthèse

Cette étude met en lumière les potentielles implications de l’utilisation croissante des batteries au lithium-ion sur la santé publique et l’environnement. Les écrevisses, en tant qu’organismes aquatiques, peuvent absorber de grandes quantités de lithium dissous dans l’eau et le transmettre dans la chaîne alimentaire à leurs prédateurs, y compris les humains. Les expériences menées par l’équipe de chercheurs ont montré que le lithium s’accumulait principalement dans le tractus gastro-intestinal, les branchies et l’hépatopancréas des écrevisses, avec une absorption plus importante dans les muscles abdominaux et l’exosquelette lorsque la température de l’eau était plus élevée.

Pour une meilleure compréhension

Qu’est-ce que le lithium et où est-il utilisé ?

Le lithium est un métal alcalin utilisé dans diverses applications, notamment dans les batteries rechargeables au lithium-ion qui alimentent de nombreux appareils électroniques et véhicules électriques. Il est également utilisé comme médicament pour traiter les troubles de l’humeur.

Comment le lithium peut-il se retrouver dans l’environnement ?

Le lithium peut pénétrer dans l’environnement par le biais des eaux usées provenant de son utilisation médicale, car le traitement typique des eaux usées n’élimine pas les contaminants médicamenteux. De plus, bien que l’EPA recommande de jeter les batteries au lithium-ion dans des points de collecte dédiés, elles finissent souvent dans des décharges, ce qui peut entraîner une contamination de l’environnement.

Quels sont les effets potentiels du lithium sur la santé humaine et animale ?

À des niveaux élevés, le lithium peut avoir des effets toxiques sur la santé humaine, notamment en endommageant potentiellement les cellules du muscle cardiaque, ainsi qu’en provoquant confusion et troubles de la parole. Chez d’autres animaux, il peut causer des dommages rénaux et une hypothyroïdie. Le lithium peut également inhiber la croissance des plantes lorsqu’il s’y accumule.

Les écrevisses utilisées comme bioindicateurs de la contamination au lithium ?

En tant qu’organismes entièrement aquatiques qui passent leur vie dans une zone relativement restreinte, les écrevisses reflètent la contamination locale au lithium et pourraient servir de puissants bioindicateurs de sa présence dans un environnement. Le lithium qu’elles contiennent pourrait être transmis dans la chaîne alimentaire à leurs prédateurs, y compris les humains.

Les principales conclusions de l’étude sur l’absorption du lithium par les écrevisses ?

L’étude a montré que le lithium s’accumulait principalement dans le tractus gastro-intestinal, les branchies et l’hépatopancréas des écrevisses, avec une absorption plus importante dans les muscles abdominaux et l’exosquelette lorsque la température de l’eau était plus élevée. Ces résultats soulignent l’importance d’explorer les effets à long terme de l’utilisation des batteries au lithium-ion sur notre environnement et notre santé.

Références

Les informations présentées dans cet article sont basées sur les résultats de recherche qui seront présentés lors de la réunion de printemps de l’American Chemical Society (ACS) en 2024. Les chercheurs impliqués dans cette étude sont Joseph Kazery, professeur de biologie au Mississippi College, ainsi que deux étudiants de premier cycle de son laboratoire, Andrew Doubert et Javian Ervin.

Trous noirs : 2 géants cosmiques aux champs magnétiques similaires

Trous noirs : 2 géants cosmiques aux champs magnétiques similaires

Les scientifiques de la collaboration Event Horizon Telescope (EHT), dont fait partie le Dr Ziri Younsi de l’UCL, ont réussi à capturer une nouvelle image du trou noir supermassif Sagittarius A* (Sgr A*) situé au cœur de notre galaxie, la Voie lactée. Cette image, obtenue en lumière polarisée, révèle la présence de champs magnétiques intenses et organisés s’enroulant autour du bord de ce monstre cosmique.

Cette nouvelle perspective sur Sgr A* a mis en évidence une structure de champ magnétique étonnamment similaire à celle du trou noir au centre de la galaxie M87, suggérant que les champs magnétiques puissants pourraient être une caractéristique commune à tous les trous noirs. Cette ressemblance laisse également entrevoir la possibilité d’un jet caché dans Sgr A*.

Le Dr Ziri Younsi, co-auteur des nouvelles publications et membre du Conseil scientifique de l’EHT, a indiqué : « Il est remarquable que la structure de polarisation de Sgr A* soit si similaire à celle du trou noir M87, dont nous savons qu’il possède un prodigieux jet relativiste. Cette nouvelle étude passionnante laisse entrevoir la possibilité d’un jet se cachant près de l’horizon des événements de Sgr A*. »

La Dr Sara Issaoun, co-responsable du projet au Center for Astrophysics de Harvard & Smithsonian, a expliqué : « Ce que nous voyons maintenant, c’est qu’il existe des champs magnétiques forts, torsadés et organisés près du trou noir au centre de la Voie lactée. Outre le fait que Sgr A* présente une structure de polarisation étonnamment similaire à celle observée dans le trou noir M87*, beaucoup plus grand et plus puissant, nous avons appris que des champs magnétiques forts et ordonnés sont essentiels à la façon dont les trous noirs interagissent avec le gaz et la matière qui les entourent. »

Le Dr Angelo Ricarte, co-responsable du projet et boursier de la Harvard Black Hole Initiative, a ajouté : « En imageant la lumière polarisée provenant du gaz chaud et lumineux près des trous noirs, nous déduisons directement la structure et la force des champs magnétiques qui traversent le flux de gaz et de matière dont se nourrit et qu’éjecte le trou noir. »

Imager les trous noirs en lumière polarisée n’est pas aussi simple que de mettre une paire de lunettes de soleil polarisées, et cela est particulièrement vrai pour Sgr A*, qui change si rapidement qu’il ne reste pas immobile pour les photos. L’imagerie de ce trou noir supermassif nécessite des outils sophistiqués allant au-delà de ceux précédemment utilisés pour capturer M87*, une cible beaucoup plus stable.

M87* et Sgr A* côte à côte en lumière polarisée. Crédit : EHT Collaboration. Vue ici en lumière polarisée, cette image côte à côte des trous noirs supermassifs M87* et Sagittarius A* indique aux scientifiques que ces bêtes ont des structures de champ magnétique similaires. Cette observation est importante car elle suggère que les processus physiques qui régissent la façon dont un trou noir se nourrit et lance un jet peuvent être des caractéristiques universelles parmi les trous noirs supermassifs. L’échelle indique la taille apparente de ces images sur le ciel, en unités de micro-arcsecondes. Un doigt tenu à bout de bras mesure 1 degré sur le ciel ; une micro-seconde d’arc est 3,6 milliards de fois plus petite. Dans ce contexte, les images de ces trous noirs ont une taille apparente similaire à celle d’un beignet à la surface de la Lune.

Les images des deux trous noirs supermassifs en lumière polarisée, ainsi que les données qui les accompagnent, offrent de nouvelles façons de comparer les trous noirs de différentes tailles et masses. Avec l’amélioration de la technologie, les images sont susceptibles de révéler encore plus de secrets sur les trous noirs et leurs similitudes ou différences.

Légende illustration principale : Vue du trou noir supermassif Sagittarius A* de la Voie lactée en lumière polarisée. Crédit : EHT Collaboration.

Diraq : des ordinateurs quantiques plus rapides et écologiques en vue

Diraq : des ordinateurs quantiques plus rapides et écologiques en vue

L’informatique quantique, une technologie prometteuse qui pourrait révolutionner de nombreux secteurs tels que la science des matériaux, la médecine, la pharmacie, la banque et la finance, a été confrontée à des obstacles considérables dans son développement. Parmi ces défis, la chaleur générée par les ordinateurs quantiques constitue un frein majeur. Cependant, une récente avancée technologique réalisée par Diraq pourrait bien changer la donne.

Dans un article publié dans la revue scientifique Nature, Diraq présente une innovation permettant à ses processeurs quantiques à base de spins de fonctionner à des températures plus de dix fois supérieures à ce qui était possible auparavant, tout en maintenant une stabilité et une précision élevées. Fondée en 2022 comme une spin-off de l’UNSW Sydney, Diraq affirme que cette avancée rend ses ordinateurs quantiques plus rapides, plus rentables et plus écologiques.

Les spins des semi-conducteurs sont largement considérés comme l’une des technologies les plus évolutives pour les processeurs quantiques, en raison de leur taille compacte et de leur compatibilité avec les procédés de fabrication existants des puces de silicium.

Vers un ordinateur quantique pratique

Selon le professeur Andrew Dzurak, PDG et fondateur de Diraq, « Par rapport aux températures en millikelvins, les températures supérieures à 1 K assouplissent considérablement les contraintes imposées par la faible puissance de refroidissement des réfrigérateurs à dilution, permettant ainsi l’utilisation d’un ordinateur quantique pratique avec une électronique de contrôle classique intégrée dans une simple plateforme cryogénique. »

L’équipe de Diraq : Jonathan Yue Huang, Henry Yang et Andrew Dzurak. Crédit photo : Anna Kucera.

Les puces de silicium traditionnelles génèrent de la chaleur, un défi bien connu lors de l’utilisation d’appareils électroniques. Plusieurs technologies de pointe dans le domaine de l’informatique quantique nécessitent un refroidissement à des températures extrêmement basses, très proches du zéro absolu (-273,15 °C). À des températures plus élevées, les qubits faiblissent, rendant la technologie peu pratique.

Une avancée fondamentale pour l’informatique quantique

Les nouvelles recherches de Diraq démontrent la possibilité d’effectuer des calculs quantiques à base de spins avec une grande précision à des températures supérieures à 1 K, une température compatible avec la capacité de fonctionnement de l’électronique conventionnelle. Cela signifie qu’il est possible d’exécuter des routines complexes de correction d’erreurs nécessaires pour une informatique quantique tolérante aux pannes.

Selon Jonathan Huang, auteur principal et chercheur associé chez Diraq, ainsi qu’étudiant en doctorat à l’Université de Nouvelle-Galles du Sud, « Cette augmentation de température, bien que difficile à appréhender par rapport aux concepts de température conventionnels, est en réalité révolutionnaire dans le domaine de l’informatique quantique. Notre prouesse d’ingénierie avancée a impliqué une compréhension profonde de la physique ainsi que la curiosité expérimentale nécessaire pour repousser les limites de la conception technique. »

Les “spins dans le silicium”, une technologie innovante

Pour relever le défi du passage à l’échelle de l’informatique quantique et atteindre des millions de qubits, le matériel novateur de Diraq, construit à l’aide d’une technologie appelée « spins dans le silicium », distingue l’entreprise de ses concurrents plus établis, selon le professeur Andrew Dzurak, PDG et fondateur.

« Bien que nos processeurs quantiques nécessitent toujours une réfrigération, les coûts et la complexité du système global sont considérablement réduits à ces températures élevées », explique Dzurak. « En exploitant la puissance des qubits chauds, ces ordinateurs quantiques permettront d’effectuer des calculs bien au-delà de la portée des supercalculateurs actuels, permettant des prédictions et des analyses plus rapides et plus précises. »

Avec une vision stratégique visant à devenir un fournisseur de bout en bout d’informatique quantique, Diraq ambitionne de combiner les propositions de valeur des fabricants de puces, des entreprises d’informatique en nuage et des fournisseurs d’algorithmes logiciels d’aujourd’hui pour libérer tout le potentiel de l’informatique quantique – une industrie qui devrait générer entre 450 et 850 milliards de dollars de valeur ajoutée d’ici 2040, selon le cabinet d’analystes Boston Consulting Group.

Légende illustration : Les spins semi-conducteurs constituent l’une des technologies les plus évolutives pour les processeurs quantiques, en raison de leur taille compacte et de leur compatibilité avec la fabrication actuelle des puces en silicium.

Des chercheurs créent un matériau qui défie les lois de la physique

Des chercheurs créent un matériau qui défie les lois de la physique

Les chercheurs ont développé un nouveau matériau souple et flexible qui présente une durabilité adaptative, devenant plus résistant lorsqu’il est soumis à des chocs ou à des étirements. Le matériau conducteur d’électricité ouvre la voie à une nouvelle génération de dispositifs portables et de capteurs médicaux personnalisés.

Une inspiration culinaire pour un matériau innovant

L’inspiration pour ce nouveau matériau provient d’un mélange couramment utilisé en cuisine : une bouillie de fécule de maïs. Yue (Jessica) Wang, scientifique des matériaux et chercheuse principale du projet, explique :

« Quand je remue lentement la fécule de maïs et l’eau, la cuillère se déplace facilement. Mais si je soulève la cuillère et que je poignarde le mélange, la cuillère ne rentre pas. C’est comme si je poignardais une surface dure. »

Cette bouillie, qui aide à épaissir les ragoûts et les sauces, présente une durabilité adaptative, passant de malléable à résistante en fonction de la force appliquée. L’équipe de Wang s’est efforcée d’imiter cette propriété dans un matériau conducteur solide.

Un mélange de polymères conjugués pour une durabilité adaptative

De nombreux matériaux conducteurs d’électricité, comme les métaux, sont durs, rigides ou cassants. Les chercheurs ont toutefois développé des moyens de créer des versions souples et flexibles en utilisant des polymères conjugués – de longues molécules semblables à des spaghettis qui sont conductrices.

L’équipe de Wang à l’Université de Californie, Merced, a sélectionné la bonne combinaison de polymères conjugués pour créer un matériau durable imitant le comportement adaptatif des particules de fécule de maïs dans l’eau. Ils ont constaté qu’au lieu de se briser sous l’effet de chocs très rapides, le matériau se déformait ou s’étirait. Plus l’impact était rapide, plus le film devenait étirable et résistant.

Des additifs pour renforcer la durabilité adaptative

Di Wu, chercheur postdoctoral dans le laboratoire de Wang, a étudié comment l’ajout de petites molécules pouvait créer un matériau composite encore plus résistant lorsqu’il est étiré ou lâché rapidement. Les résultats préliminaires ont indiqué que les nanoparticules chargées positivement à base de 1,3-propanediamine étaient le meilleur additif, conférant la plus grande fonctionnalité adaptative.

Wu explique que cet additif a affaibli les interactions des polymères qui forment les «boulettes de viande», les rendant plus faciles à séparer et à déformer lorsqu’ils sont frappés, et a renforcé les “ficelles de spaghettis” étroitement enchevêtrées.

Ce matériau souple et conducteur est doté d’une “durabilité adaptative”, c’est-à-dire qu’il devient plus fort lorsqu’il est touché. Yue (Jessica) Wang

Des applications dans les dispositifs portables et les capteurs

À l’avenir, l’équipe de Wang se concentrera sur la démonstration de l’applicabilité de leur matériau conducteur léger. Les possibilités incluent des dispositifs portables souples, tels que des bandes intégrées et des capteurs dorsaux pour les montres intelligentes, ainsi que des appareils électroniques flexibles pour la surveillance de la santé, tels que des capteurs cardiovasculaires ou des moniteurs de glycémie en continu.

La durabilité adaptative du matériau signifie que les futurs dispositifs de biocapteurs pourraient être suffisamment flexibles pour les mouvements humains réguliers, tout en résistant aux dommages en cas de choc ou de coup accidentel. Yue (Jessica) Wang pense que la nouvelle version composite devrait également être compatible avec l’impression 3D pour créer la forme souhaitée.

Ce matériau innovant ouvre de nombreuses perspectives d’applications, et les chercheurs sont impatients de voir où cette propriété non conventionnelle les mènera.

La recherche a été financée par l’Université de Californie, Merced, une bourse CAREER de la Fondation nationale des sciences et une bourse de jeune chercheur de la Fondation Arnold et Mabel Beckman.

Batteries : jusqu’à 19,4% d’économies en utilisant du lithium impur

Batteries : jusqu'à 19,4% d'économies en utilisant du lithium impur

Dans un contexte où les fabricants de batteries secondaires imposent des spécifications de pureté draconiennes pour les matériaux de cathode, une équipe de recherche de l’Université des sciences et technologies de Pohang (POSTECH) et de l’Institut de recherche en science et technologie industrielles (RIST) a fait une découverte qui pourrait révolutionner l’industrie des batteries.

Leurs travaux, publiés dans la revue scientifique internationale “Nature Communications”, remettent en question la nécessité de ces spécifications excessivement strictes et ouvrent la voie à une réduction significative des coûts de production des batteries.

Une pureté excessive remise en question

Les fabricants de cellules de batteries secondaires ( LG Energy Solution, Samsung SDI et SK on) ont longtemps insisté sur des spécifications de pureté très strictes pour les matériaux de cathode, afin de garantir une qualité de production constante. Ces spécifications ont été jalousement gardées comme des secrets commerciaux, sans véritable examen de leur nécessité. En réponse à ces exigences, les fournisseurs de matériaux de cathode ont investi massivement dans la purification des métaux bruts, entraînant une augmentation du coût unitaire des batteries.

L’équipe de recherche, dirigée par le professeur Yong-Tae Kim du département des sciences et de l’ingénierie des matériaux de POSTECH, en collaboration avec le professeur Kyu-Young Park de l’Institut des diplômés en technologie des matériaux ferreux et écologiques et du département des sciences et de l’ingénierie des matériaux de POSTECH, ainsi que l’équipe de recherche du Dr Woochul Jung de RIST, a découvert que ces spécifications de pureté étaient excessivement strictes.

Des impuretés bénéfiques pour les batteries

Les chercheurs se sont penchés sur l’impact de la pureté des matières premières de lithium sur la production et les performances des matériaux de cathode des batteries secondaires. Traditionnellement, on suppose que les impuretés dans les matériaux de lithium nuisent aux performances des batteries secondaires, d’où l’objectif de fabriquer des matériaux de lithium avec une pureté d’au moins 99,5 %. Toutefois, l’équipe a découvert que la présence d’environ 1 % d’impureté de magnésium (Mg) dans la matière première de lithium améliore l’efficacité du processus et prolonge la durée de vie de la batterie secondaire.

Leurs expériences ont démontré que l’utilisation de lithium à faible pureté, non entièrement débarrassé des impuretés, pourrait réduire les coûts de production des batteries secondaires et les émissions de dioxyde de carbone jusqu’à 19,4 % et 9,0 %, respectivement.

Vers une nouvelle approche stratégique

Le professeur Yong-Tae Kim, qui a dirigé la recherche, a déclaré : « Les fabricants de cellules de batteries secondaires doivent réévaluer si leurs spécifications actuelles de matériaux de cathode sont trop strictes. » Il a ajouté : « Envisager des approches non conventionnelles pourrait offrir une nouvelle stratégie face aux prix agressivement bas de la Chine. »

Cette étude remet en question les pratiques établies dans l’industrie des batteries et ouvre la voie à une optimisation des processus de production. En assouplissant les spécifications de pureté des matériaux de cathode, les fabricants pourraient réduire considérablement les coûts et l’empreinte carbone de leurs batteries, tout en maintenant, voire en améliorant, leurs performances.

En synthèse

La découverte exposée ici remet en question la nécessité de spécifications de pureté excessivement strictes pour les matériaux de cathode des batteries secondaires. Leurs travaux démontrent que la présence d’impuretés, notamment de magnésium, peut améliorer l’efficacité du processus de production et la durée de vie des batteries. Cette approche non conventionnelle pourrait offrir une nouvelle stratégie face à la concurrence chinoise et ouvrir la voie à une réduction significative des coûts et de l’empreinte carbone de l’industrie des batteries.

Pour une meilleure compréhension

Pourquoi les fabricants de batteries imposent-ils des spécifications de pureté strictes ?

Les fabricants de batteries secondaires imposent des spécifications de pureté strictes pour les matériaux de cathode afin de garantir une qualité de production constante et d’éviter que les impuretés ne nuisent aux performances des batteries.

Qu’ont découvert les chercheurs concernant ces spécifications de pureté ?

Les chercheurs ont découvert que ces spécifications de pureté étaient excessivement strictes et que la présence d’environ 1 % d’impureté de magnésium dans la matière première de lithium pouvait en réalité améliorer l’efficacité du processus de production et prolonger la durée de vie des batteries secondaires.

Quels sont les avantages potentiels de l’utilisation de lithium à faible pureté ?

L’utilisation de lithium à faible pureté pourrait réduire les coûts de production des batteries secondaires et les émissions de dioxyde de carbone jusqu’à 19,4 % et 9,0 %, respectivement, tout en maintenant, voire en améliorant, les performances des batteries.

Que suggère le professeur Yong-Tae Kim aux fabricants de cellules de batteries ?

Le professeur Yong-Tae Kim suggère aux fabricants de cellules de batteries secondaires de réévaluer si leurs spécifications actuelles de matériaux de cathode sont trop strictes et d’envisager des approches non conventionnelles comme stratégie face à la concurrence chinoise.

Quelles sont les implications de cette étude pour l’industrie des batteries ?

Cette étude remet en question les pratiques établies dans l’industrie des batteries et ouvre la voie à une optimisation des processus de production. En assouplissant les spécifications de pureté des matériaux de cathode, les fabricants pourraient réduire considérablement les coûts et l’empreinte carbone de leurs batteries, tout en maintenant, voire en améliorant, leurs performances.

Références

Article : “Re-evaluation of battery-grade lithium purity toward sustainable batteries” – DOI: 10.1038/s41467-024-44812-3

Avalanche magnétique déclenchée par des effets quantiques

Avalanche magnétique déclenchée par des effets quantiques

Les matériaux ferromagnétiques comme les vis en fer, sont composés d’atomes dont les électrons se comportent comme de petits aimants. Bien que les orientations de ces aimants soient alignées au sein d’une même région du matériau, elles ne le sont pas d’une région à l’autre. Lorsqu’un champ magnétique est appliqué, les orientations des spins dans les différentes régions s’alignent et le matériau devient entièrement magnétisé. Ce processus d’alignement des spins ne se produit pas instantanément, mais plutôt de manière progressive, à la manière d’une avalanche de neige.

Des chercheurs du California Institute of Technology (Caltech) ont récemment démontré que ce phénomène, connu sous le nom de bruit de Barkhausen, peut être produit non seulement par des moyens classiques, mais également par des effets quantiques. Cette découverte ouvre la voie à de nouvelles applications dans le domaine des capteurs quantiques et des dispositifs électroniques.

Le bruit de Barkhausen : un phénomène classique revisité

Le bruit de Barkhausen, mis en évidence pour la première fois par le physicien Heinrich Barkhausen en 1919, est le résultat de l’alignement progressif des spins dans un matériau magnétique sous l’effet d’un champ magnétique externe. Ce processus se produit de manière discontinue, par sauts, et peut être comparé à une avalanche de neige : un petit groupe de spins bascule, entraînant le basculement des groupes voisins, jusqu’à ce que l’ensemble du matériau soit magnétisé dans la même direction.

Traditionnellement, ces basculements de spins sont considérés comme des phénomènes classiques, résultant de l’activation thermique des particules qui acquièrent temporairement suffisamment d’énergie pour franchir une barrière énergétique. L’étude menée par les chercheurs de Caltech montre que ces basculements peuvent également se produire de manière quantique, par un processus appelé effet tunnel.

L’effet tunnel quantique : une nouvelle perspective

L’effet tunnel quantique permet aux particules de franchir une barrière énergétique sans avoir à passer par-dessus, à la manière d’une balle de golf qui traverserait une colline plutôt que de devoir la gravir. Dans le monde quantique, les particules sont en réalité des ondes, et une partie de leur fonction d’onde peut se trouver de l’autre côté de la barrière énergétique.

Les chercheurs ont également mis en évidence un effet de co-tunneling, dans lequel des groupes d’électrons en tunneling communiquent entre eux pour orienter les spins électroniques dans la même direction. Contrairement au cas classique où chaque mini-avalanche se produit de manière indépendante, l’effet de co-tunneling permet à deux avalanches de se produire de manière synchronisée, grâce aux interactions entre de grands ensembles d’électrons.

Christopher Simon tient un cristal de fluorure de lithium holmium yttrium. Crédit : Lance Hayashida/Caltech

Une expérience révélatrice

Pour leurs expériences, les chercheurs ont utilisé un matériau cristallin rose, le fluorure de lithium holmium yttrium, refroidi à des températures proches du zéro absolu. En enroulant une bobine autour du matériau et en appliquant un champ magnétique, ils ont mesuré de brefs sauts de tension, similaires à ceux observés par Barkhausen en 1919. Ces pics de tension indiquent le moment où des groupes de spins électroniques basculent leur orientation magnétique, produisant ainsi le bruit de Barkhausen.

En analysant ce bruit, les chercheurs ont pu montrer qu’une avalanche magnétique se produisait même en l’absence d’effets classiques. Ils ont notamment constaté que ces effets étaient insensibles aux variations de température du matériau, ce qui les a conduits à conclure que des effets quantiques étaient à l’origine de ces changements à grande échelle.

Des implications potentielles pour les technologies quantiques

Cette étude met en évidence le fait que des effets quantiques microscopiques peuvent entraîner des changements macroscopiques dans les matériaux. Les régions de basculement des spins peuvent contenir jusqu’à un million de milliards de spins, sur un total d’environ un milliard de billions de spins dans l’ensemble du cristal.

Selon Thomas F. Rosenbaum, professeur de physique à Caltech et co-auteur de l’étude, ces travaux s’inscrivent dans la lignée des recherches menées par son laboratoire, qui visent à isoler les effets quantiques afin de les comprendre de manière quantitative. Une autre étude récente publiée dans PNAS par l’équipe de Rosenbaum a également montré comment de minuscules effets quantiques peuvent conduire à des changements à plus grande échelle dans l’élément chrome.

En synthèse

La découverte du bruit de Barkhausen quantique par les chercheurs de Caltech ouvre de nouvelles perspectives dans le domaine de la physique fondamentale et des technologies quantiques. En démontrant que des effets quantiques microscopiques peuvent entraîner des changements macroscopiques dans les matériaux ferromagnétiques, cette étude pose les bases de futures applications dans le domaine des capteurs quantiques et des dispositifs électroniques.

Pour une meilleure compréhension

Qu’est-ce que le bruit de Barkhausen ?

Le bruit de Barkhausen est un phénomène qui se produit dans les matériaux ferromagnétiques lorsqu’ils sont soumis à un champ magnétique externe. Il est caractérisé par des sauts discontinus dans la magnétisation du matériau, résultant de l’alignement progressif des spins électroniques dans les différentes régions du matériau.

Qu’est-ce que l’effet tunnel quantique ?

L’effet tunnel quantique est un phénomène qui permet aux particules de franchir une barrière énergétique sans avoir à passer par-dessus. Dans le monde quantique, les particules sont en réalité des ondes, et une partie de leur fonction d’onde peut se trouver de l’autre côté de la barrière énergétique.

Qu’est-ce que le co-tunneling ?

Le co-tunneling est un effet quantique dans lequel des groupes d’électrons en tunneling communiquent entre eux pour orienter les spins électroniques dans la même direction. Cet effet permet à deux avalanches de spins de se produire de manière synchronisée, grâce aux interactions entre de grands ensembles d’électrons.

Quels sont les matériaux utilisés dans l’étude ?

Les chercheurs ont utilisé un matériau cristallin rose, le fluorure de lithium holmium yttrium, refroidi à des températures proches du zéro absolu pour leurs expériences.

Quelles sont les implications potentielles de cette découverte ?

La découverte du bruit de Barkhausen quantique ouvre de nouvelles perspectives dans le domaine de la physique fondamentale et des technologies quantiques. Elle pourrait conduire à de futures applications dans le domaine des capteurs quantiques et des dispositifs électroniques.

Références

Article : “Quantum Barkhausen noise induced by domain wall cotunneling” – DOI : https://doi.org/10.1073/pnas.2315598121

Une électrode adhésive 5 en 1 pour des supercondensateurs flexibles 2D

Une électrode adhésive 5 en 1 pour des supercondensateurs flexibles 2D

Les supercondensateurs, ces dispositifs de stockage d’énergie aux propriétés remarquables, font l’objet d’intenses recherches pour améliorer leur flexibilité et leur miniaturisation. Une équipe de chercheurs de l’Université de Jilin en Chine vient de franchir un pas important dans cette direction en développant une électrode adhésive innovante qui résout l’un des principaux défis des supercondensateurs flexibles 2D : la synergie entre leurs différents composants.

Les supercondensateurs flexibles 2D souffrent généralement de procédures de fabrication complexes et chronophages, ainsi que d’une faible endurance mécanique. L’équipe de recherche a créé un nouveau type d’électrode adhésive tout-en-un qui permet non seulement de simplifier le processus de fabrication, mais aussi de surmonter le déplacement interfacial des supercondensateurs conventionnels.

Sous l’effet de déformations mécaniques répétées, l’interface entre les électrodes et l’électrolyte peut se déplacer, rendant le contact interfacial moins efficace. Ce phénomène entraîne une augmentation significative de la résistance de contact et une diminution des performances de stockage d’énergie et de la stabilité du dispositif.

Une électrode adhésive pour supercondensateurs flexibles sans fil

Pour résoudre ces problèmes d’interface et éliminer les fils, les chercheurs ont combiné des acides hétéropolyacides (HPA) avec des acides aminés et des matériaux carbonés pour construire une sorte d’adhésif humide tout-en-un assurant simultanément la conduction des électrons, les propriétés redox, la déformation mécanique et l’adhérence.

Les HPA, une classe de clusters inorganiques nanométriques dotés d’une activité redox rapide et réversible, permettent au supercondensateur de se charger et de se décharger rapidement et de manière fiable. Les acides aminés aident les HPA à devenir plus flexibles, tandis que les matériaux carbonés contribuent à la conduction électronique.

Des chercheurs de l’université de Jilin, en Chine, ont mis au point un nouveau procédé de fabrication permettant de produire des supercondensateurs 2D flexibles présentant une conductivité élevée, même sous l’eau. Ces travaux ont des implications pour l’amélioration des dispositifs d’alimentation implantables, tels que les stimulateurs cardiaques. Crédit : Polyoxometalates, Tsinghua University Press

Une synergie entre composants pour des performances optimisées

Les chercheurs ont constaté que les composants carbonés amélioraient la conduction électronique, que la chimie des acides aminés contribuait à l’adhérence interfaciale et que les clusters HPA empêchaient la formation de structures plus grandes tout en dotant l’électrode d’une capacité de transfert et de stockage des électrons.

Les adhésifs résultants sont des matériaux adaptatifs et déformables qui facilitent le développement de supercondensateurs flexibles 2D pour une sortie haute tension avec des interconnexions sans métal.

Vers des supercondensateurs miniatures et implantables

Les chercheurs ont déclaré qu’ils tenteraient de créer des supercondensateurs flexibles 2D miniatures et indépendants du substrat pour développer des dispositifs d’alimentation implantables. Cette avancée ouvre la voie à de nouvelles applications dans le domaine des appareils électroniques portables et implantables, tels que les montres intelligentes ou les stimulateurs cardiaques.

En synthèse

L’équipe a développé une électrode adhésive innovante qui résout les problèmes d’interface et élimine les fils dans les supercondensateurs flexibles 2D. L’approche des chercheurs simplifie ici la fabrication, améliore la durabilité mécanique et ouvre la voie à des dispositifs miniatures et implantables.

Pour une meilleure compréhension

Qu’est-ce qu’un supercondensateur flexible 2D ?

Un supercondensateur flexible 2D est un dispositif de stockage d’énergie qui peut être déformé et plié tout en maintenant ses performances. Il est généralement composé d’électrodes et d’un électrolyte empilés en sandwich ou disposés en structure plate 2D.

Quels sont les principaux défis des supercondensateurs flexibles 2D ?

Les principaux défis des supercondensateurs flexibles 2D sont la complexité et la durée des procédures de fabrication, ainsi que la faible endurance mécanique. Sous l’effet de déformations répétées, l’interface entre les électrodes et l’électrolyte peut se déplacer, entraînant une diminution des performances et de la stabilité.

Comment l’électrode adhésive développée par les chercheurs résout ces problèmes ?

L’électrode adhésive développée par les chercheurs combine des acides hétéropolyacides, des acides aminés et des matériaux carbonés pour créer un adhésif humide multifonctionnel. Cet adhésif assure la conduction des électrons, les propriétés redox, la déformation mécanique et l’adhérence, simplifiant ainsi la fabrication et améliorant la durabilité mécanique.

Quels sont les avantages de cette nouvelle approche ?

Cette nouvelle approche permet de simplifier le processus de fabrication, de surmonter le déplacement interfacial des supercondensateurs conventionnels et d’éliminer les fils. Les adhésifs résultants sont des matériaux adaptatifs et déformables qui facilitent le développement de supercondensateurs flexibles 2D pour une sortie haute tension avec des interconnexions sans métal.

Quelles sont les perspectives d’application de ces supercondensateurs flexibles 2D ?

Les chercheurs envisagent de créer des supercondensateurs flexibles 2D miniatures et indépendants du substrat pour développer des dispositifs d’alimentation implantables. Cette avancée ouvre la voie à de nouvelles applications dans le domaine des appareils électroniques portables et implantables, tels que les montres intelligentes ou les stimulateurs cardiaques.

Références

Article : “Taming of heteropoly acids into adhesive electrodes using amino acids for the development of flexible two-dimensional supercapacitors” – DOI: 10.26599/POM.2024.9140062

L’Université de Kobe repousse les limites de l’électronique de puissance

L'Université de Kobe repousse les limites de l'électronique de puissance

Les chercheurs de l’Université de Kobe ont développé un nouveau convertisseur de puissance électrique qui offre une efficacité nettement supérieure à un coût et une maintenance réduits par rapport aux modèles précédents. Le dispositif promet de contribuer de manière significative au développement futur des composants électriques et électroniques dans des domaines (production d’énergie, santé, mobilité et technologies de l’information.)

Les dispositifs qui récoltent l’énergie de la lumière du soleil ou des vibrations, qui alimentent des appareils médicaux ou des voitures à hydrogène, ont tous un composant clé en commun : le convertisseur élévateur. En effet, il convertit une entrée de courant continu basse tension en une sortie de courant continu haute tension. Étant donné son omniprésence et son importance, il est souhaitable qu’il utilise le moins de pièces possible pour réduire les coûts et la maintenance, tout en fonctionnant avec la plus grande efficacité possible sans générer de bruit électromagnétique ni de chaleur.

Le principe de fonctionnement principal des convertisseurs élévateurs consiste à basculer rapidement entre deux états dans un circuit, l’un qui stocke l’énergie et l’autre qui la libère. Plus la commutation est rapide, plus les composants peuvent être petits et donc l’ensemble du dispositif peut être réduit. En revanche, cela augmente également le bruit électromagnétique et la production de chaleur, ce qui détériore les performances du convertisseur de puissance.

Le convertisseur élévateur de tension à courant continu développé par l’université de Kobe présente un bruit électromagnétique très réduit et un rendement énergétique élevé de plus de 91 %, ce qui est sans précédent pour un lecteur MHz avec un rapport multiplicateur de tension élevé. Ce rapport est également plus de 1,5 fois supérieur aux conceptions existantes. Crédit : MISHIMA Tomokazu

Une nouvelle conception de circuit prometteuse

L’équipe du chercheur en électronique de puissance de l’Université de Kobe, MISHIMA Tomokazu, a réalisé des progrès dans le développement d’un nouveau circuit de conversion de puissance à courant continu. Ils ont réussi à combiner une commutation à haute fréquence (environ 10 fois plus élevée qu’auparavant) avec une technique qui réduit le bruit électromagnétique et les pertes de puissance dues à la dissipation de chaleur, appelée « commutation douce », tout en réduisant le nombre de composants et, par conséquent, en maintenant un faible coût et une faible complexité.

Selon le Dr Mishima, « Lorsque le circuit passe d’un état à l’autre, il y a une brève période pendant laquelle le commutateur n’est pas complètement fermé, et à ce moment-là, il y a à la fois une tension et un courant à travers le commutateur. Cela signifie que pendant ce temps, le commutateur agit comme une résistance et dissipe donc de la chaleur. Plus un état de commutation change souvent, plus cette dissipation se produit. La commutation douce est une technique qui garantit que les transitions de commutation se produisent à une tension nulle, minimisant ainsi la perte de chaleur. »

Des résultats prometteurs et des perspectives d’avenir

L’équipe de l’Université de Kobe a présenté sa nouvelle conception de circuit et son évaluation dans la revue IEEE Transactions on Power Electronics. La clé de leur réussite réside dans l’utilisation de circuits «réservoirs résonnants» qui sont capables de stocker de l’énergie pendant la période de commutation et ont donc des pertes beaucoup plus faibles. De plus, ils utilisent une conception économe en composants avec des composants plats imprimés sur une carte de circuit, appelée “transformateur planaire”, qui est très compacte et offre à la fois une bonne efficacité et de bonnes performances thermiques.

Mishima et ses collègues ont également construit un prototype du circuit et mesuré ses performances.

L’équipe de l’université de Kobe a présenté une nouvelle conception de circuit qui utilise des circuits à “réservoir résonant” qui peuvent stocker l’énergie pendant la période de commutation et ont donc des pertes beaucoup plus faibles. En outre, ils utilisent une conception économe en composants avec des composants plats imprimés sur une carte de circuit, appelée “transformateur planaire”, qui est très compacte et présente à la fois un bon rendement et de bonnes performances thermiques. Crédit : MISHIMA Tomokazu

« Nous avons confirmé que notre conception sans snubber réduit considérablement le bruit électromagnétique et offre une efficacité énergétique élevée allant jusqu’à 91,3 %, ce qui est sans précédent pour un entraînement MHz avec un rapport de conversion de tension élevé. Ce rapport est également plus de 1,5 fois supérieur à celui des conceptions existantes », souligne le Dr Mishima. Ils souhaitent encore augmenter l’efficacité en réduisant la dissipation de puissance des composants magnétiques utilisés.

Compte tenu de l’omniprésence des appareils électriques dans notre société, le fonctionnement à haut rendement et à faible bruit des alimentations à courant continu avec un rapport multiplicateur de tension élevé est extrêmement important. Ce développement de l’Université de Kobe sera d’une grande pertinence pour les applications dans les domaines de l’énergie électrique, des énergies renouvelables, des transports, de l’information et des télécommunications ainsi que des soins médicaux.

Mishima explique leurs plans pour l’avenir : « Le développement actuel est un prototype de petite capacité de classe 100W, mais nous visons à étendre la capacité de puissance à une capacité de classe kW plus importante à l’avenir en améliorant la carte de circuit électronique et d’autres composants. »

Cette recherche a été menée en collaboration avec des chercheurs de l’Université nationale Chung Hsing.

Article : “MHz-Driven Snubberless Soft-Switching Current-Fed Multiresonant DC-DC Converter” – DOI: 10.1109/TPEL.2024.3380069

Un nouveau type de refroidissement pour les simulateurs quantiques

Un nouveau type de refroidissement pour les simulateurs quantiques

Les expériences quantiques ouvrent de nouvelles perspectives fascinantes pour la recherche scientifique, mais elles sont confrontées à un défi majeur : la fragilité des effets quantiques face aux perturbations extérieures. Des chercheurs de la TU Wien (Vienne) ont mis au point une méthode innovante pour refroidir efficacement les expériences quantiques, en divisant un condensat de Bose-Einstein en deux parties selon une dynamique temporelle spécifique.

L’avancée est cruciale pour les simulateurs quantiques, qui permettent d’étudier des phénomènes quantiques jusqu’alors inaccessibles.

Des simulateurs quantiques pour explorer de nouveaux horizons

Les simulateurs quantiques sont devenus un outil incontournable en physique quantique ces dernières années. Maximilian Prüfer, chercheur à l’Institut de physique atomique de la TU Wien, explique : « Les simulateurs quantiques sont des systèmes dont le comportement est déterminé par des effets quantiques et qui peuvent être contrôlés et observés avec une grande précision. Ils permettent d’étudier des phénomènes fondamentaux de la physique quantique qui se produisent dans d’autres systèmes quantiques, mais qui sont difficiles à étudier directement. »

Cette approche n’est pas nouvelle en physique : par exemple, on peut réaliser des expériences avec des ondes dans l’eau pour en apprendre davantage sur les ondes sonores, car les ondes dans l’eau sont plus faciles à observer. Dans le domaine de la physique quantique, les simulateurs quantiques sont devenus un outil extrêmement utile et polyvalent, notamment grâce aux nuages d’atomes ultra-froids étudiés dans le laboratoire de Maximilian Prüfer.

Refroidir efficacement pour optimiser les performances

Le facteur limitant actuel pour les simulateurs quantiques est leur température. « Plus nous refroidissons efficacement les degrés de liberté intéressants du condensat, mieux nous pouvons l’utiliser et en apprendre davantage », souligne Maximilian Prüfer.

Il existe différentes méthodes pour refroidir un gaz, comme augmenter lentement son volume. Pour les condensats de Bose-Einstein ultra-froids, d’autres techniques sont généralement utilisées, comme éliminer rapidement les atomes les plus énergétiques jusqu’à obtenir un ensemble d’atomes ayant une énergie uniformément basse, et donc une température plus froide.

L’équipe de recherche de la TU Wien a utilisé une approche totalement différente. Tiantian Zhang, première auteure de l’étude, explique : « Nous créons un condensat de Bose-Einstein, puis nous le divisons en deux parties en créant une barrière au milieu. Le nombre de particules qui se retrouvent à droite et à gauche de la barrière est indéterminé, en raison des lois de la physique quantique. »

Contrôler les fluctuations pour refroidir efficacement

Les chercheurs ont montré que ni une division extrêmement abrupte, ni une division extrêmement lente du condensat de Bose-Einstein n’est optimale. Il faut trouver un compromis, une façon intelligemment adaptée de diviser dynamiquement le condensat, afin de contrôler au mieux les fluctuations quantiques.

Ce problème ne peut pas être résolu à l’aide d’ordinateurs conventionnels, mais grâce à des expériences, l’équipe de recherche a pu montrer que la dynamique de division appropriée permet de supprimer la fluctuation du nombre de particules, ce qui se traduit par une réduction de la température que l’on cherche à minimiser.

Maximilian Prüfer conclut : « Différentes échelles de température coexistent dans ce système, et nous en abaissons une très spécifique. Il ne faut pas imaginer un mini-réfrigérateur qui devient sensiblement plus froid dans l’ensemble. Mais ce n’est pas ce dont nous parlons : la suppression des fluctuations est exactement ce dont nous avons besoin pour pouvoir utiliser notre système comme un simulateur quantique encore mieux qu’auparavant. Nous pouvons maintenant l’utiliser pour répondre à des questions de physique quantique fondamentale qui étaient jusqu’alors inaccessibles. »

Article : “Squeezing Oscillations in a Multimode Bosonic Josephson Junction” – DOI: 10.1103/PhysRevX.14.011049

Légende illustration : Tiantian Zhang et Maximilian Prüfer discutent des mesures dans le laboratoire quantique. Crédit : TU Wien

Des cellules solaires flexibles qui conservent 90% d’efficacité après 10 000 plis

Des cellules solaires flexibles qui conservent 90% d'efficacité après 10 000 plis

Les cellules solaires flexibles offrent de nombreuses applications potentielles dans l’aérospatiale et l’électronique flexible. Leur faible efficacité de conversion énergétique a par contre limité leur utilisation pratique jusqu’à présent. Une nouvelle méthode de fabrication a permis d’augmenter l’efficacité énergétique des cellules solaires flexibles à base de pérovskite, une classe de composés dotés d’une structure cristalline spécifique facilitant la conversion de l’énergie solaire en électricité.

Les cellules solaires flexibles à base de pérovskite (FPSC) actuelles souffrent d’une efficacité de conversion énergétique inférieure à celle des cellules solaires rigides à base de pérovskite. Cela s’explique par les caractéristiques souples et inhomogènes du matériau de base flexible, le polyéthylène téréphtalate (PET), sur lequel sont construits les films de pérovskite des FPSC.

De plus, les FPSC ont une durabilité moindre par rapport aux cellules solaires rigides utilisant le verre comme substrat de base. Les pores présents dans les substrats des cellules solaires flexibles permettent à l’eau et à l’oxygène d’envahir les matériaux pérovskites, entraînant leur dégradation.

Une technique de fabrication pour améliorer l’efficacité des FPSC

Pour résoudre ces problèmes liés à la technologie actuelle des FPSC, une équipe de scientifiques des matériaux du Laboratoire d’État pour l’exploitation et le contrôle des systèmes électriques de l’Université Tsinghua et du Centre d’excellence en nanosciences du Centre National pour la Nanoscience et la Technologie à Pékin, en Chine, a développé une nouvelle technique de fabrication qui augmente l’efficacité des FPSC, ouvrant la voie à une utilisation de cette technologie à une échelle beaucoup plus large.

Selon Chenyi Yi, professeur associé au laboratoire d’exploitation et de contrôle des réseaux électriques de l’Université Tsinghua et auteur principal de l’article, « augmenter l’efficacité de conversion énergétique des FPSC est crucial pour plusieurs raisons : une efficacité plus élevée rend les FPSC plus compétitives par rapport aux autres technologies de cellules solaires, diminue le coût par watt d’électricité générée et les ressources nécessaires pour produire la même quantité d’énergie électrique, et élargit la gamme d’applications où les FPSC peuvent être utilisées de manière pratique, notamment dans l’aérospatiale et l’électronique flexible où l’espace et le poids sont primordiaux. »

SnSO4 est utilisé comme précurseur de l’étain pour l’oxyde d’étain (SnO2) déposé comme couche de transport d’électrons des FPSC. Une nouvelle méthode de fabrication du CBD permet de mieux contrôler la croissance du SnO2, d’améliorer l’efficacité globale de conversion de l’énergie de la cellule solaire et de rendre plus pratique la technologie des cellules solaires flexibles. Crédit : iEnergy, Tsinghua University Press

Une méthode de dépôt par bain chimique innovante

Plus précisément, l’équipe a développé une nouvelle méthode de dépôt par bain chimique (CBD) permettant de déposer de l’oxyde d’étain (SnO2) sur un substrat flexible sans nécessiter d’acide fort, auquel de nombreux substrats flexibles sont sensibles. Cette nouvelle technique a permis aux chercheurs de mieux contrôler la croissance de l’oxyde d’étain sur le substrat flexible. L’oxyde d’étain sert de couche de transport d’électrons dans la FPSC, ce qui est essentiel pour l’efficacité de conversion énergétique.

« Cette méthode CBD diffère des recherches précédentes en utilisant du sulfate d’étain (SnSO4) plutôt que du chlorure d’étain (SnCl2) comme précurseur d’étain pour déposer le SnO2, rendant la nouvelle méthode compatible avec les substrats flexibles sensibles aux acides », a déclaré Chenyi Yi.

Amélioration de la durabilité des FPSC

Il est important de noter que la nouvelle méthode de fabrication répond également à certaines préoccupations concernant la durabilité des FPSC.

« Le sulfate SO42- résiduel restant après le CBD à base de SnSO4 bénéficie également à la stabilité des PSC en raison de la forte coordination entre le plomb Pb2+ de la pérovskite et le SO42- du SnO2. Par conséquent, nous pouvons fabriquer du SnO2 de meilleure qualité pour obtenir des FPSC plus efficaces et plus stables », a expliqué Chenyi Yi.

L’équipe a atteint un nouveau record d’efficacité de conversion énergétique pour les FPSC, avec 25,09% atteints et 24,90% certifiés. La durabilité des cellules solaires flexibles à base de SnSO4 a également été démontrée, les cellules conservant 90% de leur efficacité de conversion énergétique après avoir été pliées 10 000 fois. Les cellules solaires flexibles à base de SnSO4 ont également montré une stabilité améliorée à haute température par rapport aux cellules solaires flexibles à base de SnCl2.

Vers une production à grande échelle des FPSC

La nouvelle méthode de fabrication développée par l’équipe de recherche a produit des résultats reproductibles et permet aux fabricants de réutiliser le bain chimique, augmentant ainsi la faisabilité d’une production évolutive des FPSC.

« L’objectif ultime est de faire passer ces FPSC à haute efficacité de l’échelle du laboratoire à la production industrielle, permettant une application commerciale généralisée de cette technologie dans divers domaines, des technologies portables à l’électronique portable en passant par les sources d’énergie aérospatiales et les solutions d’énergie renouvelable à grande échelle », a conclu Chenyi Yi.

Article : “25% – Efficiency flexible perovskite solar cells via controllable growth of SnO2” – DOI: 10.23919/IEN.2024.0001

Un laser crée des trous de 67 nm dans du verre

Un laser crée des trous de 67 nm dans du verre

Des chercheurs japonais ont mis au point une nouvelle technique de traitement des matériaux au laser qui permet d’atteindre une précision inégalée. En utilisant un faisceau laser spécialement conçu et une lentille à immersion, ils sont parvenus à créer des trous d’un diamètre de seulement 67 nanomètres dans du verre.

Les chercheurs ont utilisé un faisceau laser à polarisation radiale, également appelé faisceau vectoriel. Ce type de faisceau génère un champ électrique longitudinal au point focal, produisant ainsi un spot plus petit que les faisceaux conventionnels. Bien que cette technique ait été identifiée comme prometteuse pour le traitement au laser, son efficacité était jusqu’à présent limitée par l’affaiblissement du champ électrique à l’intérieur du matériau, dû à la réfraction de la lumière à l’interface air-matériau.

Pour surmonter cet obstacle, les scientifiques ont eu recours à une lentille à immersion, couramment utilisée en microscopie biologique. Comme l’huile d’immersion et le verre ont des indices de réfraction presque identiques, la lumière qui les traverse ne subit pas de déviation.

Une forme annulaire pour amplifier le champ électrique

En étudiant le comportement du faisceau à polarisation radiale lorsqu’il est focalisé avec une forme annulaire, les chercheurs ont constaté que le champ longitudinal est considérablement amplifié. Cette amplification est due à la réflexion totale qui se produit à des angles de convergence élevés sur la surface arrière, entre le verre et l’air.

Yuichi Kozawa, professeur associé à l’Institut de recherche multidisciplinaire pour les matériaux avancés (IMRAM) de l’Université de Tohoku et co-auteur de l’étude, explique : « En utilisant un faisceau à polarisation radiale de forme annulaire, nous avons réussi à créer un spot focal de très petite taille. »

Fabrication d’un cratère d’ablation d’une taille correspondant à ~1/16 de la longueur d’onde par irradiation laser unique de la surface arrière d’un verre avec un faisceau annulaire à polarisation radiale. Crédit : Y. Kozawa et al.

Des trous de 67 nanomètres avec un seul tir laser

Les chercheurs ont appliqué cette méthode pour traiter la surface d’un substrat en verre avec un faisceau laser à impulsions ultra-courtes. Un seul tir de l’impulsion convertie sur la face arrière du substrat a permis de créer un trou d’un diamètre de seulement 67 nanomètres, soit environ 1/16 de la longueur d’onde du faisceau laser.

« Cette percée permet un traitement direct des matériaux avec une précision accrue grâce au champ électrique longitudinal amplifié », ajoute le Professeur Kozawa. « Elle offre une approche simple pour réaliser des échelles de traitement inférieures à 100 nm et ouvre de nouvelles possibilités pour le nano-traitement au laser dans divers secteurs industriels et domaines scientifiques. »

Légende illustration : Illustration conceptuelle du traitement laser en une seule fois par un faisceau annulaire à polarisation radiale, focalisé sur la surface arrière d’une plaque de verre. ©Y. Kozawa et al.

Article : “Nanotraitement laser via un champ électrique longitudinal amélioré d’un faisceau à polarisation radiale.” Auteurs : Yukine Tsuru, Yuichi Kozawa, Yuuki Uesugi, et Shunichi Sato. Journal : Optics Letters. DOI : 10.1364/OL.517382

La course à la commercialisation des métalentilles est lancée

La course à la commercialisation des métalentilles est lancée

Les métalentilles, des nanostructures artificielles capables de manipuler la lumière, offrent une technologie prometteuse pour réduire considérablement la taille et l’épaisseur des composants optiques traditionnels. Particulièrement efficaces dans le proche infrarouge, elles ouvrent la voie à de nombreuses applications telles que le LiDAR, les drones miniatures et les détecteurs de vaisseaux sanguins.

Leur coût de fabrication élevé représente un obstacle majeur à leur commercialisation. Des chercheurs ont récemment développé des méthodes innovantes pour produire en masse ces métalentilles et les fabriquer sur de grandes surfaces, réduisant ainsi leur coût de production.

Une collaboration scientifique fructueuse

Une équipe de recherche collaborative, composée de professeurs et de doctorants de l’Université des sciences et technologies de Pohang (POSTECH) et de l’Université de Corée, a proposé deux méthodes novatrices pour la production en masse de métalentilles et leur fabrication sur de grandes surfaces. Leurs travaux ont été publiés dans la revue internationale Laser & Photonics Reviews.

La photolithographie, un procédé utilisé pour fabriquer les métalentilles en imprimant des motifs sur des wafers de silicium à l’aide de lumière, est une étape clé de leur fabrication. L’équipe a opté pour la photolithographie à ultraviolets profonds, qui utilise des longueurs d’onde plus courtes, permettant ainsi la création de structures plus fines et détaillées.

Des avancées significatives dans la production de métalentilles

L’équipe de recherche a récemment réussi à produire en masse des métalentilles pour la région de la lumière visible en utilisant la photolithographie à ultraviolets profonds. Cependant, cette méthode présentait une faible efficacité dans la région infrarouge. Pour surmonter cette limitation, les chercheurs ont développé un matériau à haut indice de réfraction et à faible perte pour l’infrarouge, qu’ils ont intégré au processus de production en masse.

Cette approche a permis de créer avec succès une métalentille infrarouge de 1 cm de diamètre sur un wafer de 8 pouces. La lentille possède une ouverture numérique remarquable de 0,53, soulignant sa capacité exceptionnelle à collecter la lumière avec une haute résolution proche de la limite de diffraction. Sa structure cylindrique la rend également indépendante de la polarisation, garantissant d’excellentes performances quelle que soit la direction de vibration de la lumière.

La nano-impression, une technique prometteuse

Dans la seconde approche, l’équipe a utilisé la nano-impression, un procédé permettant d’imprimer des nanostructures à l’aide d’un moule. Cette technique a permis de produire en masse une métalentille de 5 mm de diamètre, composée d’environ cent millions de nanostructures rectangulaires sur un wafer de 4 pouces. La métalentille ainsi conçue a démontré des performances impressionnantes, avec une ouverture de 0,53 et des propriétés dépendantes de la polarisation, répondant efficacement à la direction de vibration de la lumière.

Vers la commercialisation des métalentilles

Fort de ces réalisations, l’équipe a intégré un système d’imagerie haute résolution pour observer des échantillons réels, validant ainsi la possibilité de commercialiser les métalentilles. Ces travaux revêtent une importance capitale, car ils permettent de surmonter les limites du processus traditionnel de production unitaire des métalentilles. Ils facilitent non seulement la création de dispositifs optiques aux caractéristiques dépendantes ou indépendantes de la polarisation, adaptés à des applications spécifiques, mais réduisent également le coût de production des métalentilles jusqu’à 1 000 fois.

Le professeur Junsuk Rho, qui a dirigé la recherche, a précisé : «Nous avons réussi à produire de manière précise et rapide des métalentilles hautes performances à l’échelle de la plaquette, atteignant des dimensions centimétriques. Notre objectif est que cette recherche accélère l’industrialisation des métalentilles, favorisant ainsi le développement de dispositifs optiques et de technologies optiques efficaces.»

Article : “Fabrication à l’échelle de la plaquette de métal dans l’infrarouge proche” – DOI: 10.1002/lpor.202300929

Un nouveau métamatériau topologique amplifie les ondes sonores de manière exponentielle

Un nouveau métamatériau topologique amplifie les ondes sonores de manière exponentielle

Les métamatériaux constituent des matériaux synthétiques aux propriétés uniques. Une équipe internationale de chercheurs, menée par l’institut néerlandais AMOLF, vient de réaliser un nouveau type de métamatériau permettant une propagation sans précédent des ondes sonores. Cette découverte, publiée dans la prestigieuse revue Nature, pourrait avoir des applications prometteuses dans les technologies de capteurs et les dispositifs de traitement de l’information.

Les chercheurs ont réussi à créer le premier exemple concret d’une « chaîne de Kitaev bosonique », un modèle théorique jusqu’alors jamais réalisé expérimentalement. Cette chaîne tire ses propriétés particulières de sa nature de matériau topologique. Pour y parvenir, les scientifiques ont fait interagir des résonateurs nanomécaniques avec de la lumière laser via des forces de pression de radiation.

Le modèle de la chaîne de Kitaev, initialement développé pour décrire le comportement des électrons dans un matériau supraconducteur, est célèbre pour prédire l’existence d’excitations particulières aux extrémités d’un nanofil : les modes zéro de Majorana. Ces derniers suscitent un vif intérêt en raison de leur potentielle utilisation dans les ordinateurs quantiques.

Des “ressorts optiques” pour coupler les résonateurs

La chaîne de Kitaev bosonique est essentiellement une chaîne de résonateurs couplés. Les chercheurs ont réalisé les liens nécessaires entre les résonateurs nanomécaniques, de petites cordes vibrantes en silicium sur une puce, en les couplant à l’aide de forces exercées par la lumière, créant ainsi des «ressorts optiques».

Jesse Slim, premier auteur de l’article publié dans Nature, explique : « En faisant varier soigneusement l’intensité d’un laser au fil du temps, nous avons pu relier cinq résonateurs et mettre en œuvre la chaîne de Kitaev bosonique. »

Une amplification exponentielle et directionnelle des vibrations

Les résultats obtenus sont remarquables. Le couplage optique ajoute une amplification aux vibrations nanomécaniques. Ainsi, les ondes sonores, qui sont les vibrations mécaniques se propageant le long de la chaîne, sont amplifiées de manière exponentielle d’une extrémité à l’autre. Fait intéressant, dans la direction opposée, la transmission des vibrations est interdite.

De plus, si l’onde est légèrement retardée, d’un quart de période d’oscillation, le comportement est complètement inversé : le signal est amplifié vers l’arrière et bloqué vers l’avant. La chaîne de Kitaev bosonique agit donc comme un amplificateur directionnel unique, pouvant avoir des applications intéressantes pour la manipulation de signaux, en particulier dans les technologies quantiques.

Un métamatériau topologique aux propriétés uniques

Les chercheurs ont montré que la chaîne de Kitaev bosonique est en fait une nouvelle phase topologique de la matière. L’amplification directionnelle observée est un phénomène topologique associé à cette phase, comme l’avaient prédit les collaborateurs théoriciens en 2018.

Ils ont démontré une signature expérimentale unique de la nature topologique du métamatériau : si la chaîne est fermée, formant un «collier», les ondes sonores amplifiées dans l’anneau de résonateurs continuent de circuler et atteignent une très haute intensité, de manière similaire à la génération de faisceaux lumineux intenses dans les lasers.

Vers une amélioration des performances des capteurs ?

Ewold Verhagen, responsable du groupe AMOLF, souligne que la chaîne est particulièrement sensible à un type spécifique de perturbation. Si la fréquence du dernier résonateur de la chaîne est légèrement perturbée, les signaux amplifiés le long de la chaîne peuvent soudainement se propager à nouveau vers l’arrière, subissant une seconde amplification. Cette sensibilité accrue pourrait être exploitée pour détecter la masse d’une molécule adhérant au résonateur ou un qubit interagissant avec lui.

Grâce à une subvention du Conseil européen de la recherche (ERC), Verhagen souhaite étudier les possibilités d’améliorer la sensibilité des capteurs nanomécaniques dans ces systèmes. Cette découverte ouvre de nouvelles perspectives passionnantes pour le développement de technologies de capteurs innovantes.

Légende illustration : Impression d’artiste de la chaîne bosonique de Kitaev : plusieurs résonateurs mécaniques à cordes sont reliés pour former une chaîne utilisant la lumière. Les vibrations mécaniques (ondes sonores) sont transportées et amplifiées le long de la chaîne. Crédit : Ella Maru Studio

Article : “Optomechanical realization of a bosonic Kitaev chain” – DOI: 10.1038/s41586-024-07174-w

Micro-braille plus petit qu’une tête d’épingle : l’exploit d’un polymère innovant

Micro-braille plus petit qu'une tête d'épingle : l'exploit d'un polymère innovant

Les lasers de haute puissance sont couramment utilisés pour modifier les surfaces polymères afin de fabriquer des produits biomédicaux de haute technologie, des composants électroniques et de stockage de données. Une équipe de chercheurs de l’Université Flinders a découvert un polymère dérivé du soufre, peu coûteux et sensible à la lumière, qui réagit aux lasers à lumière visible de faible puissance.

Les détails de ce nouveau système ont été publiés dans l’une des revues de chimie, Angewandte Chemie International Edition. L’article présente notamment une version gravée au laser de la célèbre peinture de la Joconde et une impression en micro-braille plus petite qu’une tête d’épingle.

Selon le professeur de chimie Matthew Flinders, Justin Chalker, de l’Université Flinders, « cette découverte pourrait permettre de réduire le besoin en équipements spécialisés coûteux, notamment en lasers de haute puissance présentant un risque de rayonnement dangereux, tout en utilisant des matériaux plus durables. Par exemple, le polymère clé est fabriqué à partir de soufre élémentaire à faible coût, un sous-produit industriel, et de cyclopentadiène ou de dicyclopentadiène. »

Les applications potentielles comprennent de nouvelles approches pour le stockage des données sur les polymères, de nouvelles surfaces à motifs pour les applications biomédicales et de nouvelles façons de fabriquer des dispositifs à micro- et nano-échelle pour l’électronique, les capteurs et la microfluidique. Crédit : Flinders University

Une réactivité immédiate à la lumière laser

L’étude a utilisé une série de lasers avec des longueurs d’onde discrètes (532, 638 et 786 nm) et des puissances variables pour démontrer une variété de modifications de surface sur ces polymères spéciaux, notamment un gonflement contrôlé ou une gravure par ablation.

Dès que la lumière laser touche la surface, le polymère gonfle ou grave instantanément un creux pour façonner des lignes, des trous, des pointes et des canaux. Cette découverte a été faite par le chercheur de l’Université Flinders et co-auteur de l’étude, le Dr Christopher Gibson, lors de ce qui devait être une analyse de routine d’un polymère inventé pour la première fois au Chalker Lab en 2022.

Christopher Gibson, chercheur principal à l’université Flinders, a découvert qu’un nouveau polymère inventé dans le laboratoire Chalker en 2022 pouvait être immédiatement modifié par une lumière laser visible de faible puissance. Crédit : Flinders University

De multiples applications potentielles

Abigail Mann, doctorante au Collège des sciences et de l’ingénierie de Flinders et premier auteur de l’article, a dirigé la phase suivante du projet. « Le résultat de ces efforts est une nouvelle technologie permettant de générer des motifs précis sur la surface du polymère », explique-t-elle.

Les applications potentielles comprennent de nouvelles approches pour stocker des données sur des polymères, de nouvelles surfaces structurées pour des applications biomédicales, et de nouvelles façons de fabriquer des dispositifs à l’échelle micro et nanométrique pour l’électronique, les capteurs et la microfluidique.

Le Dr Lynn Lisboa, associée de recherche, ajoute : « L’impact de cette découverte s’étend bien au-delà du laboratoire, avec des utilisations potentielles dans les dispositifs biomédicaux, l’électronique, le stockage d’informations, la microfluidique et de nombreuses autres applications de matériaux fonctionnels. »

En synthèse

Cette découverte d’un polymère dérivé du soufre sensible à la lumière laser de faible puissance ouvre de nouvelles perspectives pour la production durable de dispositifs de haute technologie. Grâce à sa réactivité immédiate et contrôlable, ce matériau innovant pourrait trouver de multiples applications dans des domaines variés comme la biomédecine, l’électronique ou le stockage de données. Les chercheurs de l’Université Flinders espèrent inspirer un large éventail d’applications concrètes dans leur laboratoire et au-delà.

Pour une meilleure compréhension

Qu’est-ce qu’un polymère dérivé du soufre ?

Un polymère dérivé du soufre est un matériau composé de longues chaînes moléculaires contenant principalement des atomes de soufre. Dans cette étude, le polymère clé est fabriqué à partir de soufre élémentaire, un sous-produit industriel, et de cyclopentadiène ou de dicyclopentadiène.

Quels sont les avantages de ce nouveau polymère sensible à la lumière ?

Ce polymère réagit aux lasers à lumière visible de faible puissance, ce qui permet une production plus abordable et plus sûre par rapport aux lasers de haute puissance couramment utilisés. De plus, il est fabriqué à partir de matériaux durables et peu coûteux.

Comment le laser modifie-t-il la surface du polymère ?

Dès que la lumière laser touche la surface, le polymère gonfle ou grave instantanément un creux pour façonner des lignes, des trous, des pointes et des canaux. L’étude a démontré qu’il est possible de contrôler le type et la taille de ces modifications en ajustant les paramètres du laser.

Quelles sont les applications potentielles de cette découverte ?

Les applications potentielles comprennent de nouvelles approches pour stocker des données sur des polymères, de nouvelles surfaces structurées pour des applications biomédicales, et de nouvelles façons de fabriquer des dispositifs à l’échelle micro et nanométrique pour l’électronique, les capteurs et la microfluidique.

Quel est l’impact de cette découverte au-delà du laboratoire ?

Cette découverte pourrait avoir un impact significatif dans de nombreux domaines, tels que les dispositifs biomédicaux, l’électronique, le stockage d’informations, la microfluidique et de nombreuses autres applications de matériaux fonctionnels. Les chercheurs espèrent inspirer un large éventail d’applications concrètes grâce à ce nouveau matériau innovant.

Références

Légende illustration : Le premier auteur, Mme Abigail Mann, candidate au doctorat, à côté du laser de faible puissance, à gauche, Jason Gascooke, spectroscopiste à l’ANFF, et Lynn Lisboa, avec l’image du laser “micro-Lisa” affichée sur un écran d’ordinateur normal. Crédit : Flinders University

Article : “Modification of Polysulfide Surfaces with Low-Power Lasers” – DOI: 10.1002/anie.202404802

Une approche en tandem pour de meilleures cellules solaires

Une approche en tandem pour de meilleures cellules solaires

Les cellules solaires à base de pérovskite représentent une percée dans le domaine de l’énergie solaire. Leur potentiel pour améliorer l’efficacité et la rentabilité des panneaux solaires suscite un vif intérêt dans la communauté scientifique. Pour que cette technologie passe du laboratoire à la production commerciale, plusieurs défis doivent encore être relevés.

Les pérovskites, plus précisément les halogénures de plomb méthylammonium, ont été découvertes en 2009 pour leurs excellentes propriétés d’absorption de la lumière. Bien que l’efficacité des premières cellules solaires à base de pérovskite était modeste, cela a marqué le début d’une nouvelle voie dans la recherche photovoltaïque.

L’enthousiasme suscité par les pérovskites s’explique par le fait qu’elles peuvent être créées à basse température et facilement déposées sur la plupart des surfaces, y compris les surfaces flexibles, les rendant plus légères, plus adaptables et potentiellement moins chères que les panneaux solaires en silicium.

La technologie tandem : combiner pérovskite et silicium

Aujourd’hui, il est clair que les futures cellules solaires incluront probablement ces pérovskites en combinaison avec le silicium traditionnel.

Erkan Aydin, Stefaan De Wolf et une équipe de KAUST ont examiné comment cette technologie tandem peut sortir du laboratoire et être produite à grande échelle pour une fabrication commerciale.

Selon Erkan Aydin, « Les cellules solaires à base de pérovskite et de silicium se sont toutes deux révélées très efficaces ; cependant, leur utilisation conjointe en tandem dans une seule cellule permet une meilleure utilisation de la lumière du soleil en minimisant les pertes qui ne sont pas converties en charge électrique. »

Les défis de la fabrication à grande échelle

Erkan Aydin et ses co-auteurs ont recensé les développements dans la fabrication de cellules solaires tandem qui permettent d’augmenter la taille et l’efficacité de conversion de l’énergie. Mais ils soulignent que d’autres approches sont nécessaires pour les rendre commercialement viables.

Un défi, par exemple, est que la topographie de la surface du silicium affecte le dépôt de la pérovskite. Les dispositifs de laboratoire les plus performants à ce jour ont utilisé l’enduction centrifuge d’une encre de précurseur de pérovskite combinée à un traitement antisolvant. Cette approche ne convient pas encore au traitement commercial car elle est difficile à mettre à l’échelle et gaspille beaucoup de matériau.

La fiabilité et la durabilité des cellules tandem

Une autre considération est que l’humidité, la chaleur et leur combinaison avec la lumière accélèrent la dégradation des sous-cellules de pérovskite. Les auteurs détaillent divers tests de vieillissement accéléré et d’environnement réel sur les cellules solaires tandem pérovskite/silicium et soulignent la nécessité d’efforts ciblés dans cette direction.

Selon Erkan Aydin, « Je pense que le plus grand défi est d’augmenter la fiabilité des sous-cellules de pérovskite. Les activités de recherche que nous avons menées jusqu’à présent ont indiqué que nous n’avons pas encore atteint de limite fondamentale, nous avons donc besoin d’efforts plus concentrés pour réaliser des dispositifs stables à long terme. »

En synthèse

Les modules tandem de preuve de concept ont déjà été introduits. Cependant, compte tenu des défis pratiques importants, il n’est pas encore clair quand les tandems pérovskite/silicium atteindront le niveau du marché. Néanmoins, le succès dans le développement de cellules solaires commerciales efficaces est vital pour répondre à la demande croissante d’énergie tout en réduisant l’impact environnemental.

Pour une meilleure compréhension

Qu’est-ce que les pérovskites et pourquoi suscitent-elles tant d’intérêt ?

Les pérovskites, en particulier les halogénures de plomb méthylammonium, sont des matériaux qui possèdent d’excellentes propriétés d’absorption de la lumière. Elles peuvent être créées à basse température et facilement déposées sur diverses surfaces, les rendant prometteuses pour la fabrication de cellules solaires plus légères, adaptables et abordables que les panneaux en silicium.

Qu’est-ce que la technologie tandem et quels sont ses avantages ?

La technologie tandem consiste à combiner des cellules solaires à base de pérovskite avec des cellules en silicium traditionnel. Cette approche permet une meilleure utilisation de la lumière du soleil en minimisant les pertes d’énergie, augmentant ainsi l’efficacité globale de la cellule solaire.

Quels sont les défis de la fabrication des cellules tandem pérovskite/silicium ?

Les principaux défis incluent l’optimisation du dépôt de la pérovskite sur la surface du silicium, le développement de méthodes de fabrication adaptées à la production commerciale, ainsi que l’amélioration de la fiabilité et de la durabilité des sous-cellules de pérovskite face à l’humidité, la chaleur et la lumière.

Où en est la recherche actuelle sur les cellules tandem pérovskite/silicium ?

Des modules tandem de preuve de concept ont déjà été introduits, démontrant le potentiel de cette technologie. Cependant, des efforts de recherche supplémentaires sont nécessaires pour surmonter les défis pratiques et atteindre un niveau de performance et de fiabilité suffisant pour une commercialisation à grande échelle.

Quelle est l’importance du développement de cellules solaires tandem efficaces ?

Le succès dans le développement de cellules solaires commerciales efficaces est crucial pour répondre à la demande croissante d’énergie mondiale tout en réduisant l’impact environnemental. Les cellules tandem pérovskite/silicium pourraient jouer un rôle clé dans la transition vers une énergie propre et durable.

Références

Légende illustration : Un examen du potentiel de la combinaison des cellules solaires au silicium avec des matériaux pérovskites met en évidence la façon de développer cette technologie. 2024 KAUST ; Heno Hwang.

Article : “Pathways toward commercial perovskite/silicon tandem photovoltaics” – DOI: 10.1126/science.adh3849 . Auteurs : Aydin, E., Allen, T.B., De Bastiani, M., Razzaq, A., Xu, L., Ugur, E., Liu, J. & De Wolf, S. Pathways toward commercial perovskite/silicon tandem photovoltaics.

Laser à fibre femtoseconde visible : 1 W de puissance moyenne atteint

Laser à fibre femtoseconde visible : 1 W de puissance moyenne atteint

Les lasers à impulsions ultracourtes ont connu des progrès remarquables ces dernières années dans de nombreuses applications et domaines aussi variés que l’industrie, l’énergie et les sciences de la vie. Parmi les différentes plateformes laser développées, les oscillateurs à fibre femtoseconde se distinguent par leur design compact, leurs performances exceptionnelles et leur rentabilité.

Leurs longueurs d’onde de fonctionnement sont toutefois principalement limitées à la région infrarouge restreignant leur applicabilité dans de nombreux domaines nécessitant des sources de lumière dans le visible. L’extension des oscillateurs à fibre femtoseconde compacts à de nouvelles longueurs d’onde visibles est depuis longtemps un défi et un objectif ardemment poursuivi dans la science des lasers.

Les lasers à fibre visibles actuels

Actuellement, la majorité des lasers à fibre visibles utilisent des fibres fluorées dopées aux terres rares, comme le Pr3+, comme milieu de gain efficace. Au fil des années, des progrès remarquables ont été réalisés dans le développement de lasers à fibre visibles accordables en longueur d’onde, de haute puissance, à commutation Q et à verrouillage de modes.

Aussi, malgré les progrès significatifs dans la région proche infrarouge, le verrouillage de modes femtoseconde dans les lasers à fibre visibles reste une tâche exceptionnellement difficile. Ce défi est attribué au sous-développement des composants optiques ultrarapides aux longueurs d’onde visibles, à la disponibilité limitée de modulateurs visibles hautes performances et à la dispersion extrêmement normale rencontrée dans les cavités laser à fibre visibles.

L’attention s’est récemment portée sur les oscillateurs à fibre à verrouillage de modes femtoseconde dans le proche infrarouge utilisant un miroir à boucle amplificatrice non linéaire à polarisation (PB-NALM). Le PB-NALM élimine le besoin de longues fibres intracavitaires pour accumuler les déphasages. Cette innovation facilite non seulement la flexibilité d’accord et le fonctionnement à longue durée de vie, mais offre également la possibilité de gérer la dispersion intracavitaire dans un espace de paramètres plus large, des régimes de dispersion normale à anormale.

Par conséquent, on s’attend à ce qu’elle catalyse une percée dans le verrouillage de modes femtoseconde direct des lasers à fibre visibles et propulse les oscillateurs à fibre femtoseconde dans la bande visible.

Une nouvelle avancée dans les lasers à fibre femtoseconde visibles

Des chercheurs du Laboratoire du Fujian sur la technologie et les applications des lasers ultrarapides de l’Université de Xiamen ont récemment développé un oscillateur et un amplificateur à fibre à verrouillage de modes femtoseconde à lumière visible, comme rapporté dans Advanced Photonics Nexus.

L’oscillateur à fibre femtoseconde, qui émet une lumière rouge à 635 nm, utilise une configuration de cavité en forme de neuf. Il applique une fibre fluorée dopée au Pr3+ à double gaine comme milieu de gain visible, intègre un PB-NALM à longueur d’onde visible pour le verrouillage de modes et utilise une paire de réseaux de diffraction personnalisés à haute efficacité et haute densité de traits pour la gestion de la dispersion.

Un verrouillage de modes auto-démarrant visible établi par le PB-NALM produit directement des impulsions laser rouges avec une durée d’impulsion de 199 fs et un taux de répétition de 53,957 MHz à partir de l’oscillateur. Un contrôle précis de l’espacement de la paire de réseaux peut faire passer l’état d’impulsion d’un soliton dissipatif ou étiré à un soliton conventionnel.

De plus, un système d’amplification d’impulsions à dérive de fréquence construit à côté de l’oscillateur augmente considérablement les performances du laser, résultant en une puissance de sortie moyenne supérieure à 1 W, une énergie d’impulsion de 19,55 nJ et une durée d’impulsion déchirpée de 230 fs.

Le professeur Zhengqian Luo, chef du département d’ingénierie électronique de l’Université de Xiamen, précise : « Notre résultat représente une étape concrète vers des lasers à fibre femtoseconde de haute puissance couvrant la région spectrale visible et pourrait avoir des applications importantes dans le traitement industriel, la biomédecine et la recherche scientifique. »

Perspectives d’avenir

Les auteurs prévoient que leur nouveau schéma de génération de laser à fibre femtoseconde à lumière visible haute performance jettera les bases des lasers à fibre femtoseconde à lumière visible pour servir dans des applications telles que le traitement de précision des matériaux spéciaux, la biomédecine, la détection sous-marine et les horloges atomiques optiques.

Article by J. Zou, Q. Ruan, et al., “635 nm femtosecond fiber laser oscillator and amplifier,” Adv. Photon. Nexus 3(2) 026004 (2024), doi 10.1117/1.APN.3.2.026004

Un catalyseur 44 fois plus efficace pour transformer le CO2 en méthanol

Un catalyseur 44 fois plus efficace pour transformer le CO2 en méthanol

Les chercheurs ont franchi une étape importante dans la lutte contre le changement climatique en transformant le CO2 en méthanol grâce à une nouvelle technique de photocatalyse. Cette découverte pourrait offrir une alternative durable aux méthodes traditionnelles de production de méthanol à partir de combustibles fossiles.

Des chercheurs de l’Université de Nottingham, de l’Université de Birmingham, de l’Université du Queensland et de l’Université d’Ulm ont conçu un matériau composé d’atomes de cuivre déposés sur du nitrure de carbone nanocristallin. Cette structure permet aux électrons de se déplacer du nitrure de carbone vers le CO2, une étape essentielle dans la production de méthanol à partir de CO2 sous l’influence du rayonnement solaire.

Le Dr Madasamy Thangamuthu, chercheur à l’École de chimie de l’Université de Nottingham et co-responsable de l’équipe de recherche, explique : « Nous avons développé une nouvelle forme de nitrure de carbone avec des domaines nanocristallins qui permettent une interaction efficace avec la lumière ainsi qu’une séparation de charge suffisante. »

Un process de fabrication pour optimiser les propriétés du matériau

Les chercheurs ont mis au point un processus de chauffage du nitrure de carbone pour atteindre le degré de cristallinité requis, maximisant ainsi les propriétés fonctionnelles de ce matériau pour la photocatalyse. Ils ont ensuite déposé du cuivre atomique par pulvérisation cathodique magnétron, permettant un contact intime entre le semi-conducteur et les atomes métalliques.

Tara LeMercier, doctorante qui a réalisé les travaux expérimentaux à l’École de chimie de l’Université de Nottingham, souligne : « Même sans cuivre, la nouvelle forme de nitrure de carbone est 44 fois plus active que le nitrure de carbone traditionnel. Cependant, à notre grande surprise, l’ajout de seulement 1 mg de cuivre par gramme de nitrure de carbone a quadruplé cette efficacité. »

Un catalyseur durable composé d’éléments abondants sur Terre

Le professeur Andrei Khlobystov de l’École de chimie de l’Université de Nottingham souligne un avantage majeur de ce nouveau catalyseur : « Il est composé d’éléments durables – carbone, azote et cuivre – tous très abondants sur notre planète. »

Cette invention représente une étape significative vers une compréhension approfondie des matériaux photocatalytiques dans la conversion du CO2. Elle ouvre la voie à la création de catalyseurs hautement sélectifs et ajustables où le produit souhaité pourrait être obtenu en contrôlant le catalyseur à l’échelle nanométrique.

Financement pour développer des matériaux catalytiques durables

Ce travail est financé par la subvention du programme EPSRC «Metal atoms on surfaces and interfaces (MASI) for sustainable future» (www.masi.ac.uk) qui vise à développer des matériaux catalytiques pour la conversion de trois molécules clés – le dioxyde de carbone, l’hydrogène et l’ammoniac – d’une importance cruciale pour l’économie et l’environnement.

L’Université de Nottingham est dédiée à la promotion des technologies vertes et durables. Le Zero Carbon Cluster a été créé dans les East Midlands pour accélérer le développement et le déploiement de l’innovation dans les industries vertes et la fabrication avancée.

Légende illustration : Le processus de conversion du CO2 en méthanol (carburant) par la lumière. Crédit : University of Nottingham

Article : “La synergie entre le nitrure de carbone nanocristallin et le catalyseur à atome unique de Cu conduit à une réduction photocatalytique sélective du CO2 en méthanol” – DOI: 10.1039/D4SE00028E

Des chercheurs exploitent le soleil pour produire une alternative énergétique propre

Des chercheurs exploitent le soleil pour produire une alternative énergétique propre

Les chercheurs de l’Université de Caroline du Nord à Chapel Hill ont développé une approche innovante pour exploiter l’énergie solaire afin de produire de l’hydrogène, une source d’énergie propre potentielle, à partir de l’eau. Cette découverte ouvre de nouvelles perspectives dans le domaine des technologies énergétiques durables et efficaces.

L’étude, intitulée « Catalyst Self-Assembly Accelerates Bimetallic Light-driven Electrocatalytic H2 Evolution in Water », ou en français « L’auto-assemblage des catalyseurs accélère l’évolution électrocatalytique bimétallique de H2 dans l’eau sous l’effet de la lumière » a été publiée dans la revue scientifique Nature Chemistry. Elle explore un système utilisant la lumière et l’électricité pour scinder l’eau en ses éléments constitutifs : l’hydrogène et l’oxygène.

L’équipe de recherche, dirigée par le chimiste Alexander Miller, a découvert que l’on peut inciter les catalyseurs à s’auto-assembler en globules, ce qui améliore leur capacité à absorber la lumière et à créer les liaisons chimiques nécessaires à la production d’hydrogène. Cette découverte représente une contribution majeure dans le domaine de la catalyse et ouvre la voie au développement de technologies énergétiques efficaces et durables.

Un processus clé dans les technologies des énergies renouvelables

La dissociation de l’eau est un processus clé dans les technologies des énergies renouvelables, en particulier pour la production d’hydrogène en tant que carburant propre et durable. L’hydrogène obtenu à partir de l’eau peut être utilisé dans les piles à combustible, les moteurs à combustion et d’autres applications, avec pour seul sous-produit de la vapeur d’eau.

Selon Alexander Miller, « La dissociation de l’eau a le potentiel de stocker l’énergie solaire sous forme de liaisons chimiques, ce qui permet de pallier la nature intermittente de la production d’énergie solaire ». La recherche de méthodes efficaces et rentables pour la dissociation de l’eau demeure un domaine d’intérêt majeur dans le secteur des énergies renouvelables et du développement durable.

Des techniques d’analyse innovantes

Les chercheurs ont également utilisé une technique spéciale appelée diffusion dynamique de la lumière, également connue sous le nom de spectroscopie de corrélation de photons, pour mesurer la taille des catalyseurs en analysant les fluctuations de l’intensité de la lumière diffusée. La technique employée non invasive a fourni des informations précieuses sur la taille, la forme et la distribution des catalyseurs.

De plus, ils ont eu recours à un outil analytique appelé spectroscopie par résonance magnétique nucléaire, qui a confirmé qu’au sein de ces particules, les catalyseurs étaient proches les uns des autres. Les micelles plus grandes produisaient de l’hydrogène plus rapidement.

En synthèse

Cette étude menée représente une avancée dans le domaine de la production d’hydrogène à partir de l’eau, en utilisant l’énergie solaire. Grâce à une approche innovante basée sur l’auto-assemblage de catalyseurs en globules, ils ont réussi à améliorer l’efficacité du processus de dissociation de l’eau.

Pour une meilleure compréhension

Qu’est-ce que la dissociation de l’eau ?

La dissociation de l’eau est un processus chimique qui consiste à séparer les molécules d’eau (H2O) en leurs éléments constitutifs : l’hydrogène (H2) et l’oxygène (O2). Ce processus nécessite un apport d’énergie, qui peut provenir de différentes sources, comme l’électricité ou la lumière.

Pourquoi l’hydrogène est-il considéré comme une source d’énergie propre ?

L’hydrogène est considéré comme une source d’énergie propre car sa combustion ne produit que de l’eau comme sous-produit, contrairement aux combustibles fossiles qui émettent du dioxyde de carbone (CO2) et d’autres polluants.

De plus, l’hydrogène peut être produit à partir de sources renouvelables, comme l’eau et l’énergie solaire, ce qui en fait une option durable pour la transition énergétique.

Qu’est-ce qu’un catalyseur ?

Un catalyseur est une substance qui accélère une réaction chimique sans être consommée dans le processus. Les catalyseurs abaissent l’énergie d’activation nécessaire pour que la réaction se produise, ce qui permet d’augmenter la vitesse de réaction et l’efficacité du processus.

Quelles sont les applications potentielles de l’hydrogène produit à partir de l’eau ?

L’hydrogène produit à partir de l’eau peut être utilisé dans diverses applications, notamment dans les piles à combustible pour produire de l’électricité, dans les moteurs à combustion comme carburant alternatif, et pour le stockage d’énergie à long terme. L’hydrogène peut également être utilisé dans l’industrie chimique pour la production d’engrais, de plastiques et d’autres produits.

Quels sont les défis à relever pour une utilisation généralisée de l’hydrogène ?

Malgré ses avantages, l’utilisation généralisée de l’hydrogène comme source d’énergie fait face à plusieurs défis, notamment le coût élevé des technologies de production et de stockage, l’absence d’infrastructures de distribution à grande échelle, et les préoccupations en matière de sécurité liées à la manipulation et au stockage de l’hydrogène. Des efforts de recherche et de développement sont en cours pour surmonter ces obstacles et permettre une adoption plus large de l’hydrogène comme source d’énergie propre et durable.

Références


Article : “Catalyst Self-Assembly Accelerates Bimetallic Light-driven Electrocatalytic H2 Evolution in Water.” Nature Chemistry. s41557-024-01483-3

L’oxygène du corps, nouvelle source d’énergie pour les implants médicaux

L'oxygène du corps, nouvelle source d'énergie pour les implants médicaux

Les dispositifs médicaux implantables, tels que les stimulateurs cardiaques et les neurostimulateurs, sont essentiels pour maintenir la santé et le bien-être de nombreux patients. Leur dépendance aux batteries conventionnelles pose toutefois des défis en termes de durée de vie limitée et de nécessité d’interventions chirurgicales invasives pour leur remplacement.

Des chercheurs chinois ont développé une nouvelle approche pour résoudre ces problèmes en créant une batterie implantable qui utilise l’oxygène présent dans le corps comme source d’énergie.

Une batterie “révolutionnaire” alimentée par l’oxygène du corps

Dans une étude publiée dans la revue scientifique Chem, les chercheurs de l’Université de Technologie de Tianjin ont présenté une batterie implantable innovante qui tire son énergie de l’oxygène présent dans l’organisme. Selon Xizheng Liu, auteur principal de l’étude et spécialiste des matériaux et dispositifs énergétiques, cette approche permet de s’affranchir des limites de durée de vie imposées par les matériaux finis des batteries conventionnelles.

Pour concevoir une batterie sûre et efficace, les chercheurs ont utilisé des électrodes composées d’un alliage à base de sodium et d’or nanoporeux, un matériau dont les pores sont des milliers de fois plus petits que l’épaisseur d’un cheveu. L’or est connu pour sa compatibilité avec les systèmes vivants, tandis que le sodium est un élément essentiel et omniprésent dans le corps humain. Les électrodes subissent des réactions chimiques avec l’oxygène présent dans l’organisme pour produire de l’électricité.

La batterie est protégée par un film polymère poreux, souple et flexible.

Des résultats prometteurs chez les rats

Les chercheurs ont implanté la batterie sous la peau du dos de rats et ont mesuré sa production d’électricité. Deux semaines après l’implantation, ils ont constaté que la batterie pouvait produire des tensions stables comprises entre 1,3 V et 1,4 V, avec une densité de puissance maximale de 2,6 µW/cm2. Bien que cette puissance soit insuffisante pour alimenter des dispositifs médicaux, la conception démontre qu’il est possible d’exploiter l’oxygène présent dans le corps pour produire de l’énergie.

L’équipe a également évalué les réactions inflammatoires, les changements métaboliques et la régénération tissulaire autour de la batterie. Les rats n’ont montré aucune inflammation apparente.

Les sous-produits des réactions chimiques de la batterie, notamment les ions sodium, les ions hydroxyde et de faibles niveaux de peroxyde d’hydrogène, ont été facilement métabolisés par l’organisme et n’ont pas affecté les reins et le foie. Les rats ont bien guéri après l’implantation, les poils de leur dos ayant complètement repoussé au bout de quatre semaines. À la surprise des chercheurs, des vaisseaux sanguins se sont également régénérés autour de la batterie.

Perspectives d’avenir et applications potentielles

L’équipe prévoit d’améliorer la production d’énergie de la batterie en explorant des matériaux plus efficaces pour les électrodes et en optimisant la structure et la conception de la batterie. Xizheng Liu a également souligné que la batterie est facile à produire à grande échelle et que le choix de matériaux rentables peut encore réduire son prix. La batterie développée par l’équipe pourrait également trouver d’autres applications au-delà de l’alimentation des dispositifs médicaux.

Étant donné que les cellules tumorales sont sensibles aux niveaux d’oxygène, l’implantation de cette batterie consommant de l’oxygène autour d’une tumeur pourrait contribuer à affamer les cellules cancéreuses. Il est également possible de convertir l’énergie de la batterie en chaleur pour détruire les cellules cancéreuses.

Selon Xizheng Liu, les perspectives de cette batterie sont passionnantes, allant d’une nouvelle source d’énergie à de potentielles biothérapies.

Légende illustration : Batterie Na-O2 implantable et biocompatible. Crédit : Chem/Lv et al.

Article : “Implantable and Bio-compatible Na-O2 battery” – DOI: 10.1016/j.chempr.2024.02.012

Le mystère des fullerènes dans l’espace expliqué

Le mystère des fullerènes dans l'espace expliqué

Les fullerènes, ces molécules de carbone complexes et résistantes, ont longtemps intrigué les scientifiques. Découverts en laboratoire en 1985, leur existence dans l’espace a depuis été confirmée à maintes reprises, notamment au sein des nébuleuses planétaires. Une récente étude menée par l’Institut d’astrophysique des Canaries (IAC) apporte un nouvel éclairage sur l’origine de ces mystérieuses molécules et leur rôle potentiel dans l’émergence de la vie sur Terre.

Les fullerènes sont des molécules de carbone de grande taille, complexes et extrêmement résistantes. Leurs atomes s’organisent en structures sphériques tridimensionnelles, alternant hexagones et pentagones, rappelant la forme d’un ballon de football (fullerènes C60) ou de rugby (fullerènes C70).

Découvertes en laboratoire en 1985, ces molécules ont valu à leurs trois découvreurs le prix Nobel de chimie onze ans plus tard. Depuis, de nombreuses preuves observationnelles de leur existence dans l’espace ont été rapportées, notamment au sein des nuages de gaz entourant les étoiles âgées et mourantes de la taille du Soleil, appelées nébuleuses planétaires, expulsés des couches externes de ces astres en fin de vie.

La stabilité et la résistance exceptionnelles des fullerènes laissent penser qu’ils pourraient agir comme des cages pour d’autres molécules et atomes, et ainsi avoir apporté des molécules complexes sur Terre, donnant une impulsion au démarrage de la vie. Leur étude est donc cruciale pour comprendre les processus physiques fondamentaux à l’œuvre dans l’organisation de la matière organique dans l’univers.

Une empreinte chimique mystérieuse

La spectroscopie est essentielle pour rechercher et identifier les fullerènes dans l’espace. Elle permet d’étudier la matière composant l’univers en analysant les empreintes chimiques laissées par les atomes et molécules sur la lumière qui nous parvient.

Une étude récente, entièrement menée par l’IAC, a analysé des données de spectroscopie infrarouge obtenues précédemment par des télescopes spatiaux, à partir de la nébuleuse planétaire Tc1. Ces spectres révèlent des raies spectrales indiquant la présence de fullerènes, mais aussi des bandes infrarouges plus larges (UIR pour Unidentified Infrared Bands en anglais), détectées à grande échelle dans l’univers, des petits corps du système solaire aux galaxies lointaines.

« L’identification des espèces chimiques à l’origine de cette émission infrarouge, largement présente dans l’univers, était un mystère astrochimique, bien qu’on ait toujours pensé qu’elle était probablement riche en carbone, l’un des éléments de base de la vie », explique Marco A. Gómez Muñoz, chercheur à l’IAC et principal auteur de l’étude.

Une nouvelle origine pour les fullerènes

Pour identifier ces mystérieuses bandes, l’équipe de recherche a reproduit l’émission infrarouge de la nébuleuse planétaire Tc 1. L’analyse des bandes d’émission a révélé la présence de grains de carbone amorphe hydrogéné (HAC). Ces composés de carbone et d’hydrogène dans un état hautement désordonné, très abondants dans les enveloppes des étoiles mourantes, peuvent rendre compte de l’émission infrarouge de cette nébuleuse.

« Nous avons combiné pour la première fois les constantes optiques du HAC, obtenues à partir d’expériences en laboratoire, avec des modèles de photoionisation, et en faisant cela, nous avons reproduit l’émission infrarouge de la nébuleuse planétaire Tc 1, très riche en fullerènes », explique Domingo Anibal García Hernández, chercheur à l’IAC et coauteur de l’article.

Pour l’équipe de recherche, la présence dans un même objet de HAC et de fullerènes étaye la théorie selon laquelle les fullerènes pourraient s’être formés lors du processus de destruction des grains de poussière, par exemple par interaction avec le rayonnement ultraviolet, bien plus énergétique que la lumière visible.

Avec ce résultat, les scientifiques ouvrent la voie à de futures recherches basées sur la collaboration entre chimie de laboratoire et astrophysique. « Notre travail montre clairement le grand potentiel de la science et de la technologie interdisciplinaires pour réaliser des avancées fondamentales en astrophysique et en astrochimie », conclut Gómez Muñoz.

Légende illustration : Centre de la nébuleuse planétaire M57, prise par l’astrophotographe Dr. Robert Gendler, et John Bozeman. Crédit : NASA/ESA

Article : “Grains de carbone amorphe hydrogénés comme support alternatif de la caractéristique de plateau 9-13 μm dans la nébuleuse planétaire fullerène Tc 1.” – DOI: 10.1051/0004-6361/202349087