5 bonnes raisons d’adopter un volet roulant pour sa piscine

5 bonnes raisons d'adopter un volet roulant pour sa piscine

L’été se dessine à l’horizon, et avec lui, l’envie de se prélasser au bord de la piscine. Si vous êtes l’heureux propriétaire d’un bassin, vous avez certainement déjà réfléchi aux différentes options pour le protéger et en faciliter l’entretien. Parmi elles, le volet roulant s’est imposé ces dernières années comme le choix privilégié de nombreux Français, détrônant ainsi la traditionnelle bâche. Mais pourquoi un tel engouement ? Plongeons-nous dans les multiples avantages qu’offre ce dispositif, combinant sécurité, praticité et économies.

Une sécurité optimale pour votre piscine

La sécurité constitue l’un des principaux arguments en faveur de l’adoption d’un volet roulant. Depuis 2003, la loi impose aux propriétaires de piscines privées de mettre en place un dispositif de sécurité normalisé. Le volet roulant, conforme à la norme NF P90-308, répond parfaitement à cette exigence.

Une fois déployé, le volet recouvre intégralement la surface du bassin, empêchant ainsi tout risque de chute accidentelle ou de noyade, en particulier chez les enfants en bas âge. Les lames en PVC ou en polycarbonate sont suffisamment résistantes pour supporter le poids d’un adulte, offrant ainsi une barrière efficace entre l’eau et les abords de la piscine.

Un entretien facilité et une eau préservée

Le volet roulant agit ensuite comme un véritable bouclier contre les divers polluants capables d’altérer la qualité de l’eau. En recouvrant le bassin, il empêche les feuilles mortes, les insectes et autres débris de tomber dans l’eau, réduisant ainsi le temps consacré au nettoyage de la piscine.

De plus, en limitant l’exposition de l’eau aux rayons UV, le volet roulant freine le développement des algues par photosynthèse. Vous allez donc diminuer la quantité de produits de traitement nécessaires au maintien d’une eau saine et limpide. C’est par conséquent un gain de temps et d’argent non négligeable.

Un atout esthétique pour votre espace piscine

Outre ses qualités pratiques, le volet roulant apporte une touche d’élégance à votre espace piscine. Qu’il soit hors-sol ou immergé ce dispositif s’intègre harmonieusement à l’environnement de votre bassin.

Exemple de volet roulant automatique hors sol. (Crédit Astralpool)

Les lames en PVC ou en polycarbonate sont disponibles dans une large gamme de coloris, vous permettant de choisir la teinte qui s’accordera le mieux avec le revêtement de votre piscine et les abords. Certains modèles de volets hors-sol sont même en mesure d’être habillés d’un coffre en bois ou en composite, pour un rendu encore plus esthétique.

Un site spécialisé comme https://www.esc-grossiste.fr/boutique/ propose ce type d’équipement.

Des économies d’énergie substantielles

L’installation d’un volet roulant permet également de réaliser des économies significatives sur le plan énergétique. En effet, lorsque le volet est fermé, il limite considérablement l’évaporation de l’eau, phénomène responsable d’une grande partie des déperditions de chaleur dans une piscine.

Ainsi, en préservant la température de l’eau, le volet roulant réduit la consommation d’énergie nécessaire au chauffage du bassin. Selon les estimations, les économies réalisées peuvent atteindre jusqu’à 30% sur les coûts de chauffage. Un argument de poids pour les propriétaires soucieux de leur facture énergétique.

Un confort d’utilisation au quotidien

Enfin, le volet roulant vous offre un confort d’utilisation inégalé au quotidien. Grâce à sa motorisation, vous avez la capacité d’ouvrir et de fermer votre piscine en quelques secondes, par simple pression sur un bouton ou une télécommande.

Fini le temps passé à dérouler et à enrouler manuellement une bâche de protection. Avec un volet roulant automatique, vous profitez pleinement de votre piscine sans effort ni contrainte.

L’adoption d’un volet roulant pour votre piscine représente un investissement à long terme. Sécurité renforcée, entretien facilité, économies d’énergie, esthétique soignée et confort d’utilisation sont autant d’atouts qui font de ce dispositif un équipement incontournable pour votre bassin. Alors, prêt à franchir le pas et à profiter sereinement de votre espace piscine cet été ?

🏆Meilleurs pulvérisateurs électriques (2023) : Guide et comparatif

Meilleurs pulvérisateurs électriques (2023) : Guide et comparatif

Le jardinage reste un passe-temps merveilleux qui permet de se connecter avec la nature tout en créant un espace verdoyant. Entre l’arrosage, la fertilisation et la lutte contre les maladies et les insectes nuisibles, entretenir un jardin peut vite devenir chronophage. C’est pourquoi l’outil de jardinage, comme le pulvérisateur électrique s’avère être un allié précieux pour les jardiniers, du débutant comme l’expert.

Dans cet article, nous allons examiner tous les aspects du pulvérisateur électrique, à quoi il sert, ses avantages, son fonctionnement, ses principales caractéristiques, les points clés pour vous aider à choisir ainsi qu’une sélection des meilleurs pulvérisateurs électriques pour votre jardin.

A quoi sert un pulvérisateur électrique ?

Un pulvérisateur électrique est un outil de jardinage qui pulvérise des liquides comme des des engrais liquides, des herbicides, des fongicides, de l’eau ou d’autres solutions de traitement sur les plantes et les surfaces. Il est équipé d’un moteur électrique qui actionne la pompe pour projeter le liquide sous forme de fine brume, ce qui permet une application uniforme et précise. Les pulvérisateurs électriques sont utilisés pour traiter les grandes surfaces de manière efficace et rapide, tout en réduisant la fatigue et l’effort physique pour l’utilisateur.

Un pulvérisateur électrique est très utile égalemlent pour un autre type d’activité. En particulier, son utilisation est essentielle pour le démoussage d’une toiture. En effet, ce dispositif permet de projeter un produit antifongique sur la surface traitée de manière uniforme et en quantité suffisante. De cette manière, le produit agira efficacement pour éliminer les mousses, lichens et autres champignons qui peuvent s’accumuler sur les tuiles ou ardoises de votre toiture.

L’utilisation d’un pulvérisateur électrique facilite grandement l’opération de démoussage, car elle permet d’aller jusqu’aux endroits les plus inaccessibles, sans la nécessité de faire des efforts physiques importants.

Avantages et inconvénients d’utiliser un pulvérisateur électrique

D’une part, les pulvérisateurs électriques sont très pratiques car ils facilitent la pulvérisation, que ce soit pour la désinfection, pour les toitures ou les espaces verts. Ils permettent une distribution uniforme du produit sur la surface à traiter, sans effort, ce qui est très apprécié. De plus, certains modèles sont équipés d’une sangle qui permet une utilisation plus ergonomique.

D’autre part, les pulvérisateurs électriques sont souvent plus coûteux que les pulvérisateurs manuels, et ils nécessitent d’être alimentés en électricité. Certains modèles ont un débit limité et peuvent ne pas être adaptés pour des surfaces très grandes. Il faut donc faire attention aux caractéristiques de chaque produit dont l’autonomie de la batterie notamment.

Comment fonctionne un pulvérisateur électrique ?

Le pulvérisateur électrique pulvérise des liquides ( engrais liquides, détergents ou produits nettoyants, fongicides, herbicides, etc.). Il est alimenté par une batterie rechargeable qui alimente la pompe pour créer une pression par le biais d’une buse.

Lorsque la pression est créée, le liquide est pulvérisé à travers la buse. La taille des particules peut être ajustée en fonction de la taille de la buse.

Pulvérisateurs électriques sans fil

Avec un simple clic de bouton, les pulvérisateurs électriques sans fil offrent une solution efficace pour atteindre les zones difficiles d’accès. Ils sont équipés d’une batterie rechargeable et ne nécessitent pas de câbles encombrants. Ils ont une conception légère et ergonomique pour faciliter leur maniement et sont dotés d’une fonction de réglage de pression pour s’adapter à vos différents besoins de pulvérisation.

Que vous souhaitiez pulvériser des produits chimiques, des herbicides, des insecticides ou des engrais, le pulvérisateur à batterie reste l’outil idéal pour accomplir cette tâche avec efficacité et sans d’effort. La batterie rechargeable évite le besoin d’une alimentation électrique continu ou l’utilisation d’un moteur thermique bruyant.

Pulvérisateur électrique jardinage

Les points clés pour choisir son pulvérisateur électrique

Les points clés pour choisir son pulvérisateur électrique sont nombreux. Tout d’abord, la capacité du réservoir est à prendre en compte en fonction de vos besoins propres.

Ensuite, la qualité du tuyau et de la buse influenceront grandement la qualité de la pulvérisation. Il est aussi nécessaire de se tourner vers un modèle équipé d’une batterie rechargeable afin de ne pas être limité par le temps de charge et de permettre une utilisation sans fil.

Si vous devez pulvériser des produits corrosifs, il peut être intéressant de se diriger vers un pulvérisateur électrique résistant à ce type de produits. Enfin, la présence d’une sangle pour faciliter son transport peut être un point important à prendre en compte.

Notre sélection des meilleurs pulvérisateurs électriques

Notre sélection des meilleurs pulvérisateurs électriques est composée de modèles performants pouvant résister aux produits corrosifs. Ce type de pulvérisateur électrique est idéal pour des travaux de pulvérisation en extérieur, notamment pour les sols, la toiture, les murs.

La plupart des modèles sélectionnés ont une grande capacité de cuve et un tuyau de pulvérisation pratique pour une utilisation aisée. Les buses de pulvérisation sont également efficaces pour une meilleure couverture de la zone à traiter.

Les principales caractéristiques sont mises en valeur afin que vous puissiez faire le bon choix. Les prix varient entre 110 et 270 euros. Tous les pulvérisateurs présentés sont disponibles en ligne chez notre partenaire Amazon.

🥇 Pulvérisateur électrique Powerjet 2

Ce pulvérisateur électrique est proposé par la marque Multirex. Il dispose d’une puissance de 12V et d’une capacité de 10 litres. Il est équipé d’une lance télescopique en acier inoxydable ainsi que d’une buse réglable. Le Powerjet 2 peut être utilisé pour pulvériser des produits phytosanitaires ou des engrais sur les plantes et les cultures.

🥈 RYOBI – Pulvérisateur à Dos 18V ONE+

Ce pulvérisateur à dos électrique est de la marque Ryobi. Il est alimenté par une batterie 18V et a une capacité de 15 litres. Il dispose d’une lance réglable en laiton et d’une buse à jet réglable. Le RYOBI – Pulvérisateur à Dos 18V ONE+ est utilisé pour pulvériser des produits phytosanitaires sur les plantes et les cultures.

🥉 Forum Equipement – Pulvérisateur Électrique PRO SPRAYER

Ce pulvérisateur électrique est proposé par la marque Forum Equipement. Il est équipé d’un réservoir de 28 litres et d’une batterie rechargeable. Il dispose d’une lance télescopique en acier inoxydable et d’une buse à jet réglable. Le Pulvérisateur Électrique et Autonome PRO SPRAYER peut être utilisé pour pulvériser des produits phytosanitaires ou des engrais sur les plantes et les cultures.

🥉 Einhell – Pulvérisateur à pression sans fil GE-WS 18/150

Ce pulvérisateur électrique est proposé par la marque Einhell. Il est équipé d’un réservoir de 15 litres et fonctionne avec une batterie lithium-ion 18V. Il dispose d’une lance télescopique et d’une buse à jet réglable. Le Einhell Pulvérisateur à pression sans fil GE-WS 18/150 Li-Solo est utilisé pour pulvériser des produits phytosanitaires ou des engrais sur les plantes et les cultures.

VITOPulvérisateur à batterie Lithium 12V/6AH

Ce pulvérisateur électrique est proposé par la marque VITO. Il est équipé d’un réservoir de 16 litres et fonctionne avec une batterie lithium-ion 12V/6AH. Il dispose d’une lance télescopique et d’une buse à jet réglable. Le Pulvérisateur à batterie Lithium VITO 12V/6AH 16L 6 bars Poids léger Chargeur inclus Végetaux jardin toitures peut être utilisé pour pulvériser des produits phytosanitaires ou des engrais sur les plantes et les cultures.

RIBILAND – Pulvérisateur électrique PILA16

Ce pulvérisateur électrique est proposé par la marque Ribiland. Il est équipé d’un réservoir de 16 litres et fonctionne avec une batterie lithium-ion 12V. Il dispose d’une lance télescopique et d’une buse à jet réglable. Le RIBILAND Pulvérisateur PILA16 électrique sur roues 16 Litres batterie 12V est monté sur des roues pour faciliter son déplacement et son utilisation. Il peut être utilisé pour pulvériser des produits phytosanitaires ou des engrais sur les plantes et les cultures.

Einhell – Pulvérisateur à pression sans fil GE-WS 18/75

Ce pulvérisateur électrique est également proposé par la marque Einhell. Il est équipé d’un réservoir de 7,5 litres et fonctionne avec une batterie lithium-ion 18V. Il dispose d’une lance télescopique et d’une buse à jet réglable. Le Einhell Pulvérisateur à pression sans fil GE-WS 18/75 Li-Solo peut être utilisé pour pulvériser des produits phytosanitaires ou des engrais sur les plantes et les cultures, mais sa capacité de réservoir est plus adaptée aux petites surfaces.

Tableau récapitulatif des 7 modèles de pulvérisateurs électriques

ModèleCapacité
réservoir
BatterieLanceBuse jet réglablePrix
Powerjet 210 litres12VOuiOui€€€
RYOBI – Pulvérisateur à Dos 18V ONE+15 litres18VOuiOui€€€
Forum Equipement – Pulvérisateur Électrique PRO SPRAYER28 litresRechargeableOuiOui€€€€
Einhell Pulvérisateur à pression sans fil GE-WS 18/15015 litres18VOuiOui€€€€
Pulvérisateur à batterie Lithium VITO16 litres12V/6AHOuiOui€€€€
RIBILAND Pulvérisateur PILA16 litres12VOuiOui€€€
Einhell Pulvérisateur à pression sans fil GE-WS 18/757,5 litres18VOuiOui€€

A noter que le niveau de prix varie en fonction de la qualité des matériaux, de la puissance et des fonctionnalités supplémentaires de chaque modèle de pulvérisateur électrique.

FAQ

Un pulvérisateur électrique pour votre toiture

Si vous cherchez un pulvérisateur électrique pour toiture, vous avez plusieurs options à considérer. Tout d’abord, il est important de considérer la taille de votre toiture et la hauteur à laquelle vous devrez travailler. Certains pulvérisateurs ont des tuyaux plus longs qui peuvent atteindre des hauteurs plus élevées, tandis que d’autres conviennent mieux aux toits plus petits. Une autre chose à considérer est la puissance de l’appareil. Un pulvérisateur plus puissant peut aider à éliminer plus facilement la saleté et la moisissure sur votre toiture.

Quel pulvérisateur avec de l’eau de Javel ?

Pour choisir le pulvérisateur adapté à l’eau de Javel, il est recommandé d’opter pour un modèle fabriqué en résistance aux produits chimiques. Il est également préférable de choisir un pulvérisateur munis d’un tube d’aspiration allongé, cela permet d’éviter le contact direct avec la solution et facilite ainsi la tâche en termes de nettoyage lors de l’utilisation. Pour ce qui est de la contenance, il est conseillé d’opter pour un modèle de taille moyenne, ni trop petit ni trop grand, ce qui facilitera davantage la manipulation et le nettoyage. Enfin, il est important de noter que les pulvérisateurs doivent être nettoyés et rincés soigneusement après chaque utilisation afin de prolonger leur durée de vie et d’éviter tout risque de corrosion ou d’encrassement. Choisir un pulvérisateur de qualité garantira un nettoyage efficace et sécurisé de vos surfaces.

🏆 Meilleurs scarificateurs électriques (2023) : Guide et comparatif

Meilleurs scarificateurs électriques (2023) : Guide et comparatif

Avez-vous remarqué que votre pelouse ne pousse pas aussi bien qu’auparavant ? Ou peut-être qu’elle est envahie par la mousse et les mauvaises herbes ? Si c’est le cas, il est temps de prendre soin de votre pelouse avec l’aide d’un scarificateur électrique. Cet outil de jardinage a le pouvoir de redonner vie à la pelouse en éliminant les débris végétaux et en aérant le sol pour favoriser la croissance de l’herbe.

Nous allons dans cet article vous expliquer comment fonctionne un scarificateur électrique et pourquoi il est indispensable pour maintenir une belle pelouse tout au long de l’année. Nous vous donnerons également quelques conseils pour faire votre choix ainsi qu’une sélection des meilleurs scarificateurs électriques disponibles pour votre jardin.

Qu’est-ce qu’un scarificateur électrique ?

Un scarificateur électrique est un outil qui a pour objectif d’entretenir et embellir une pelouse. Il s’agit d’un appareil muni de dents qui griffent le sol afin d’éliminer les déchets végétaux et autres résidus qui s’accumulent sur le gazon et qui empêchent l’air, l’eau et les nutriments de bien pénétrer dans la terre. Il permet d’aérer et de décompacter le sol, favorisant ainsi une meilleure croissance du gazon tout en prévenant l’apparition de mousses, champignons et maladies qui pourraient nuire à la santé de la pelouse.

En utilisant un scarificateur électrique régulièrement, vous aurez un gazon en bonne santé qui continue de pousser de façon optimale. Cet outil est indispensable si vous voulez maintenir une belle pelouse à l’année.

Quels sont les avantages d’un scarificateur électrique ?

Le scarificateur électrique offre de nombreux avantages par rapport à son homologue thermique. Tout d’abord, il est plus respectueux de l’environnement car il ne nécessite pas de carburant fossile pour fonctionner. Comme il est moins bruyant et moins polluant que son homologue thermique, il devient donc l’outil idéal pour les quartiers résidentiels.

Le scarificateur électrique est aussi plus facile à utiliser, car il ne nécessite pas d’allumage ni de mise en marche. Cet outil permet d’obtenir un gazon plus sain et plus dense, en éliminant les débris et les mousses qui étouffent la croissance de l’herbe.

Comment choisir son scarificateur électrique ?

Avant de choisir son scarificateur électrique, il est nécessaire de déterminer la superficie à entretenir. Pour une petite pelouse, les modèles les plus simples avec une puissance de 600 W et des lames en acier suffiront.

Pour les grandes pelouses, il faudra opter pour des modèles plus puissants. Les lames sont également importantes, car elles doivent pouvoir pénétrer dans le végétal pour une bonne scarification. Certains modèles intègrent une fonction aérateur pour une meilleure oxygénation des racines. Le guidon est un autre critère de choix, car il autorise une prise en main facile et confortable.

Les scarificateurs thermiques sont réservés aux surfaces très grandes, pour lesquelles les modèles électriques seraient insuffisants. Enfin, certains modèles sont dotés de rouleaux qui permettent de récolter les mousses au fur et à mesure de la scarification.

Quelles sont les caractéristiques du scarificateur électrique ?

Les scarificateurs électriques ont de nombreuses caractéristiques intéressantes. Premièrement, ils sont très faciles à utiliser, car ils ne nécessitent pas de carburant et sont très légers. Ensuite, il y a de multiples modèles commercialisés qui répondent aux différentes tailles de pelouse et de jardins.

La scarification est un travail nécessaire pour maintenir une pelouse saine et le scarificateur électrique peut le faire de manière efficace. Le rapport qualité/prix des scarificateurs électriques est suffisamment bon, car ils sont moins chers que les modèles thermiques, tout en offrant des résultats similaires.

Enfin, ils sont silencieux et ne nécessitent aucun entretien, à l’exception de ranger une rallonge si nécessaire.

Les marques de scarificateur électrique

Bosch reste l’une des marques les plus appréciée en raison de leur qualité de fabrication et de leur durabilité. Leur gamme de scarificateurs électriques est très variée, proposant une large sélection de modèles.

Il existe également d’autres marques comme Einhell, Brast, Ryobi, Greenworks, Ikra et Al-Ko qui fabriquent d’excellents scarificateurs électriques. Ces marques possèdent également des caractéristiques variées et des designs uniques pour répondre à une gamme complète de besoins de jardinage.

Les meilleurs scarificateurs électriques – comparatif 2023

La rédaction propose une sélection des meilleurs scarificateurs 7 modèles à découvrir classés par largeur de travail et puissance. Les principales caractéristiques sont mises en valeur afin que vous puissiez faire le bon choix. Les prix varient entre 120 et 350 euros. Toutes les motobineuses sont disponibles en ligne chez notre partenaire Amazon.

🥇 IKRA – scarificateur aérateur électrique IEVL 1840

Ce modèle de scarificateur électrique dispose d’une puissance de 1800W et est équipé de 18 lames en acier qui permettent de scarifier efficacement la pelouse. Il est également doté de 24 griffes qui aèrent le sol pour favoriser la croissance de l’herbe. Avec un poids de 13,5 kg, il est facile à manœuvrer et dispose d’un bac de ramassage d’une capacité de 55 litres pour collecter les débris végétaux. Le prix de ce scarificateur électrique est dans la tranche des 250€.

🥈 Einhell – Scarificateur électrique RG-SA 1433

Ce scarificateur électrique dispose d’une puissance de 1400W et est équipé de 20 lames en acier inoxydable pour scarifier la pelouse. Il est également doté de 48 griffes en acier qui aèrent le sol pour favoriser la croissance de l’herbe. Ce modèle dispose d’un réglage centralisé de la profondeur de travail et d’un bac de ramassage de 28 litres. Avec un poids de 9,3 kg, il est facile à manœuvrer. Le prix de ce scarificateur électrique est dans la tranche des 170€.

🥉 BRAST – scarificateur électrique – 1800W

Ce modèle de scarificateur électrique dispose d’une puissance de 1800W et est équipé de 20 lames en acier pour scarifier efficacement la pelouse. Il est également doté de 48 griffes en acier qui aèrent le sol pour favoriser la croissance de l’herbe. Ce scarificateur électrique dispose d’un bac de ramassage de 55 litres et d’un réglage de la profondeur de travail sur 6 niveaux différents. Avec un poids de 15 kg, il est facile à manœuvrer. Le prix de ce scarificateur électrique est dans la tranche des 170€.

🥉 Greenworks – râteau scarificateur aérateur Gazon GD40SC36

Ce modèle de scarificateur électrique sans fil dispose d’une puissance de 40V et est équipé de 2 ensembles de lames en acier pour scarifier et aérer efficacement la pelouse. Il dispose également d’un réglage de la profondeur de travail sur 5 niveaux différents et d’un bac de ramassage de 45 litres. Avec un poids de 14,3 kg, il est facile à manœuvrer. Le prix de ce scarificateur électrique est dans la tranche des 230€.

AL-KO – Scarificateur thermique AL-KO Combi Care 38 E

Le Scarificateur AL-KO Combi Care 38 E Comfort est un modèle de scarificateur électrique puissant qui est équipé de 14 lames en acier. Il est doté de 32 griffes en acier qui aèrent le sol pour favoriser la croissance de l’herbe. Ce modèle dispose d’un bac de ramassage de 55 litres et d’un réglage de la profondeur de travail sur 5 niveaux différents. Il est facile à manœuvrer grâce à ses roues larges et son guidon pliable, et son poids de 17 kg lui confère une grande stabilité. Le prix de ce scarificateur électrique est dans la tranche des 170€.,

Bosch – scarificateur électrique – UniversalVerticut 1100

Ce scarificateur électrique dispose d’une puissance de 1100W et est équipé de 14 lames en acier pour scarifier efficacement la pelouse. Il est également doté de 10 griffes en acier qui aèrent le sol pour favoriser la croissance de l’herbe. Ce modèle dispose d’un bac de ramassage de 50 litres et d’un réglage de la profondeur de travail sur 5 niveaux différents. Avec un poids de 12,6 kg, son prix est dans la tranche des 230€.

RYOBI – Scarificateur/Aérateur 1400 W

Ce modèle de scarificateur électrique dispose d’une puissance de 1400W et est équipé de 20 lames en acier pour scarifier la pelouse. Il est également doté de 24 griffes en acier qui aèrent le sol pour favoriser la croissance de l’herbe. Ce modèle dispose d’un bac de ramassage de 45 litres et d’un réglage de la profondeur de travail sur 5 niveaux différents. Avec un poids de 14 kg, il est facile à manœuvrer et son prix est dans la tranche des 200€.

Tableau récapitulatif des 7 modèles de scarificateurs électriques

ModèlePuissance (W)Nombre de lamesNombre de griffesCapacité bac (L)Poids (kg)Prix (€)
IKRA IEVL 1840180018245513,5€€€
Einhell RG-SA 143314002048289,3€€
BRAST 1800W180020485515€€
Greenworks GD40SC3640V2N/A4514,3€€€
AL-KO Combi Care 38 E Comfort130014245514,3€€
Bosch UniversalVerticut 1100110014105012,6€€
RYOBI Scarificateur/Aérateur140020244514€€

Comment entretenir un scarificateur électrique ?

Pour garantir son bon fonctionnement, il est essentiel de le nettoyer et de l’entretenir régulièrement. Tout d’abord, il faut nettoyer régulièrement le carter pour enlever les débris et les résidus d’herbe qui s’accumulent pendant l’utilisation.

Ensuite, il est important de vérifier les lames pour s’assurer qu’elles sont aiguisées et qu’elles ne présentent pas de dommages. Il est également recommandé de vérifier et de nettoyer le filtre à air pour éviter l’accumulation de saleté.

Enfin, il est nécessaire de lubrifier les parties mobiles et de stocker l’outil dans un endroit sec et à l’abri des intempéries. En suivant ces étapes simples, vous pouvez prolonger la durée de vie de votre scarificateur électrique et garantir une pelouse saine et belle.

FAQ / Questions et Réponses

Quelle puissance pour un scarificateur électrique

Un scarificateur électrique est une machine qui permet de retirer le feutrage et la mousse qui s’accumulent sur les pelouses. La puissance de cet outil dépend de la taille de la surface à traiter et de la densité de la mousse et du feutrage. Pour une pelouse de petite taille et peu dense, une puissance de 1000 à 1200 watts est suffisante. Cependant, pour une pelouse plus grande et plus dense, il est préférable d’opter pour un scarificateur électrique avec une puissance allant de 1300 à 1800 watts. Il est important de rappeler que la puissance est un critère important dans le choix du scarificateur. Cependant, il ne faut pas négliger les autres critères tels que la profondeur de travail, la largeur de la lame, la capacité de collecte des déchets et la facilité d’utilisation.

Comment passer le scarificateur électrique

Passer le scarificateur électrique est une tâche importante pour maintenir la santé de votre pelouse. Tout d’abord, assurez-vous que la pelouse est sèche avant de commencer. Ensuite, ajustez la profondeur de la lame en fonction de l’état de votre pelouse. Plus la pelouse est dense, plus la lame doit être profonde. Passez ensuite le scarificateur sur la pelouse en effectuant des mouvements croisés pour obtenir un résultat uniforme. Il est important de ramasser les déchets de l’herbe coupée après le passage du scarificateur pour éviter qu’ils n’étouffent votre pelouse. Enfin, n’hésitez pas à arroser votre pelouse après la tonte pour aider à la récupération. En suivant ces étapes simples, vous pouvez aider à améliorer la santé de votre pelouse grâce au scarificateur électrique.

Comment fonctionne un scarificateur électrique

Un scarificateur électrique fonctionne grâce à une série de lames rotatives qui pénètrent dans le sol pour retirer la mousse, les débris et les racines superficielles du gazon. Le moteur électrique du scarificateur est généralement alimenté par une prise électrique, ce qui permet une utilisation facile et sans effort. Le scarificateur est généralement muni d’un sac de récupération qui permet de collecter les particules indésirables pour que vous puissiez les jeter après utilisation. La profondeur des lames peut être réglée en fonction de l’état de votre pelouse, afin que vous puissiez l’utiliser de manière optimale pour obtenir les meilleurs résultats. Les scarificateurs électriques sont des outils qui peuvent donner des résultats professionnels pour n’importe quel jardinier. Ils sont faciles à utiliser et leur conception ergonomique permet une manipulation pratique dans toutes les situations.

Quand passer le scarificateur sur la pelouse ?

Le scarificateur est un outil très utile pour garder une pelouse saine et dense. Il élimine les couches de chaume et de mousse qui étouffent la pelouse en permettant à l’eau, à l’air et aux nutriments d’atteindre les racines. Mais, il est important de savoir quand passer le scarificateur pour ne pas endommager la pelouse. En général, le meilleur moment pour scarifier la pelouse est en début de printemps ou en automne, lorsque la croissance de la pelouse est la plus active. Cependant, cela dépend également des conditions météorologiques et de l’état de la pelouse. Si la pelouse est très dense, ou si elle présente des taches de mousse ou d’herbe morte, il peut être nécessaire de scarifier plusieurs fois par an. En revanche, si la pelouse est en bonne santé, une seule scarification annuelle suffit. Il est donc important de surveiller régulièrement l’état de la pelouse et de passer le scarificateur au bon moment pour maintenir une pelouse saine et dense.

🏆Meilleures motobineuses électriques (2023) : guide et comparatif

Meilleures motobineuses électriques (2023) : guide et comparatif

Alors que le printemps arrive à grand pas, l’on a très envie de redonner vie à son jardin ou à son potager. Et pour y parvenir efficacement, l’utilisation d’une motobineuse électrique devient incontournable. Toutefois, choisir le meilleur engin peut s’avérer être un véritable casse-tête. Entre la puissance, les fonctionnalités et le budget, il y a beaucoup de critères à prendre en compte pour trouver l’appareil qui conviendra. 

Dans cet article, nous vous donnerons les clés pour choisir votre motobineuse électrique.

Par ailleurs, afin de faciliter ce choix, la rédaction a pris le temps de rechercher différentes motobineuses électriques et d’en évaluer leurs caractéristiques. Nous avons sélectionné les 8 meilleures motobineuses électriques du moment en prenant en compte la qualité, la performance et le prix.

Quel engin pour retourner la terre ?

 Si vous êtes un(e) fervent(e) adepte de jardinage et que vous souhaitez cultiver votre potager, vous savez qu’il est important de bien préparer la terre avant de planter. Pour se faire, il est nécessaire de retourner la terre. Mais quel engin utiliser pour le faire ? Tout dépend de la taille de votre jardin. Si vous avez un petit potager, vous pouvez opter pour une bêche ou une fourche. Si vous avez un grand terrain à cultiver, vous vous vous tournerez plutôt vers une motobineuse ou un motoculteur. Le choix de l’outil dépendra également de la qualité de votre sol : s’il est lourd et argileux, une machine sera plus efficace pour retourner la terre. En revanche, s’il est léger et bien aéré, une bêche pourra suffire.

Motobineuse et motoculteur : différences

La distinction entre une motobineuse et un motoculteur est avant tout liée à leur performance. En effet, la motobineuse est un outil conçu pour travailler sur des petites surfaces ou plate-bande, souvent inférieures à 500 m². Elle est équipée de fraises qui pénètrent le sol pour désherber et aérer la terre en profondeur afin de faciliter la plantation de légumes ou de fleurs. 

Le motoculteur, quant à lui, est destiné à des surfaces plus importantes et doté d’un module de labourage qu’il utilise pour retourner la terre et la préparer à la plantation. Pour pouvoir travailler sur des terrains plus accidentés ou de creuser plus profondément dans le sol, la puissance d’un motoculteur est requise.

La motobineuse est un outil adapté pour les petits travaux de jardinage, tandis que le motoculteur est l’outil pour les jardins ou les champs plus vastes qui nécessitent un travail plus intensif.

Une motobineuse électrique ou thermique ?

Si vous cherchez à retourner le sol de votre jardin afin de planter de nouvelles semences, une motobineuse reste une solution pratique à cet usage. Il existe la motobineuse en 2 versions : électrique et thermique. Si vous voulez une machine respectueuse de l’environnement et à un prix abordable, une motobineuse électrique est certaine la bonne option. Elle est silencieuse, facile à entretenir et à utiliser. 

A contrario, une motobineuse thermique est plus puissante et peut couvrir une surface plus grande, mais elle peut être plus bruyante, plus lourde et plus chère. Si vous devez traiter de grandes zones de terre ou si vous vivez dans une zone rurale où l’électricité est limitée voire inexistante, une motobineuse thermique serait plus appropriée.

À quel moment de l’année faut-il utiliser une motobineuse ?

 L’utilisation d’une motobineuse est essentielle pour préparer son sol avant les cultures. Il est recommandé de l’employer dès la fin de l’hiver et au printemps. C’est le moment idéal pour retourner la terre, éliminer les mauvaises herbes et les racines, aérer le sol et le fertiliser. Le sol est encore mou et l’humidité du printemps assure une meilleure germination des graines.

De plus, l’utilisation de la motobineuse en début de saison permet de gagner du temps et de faciliter les tâches de jardinage ultérieures. Il est également possible d’utiliser une motobineuse à l’automne pour préparer le sol avant l’hiver. Cependant, il ne faut pas l’employer lorsque le sol est trop sec ou lorsque les températures sont trop chaudes, car cela peut endommager le sol et les cultures.

Quelle motobineuse électrique choisir ?

Lorsqu’il s’agit de choisir sa motobineuse électrique, la prise en compte de plusieurs facteurs est essentielle. Tout d’abord, il vous faudra évaluer au préalable la taille du jardin ou du potager, afin de choisir une motobineuse électrique qui convient aux dimensions du terrain.

Ensuite, il est recommandé de se tourner vers des marques reconnues pour leur fiabilité et leur durabilité, telles que Einhell, Masko, Ryobi, Deltafox, Costway, Ikra ou encore Bosch.

Il faut aussi faire attention à la largeur et à la profondeur de travail de la motobineuse électrique, afin de s’assurer qu’elle sera capable de répondre à vos besoins spécifiques en matière de jardinage. La largeur de travail est un élément vital car elle permet de définir la surface de terrain que vous pourrez utiliser. La profondeur de travail définit quant à elle la capacité de la motobineuse à travailler la terre en pénétration. 

Le poids et la maniabilité de l’engin sont des critères importants pour les jardiners qui souhaitent un outil simple et facile à utiliser. Les interrupteurs et le guidon doivent être facilement réglables. Certains modèles sont dotés de caractéristiques supplémentaires, (poignée ergonomique, guidon orientable) et la plupart sont pliables pour faciliter le rangement.

Quelle puissance choisir pour être efficace ?

La puissance d’une motobineuse électrique dépend principalement de la nature et de l’état du sol à travailler. Pour un terrain léger ou moyen, une motobineuse électrique d’une puissance comprise entre 750 et 1500 watts peut suffire à la tâche.

En revanche, pour un sol plus lourd ou dur, il est recommandé d’utiliser une motobineuse électrique plus puissante, avec une puissance allant jusqu’à 2000 watts. La puissance de la machine influe également sur la largeur de travail, car une motobineuse plus puissante pourra travailler sur une plus grande surface en une seule passe. Dans tous les cas, il est important de choisir une motobineuse électrique qui répond aux besoins spécifiques de son jardin ou de sa zone cultivée.

Les meilleures motobineuses électriques – comparatif 2023

La rédaction propose une sélection des meilleures motobineuses avec 8 modèles à découvrir classés par largeur de travail et puissance. Les principales caractéristiques sont mises en valeur afin que vous puissiez faire le bon choix. Les prix varient entre 140 et 250 euros. Toutes les motobineuses sont disponibles en ligne chez notre partenaire Amazon.

Motobineuse électrique 750 W, Largeur 36,5 cm ( DELTAFOX )

La bineuse électrique DELTAFOX est équipée d’un moteur de 750 watts et peut être réglée sur deux largeurs de travail : 19 cm et 36,5 cm. Elle est légère et maniable, avec seulement 8,5 kg environ, et dispose d’une transmission sans entretien et d’un moteur électrique robuste. Le longeron rabattable avec arceau-poignée permet un rangement peu encombrant et un travail qui ménage le dos, tandis que le cache de protection en acier, l’interrupteur de sécurité et le clip de ceinture fournissent une sécurité maximale lors de l’utilisation de la bineuse.

Motobineuse électrique 18 V, Largeur 20 cm ( RYOBI )

Ce produit de bineuse RYOBI est conçu pour ameublir et éliminer les mauvaises herbes des plates-bandes et des parterres de jardin. Il dispose de 4 fraises en métal de 12 dents pour une largeur de travail de 20 cm et une profondeur de travail de 10 cm. Il offre également 3 vitesses de travail pour s’adapter aux différents types de sols. La bineuse dispose également de poignées intelligentes et d’un système de démarrage sécurisé pour une utilisation plus confortable et plus sûre. Le produit est livré avec une garantie de 2 ans, avec une extension d’un an si le produit est enregistré dans les 30 jours suivant l’achat.

Motobineuse électrique 18 V, Largeur 20 cm ( BOSCH )

La motobineuse sans fil TL 1820 de Bosch est légère (3,8 kg avec batterie), maniable et pratique pour l’émiettement, le desserrage et le désherbage. Elle dispose de lames en métal d’une largeur de travail de 20 cm et d’un diamètre de lame de 15 cm, ainsi qu’un indicateur de niveau de batterie intégré dans la poignée.

🥈 Motobineuse électrique 1400 W, Largeur 40 cm ( Einhell )

La motobineuse électrique GC-RT 1440 M est puissante, légère et facile à manier, avec une largeur de travail de 40 cm et une profondeur optimale de 20 cm. La sécurité est primordiale avec un double interrupteur de sécurité et un système anti-arrachement du câble. La maniabilité est optimale grâce à son guidon ergonomique et ses roues réglables en hauteur pour faciliter le déplacement. Enfin, Einhell propose une qualité allemande et une garantie de durabilité pour répondre aux besoins de jardinage jusqu’à 150m².

🥉 Motobineuse électrique 1500 W, Largeur 40 cm ( MASKO )

Cette motobineuse électrique dispose d’un moteur puissant de 1500 watts conçu pour les travaux difficiles sur sol argileux. Les roues de transport permettent un déplacement facile et les poignées ergonomiques assurent un travail sans effort. Les 24 lames rotatives assurent une grande efficacité. Le rangement est facile grâce à son armature robuste et repliable. La motobineuse dispose également de plusieurs dispositifs de sécurité, tels qu’un interrupteur de sécurité et un garde-boue en acier pour éviter les projections de pierres et de terre.

Motobineuse électrique 1500 W, Largeur 43 cm ( Costway )

Cette motobineuse dispose d’un moteur développant 13,5 ampères avec une vitesse maximale de 400 tr/min pour ameublir rapidement les sols les plus durs tout en offrant une bonne stabilité. Il est équipé d’une commande marche/arrêt et un bouton de sécurité ainsi qu’un bouclier pour prévenir les projections. La zone de travail est de 43 cm en largeur et 22 cm de profondeur. Elle est équipée de 6 lames pour creuser des tranchées et installer profondément des plantations. Elle peut être rangé grâce à des boutons rotatifs sur deux positions du châssis et les roulettes peuvent être abaissées.

🥇 Motobineuse électrique 1500 W, Largeur 45 cm ( Einhell )

La motobineuse électrique GC-RT 1545 M Einhell reste un outil léger et maniable d’une puissance de 1500 Watts pour ameublir efficacement les sols. Elle est entraînée par un puissant moteur et 6 fraises de binage qui travaillent la terre jusqu’à 22 cm de profondeur, même dans des sols secs, durs et rocailleux. L’interrupteur de sécurité 2 points arrête les fraises de binage dès qu’on le relâche pour assurer une sécurité optimale. Les roues réglables en hauteur se déplient pour le transport et se rétractent lorsque l’outil est en fonctionnement. Le guidon ergonomique et repliable permet de travailler en tout confort et de ranger la motobineuse avec un faible encombrement.

Motobineuse électrique 1500 W, Largeur 45 cm ( IKRA )

Idéal pour assouplir le sol et pour préparer le lit de semences. La tourbe, les engrais et le compost peuvent être facilement introduits dans le sol avec l’appareil doté de 3 largeurs de travail différentes : 17cm, 30cm et 45cm. La profondeur de travail est de 23 cm. Les 6 fraises dotées chacune de 4 lames démontables pour différentes largeurs de travail. Le moteur de 1500 watts est suffisamment puissant et silencieux.

FAQ / Questions et Réponses

Faut-il désherber avant de passer la motobineuse ?

Il est recommandé de désherber avant de passer la motobineuse car cela permet de faciliter le travail du sol. En effet, les mauvaises herbes peuvent gêner l’action de la motobineuse et provoquer des irrégularités dans le sol, ce qui peut nuire à la croissance des plantes. En enlevant les mauvaises herbes avant de passer la motobineuse, on peut aussi éliminer les racines en profondeur et éviter qu’elles ne repoussent par la suite. De plus, cela permet d’aérer le sol et de le rendre plus fertile. Cependant, il est important de choisir le moment opportun pour désherber afin de ne pas perturber la croissance des plantes déjà en place. Il est recommandé de désherber après les périodes de pluie pour faciliter l’arrachage des mauvaises herbes et de le faire à la main ou à l’aide d’un outil adapté pour éviter d’abîmer les plantes voisines.

Pourquoi opter pour une petite motobineuse ?

Opter pour une petite motobineuse peut être une excellente option si vous avez un petit jardin ou un potager à cultiver. Non seulement ces machines sont moins chères, mais elles sont également plus compactes et plus faciles à manœuvrer. Elles sont idéales pour travailler la terre en vue de la préparation d’un lit de semences ou pour la plantation de petits plants. En outre, leur petite taille permet de travailler dans des endroits difficiles d’accès, tels que les allées étroites ou les coins du jardin. De plus, elles sont plus économiques en termes de consommation de carburant et d’entretien.

Quel est le poids d’une motobineuse électrique ?

Le poids d’une motobineuse électrique varie en fonction du modèle et de la capacité du moteur électrique. En général, les motobineuses électriques sont plus légères que les versions à essence, car elles ne nécessitent pas de réservoir de carburant ou d’autres composants lourds. Le poids de la plupart des motobineuses électriques oscille entre 10 et 20 kg. Le poids de la machine est également influencé par la largeur de travail de la motobineuse, ainsi que par les caractéristiques de la terre à travailler. Les motobineuses électriques sont de plus en plus appréciées pour leur légèreté, leur facilité d’utilisation et leur faible impact environnemental, offrant ainsi une solution pratique et durable pour le travail du sol dans les jardins, les potagers ou les petites exploitations agricoles.

Vous souhaitez créer un gazon ?

Si vous souhaitez créer un gazon, il est important de commencer par préparer le sol. Enlevez toutes les racines, pierres, débris et autres éléments qui pourraient empêcher la croissance de l’herbe. Ensuite, ajoutez un peu de compost ou de terreau pour aider à améliorer la qualité du sol. Il est essentiel de bien arroser le sol avant de semer les graines afin de permettre une bonne germination. Une fois les graines semées, il est important de maintenir le sol humide pour que les graines puissent germer et pousser correctement. N’oubliez pas de tondre régulièrement le gazon une fois qu’il a un peu poussé pour encourager une croissance saine. En suivant ces étapes, vous pouvez créer un beau gazon pour votre maison ou votre jardin.

Un convertisseur DC-DC atteint une efficacité record de 98,3%

Un convertisseur DC-DC atteint une efficacité record de 98,3%

Les chercheurs de l’Université de Kobe et de l’Université nationale Chung Hsing ont développé un nouveau convertisseur de puissance DC-DC qui se distingue par son efficacité, sa fiabilité et sa durabilité.

L’électricité se présente sous deux formes : le courant alternatif (AC) et le courant continu (DC). Si la plupart des centrales électriques produisent du courant alternatif, de nombreux appareils, tels que les panneaux solaires, les batteries des véhicules électriques et les ordinateurs, fonctionnent en courant continu. La conversion AC-DC est donc nécessaire, mais entraîne des pertes d’énergie.

Une alternative consiste à mettre en place des microréseaux DC qui intègrent diverses sources d’énergie renouvelable et dispositifs de stockage, et fournissent directement l’énergie aux centres de données et autres appareils DC. Cela nécessite cependant un dispositif capable de convertir différentes tensions de manière flexible et bidirectionnelle, car chaque appareil DC requiert une tension spécifique et les batteries fournissent des tensions variables selon leur charge et leur capacité.

Les chercheurs en électronique de puissance Mishima Tomokazu de l’Université de Kobe (Japon) et de l’Université nationale Chung Hsing (Taïwan) ont uni leurs forces dans le cadre d’un projet visant à développer des technologies élémentaires pour des systèmes de distribution d’énergie à haute densité de puissance, contribuant à des centres de données à faible émission de carbone.

L’évaluation de leur prototype a montré un rendement impressionnant de 98,3 %. “Cela met en évidence la faisabilité pratique et l’évolutivité de la topologie proposée pour des applications réelles, ouvrant la voie à de futures avancées dans la technologie de conversion DC-DC bidirectionnelle”, commente M. Liu.

Selon Liu Shiqiang, membre de l’équipe étudiante de l’Université de Kobe, « Notre équipe diversifiée, dotée d’une expertise couvrant les disciplines pertinentes, nous a permis d’aborder le problème sous de multiples perspectives. Notre accès à des installations et des ressources de pointe nous a permis de mener des expériences, des simulations et des analyses approfondies. De plus, notre groupe a un historique de collaborations réussies avec des partenaires industriels et d’autres institutions de recherche, fournissant des informations et un soutien précieux pour nos projets. »

Les principes de conception, les caractéristiques et l’évaluation du prototype ont été publiés dans la revue IEEE Transactions on Power Electronics. Liu Shiqiang, premier auteur de l’étude, explique les principaux avantages de ce convertisseur par rapport aux conceptions précédentes :

« Son rapport de tension supérieur lui permet de s’interfacer efficacement avec une large gamme de sources d’énergie, tandis que l’auto-équilibrage des courants d’inductance améliore la stabilité et la simplicité du système. De plus, le contrôle asymétrique de la limite de service offre des performances accrues, en particulier pour les microréseaux DC connectés aux véhicules électriques. »

L’évaluation de leur prototype a montré une efficacité impressionnante allant jusqu’à 98,3 %. « Cela met en évidence la faisabilité pratique et l’évolutivité de la topologie proposée pour des applications réelles, ouvrant la voie à de futures avancées dans la technologie de conversion DC-DC bidirectionnelle », commente Liu Shiqiang.

L’équipe a déposé un brevet pour cette conception au Japon et prépare actuellement sa commercialisation avec UPE-Japan, une startup de l’Université de Kobe. Les chercheurs souhaitent également continuer à améliorer leur conception, notamment pour atteindre des densités de puissance plus élevées et une plus grande variété d’applications.

Tenant le dispositif de taille A4, M. Liu (à droite) déclare : “En fin de compte, notre objectif à long terme est de contribuer à la transition vers des solutions de stockage et de conversion de l’énergie plus efficaces, plus fiables et plus durables, en particulier dans le contexte des véhicules électriques et de l’intégration des énergies renouvelables.”

Selon Liu Shiqiang, « Notre objectif à long terme est de contribuer à la transition vers des solutions de stockage et de conversion d’énergie plus efficaces, fiables et durables, en particulier dans le contexte des véhicules électriques et de l’intégration des énergies renouvelables. »

Article : “Over 98% Efficiency SiC-MOSFET based Four-Phase Interleaved Bidirectional DC-DC Converter Featuring Wide-Range Voltage Ratio” – DOI: 10.1109/TPEL.2024.3389052

Légende illustration : LIU Shiqiang, premier auteur de l’étude, explique les caractéristiques du dispositif : “Son rapport de tension supérieur lui permet de s’interfacer efficacement avec une large gamme de sources d’énergie, tandis que l’auto-équilibrage des courants d’inductance améliore la stabilité et la simplicité du système. En outre, le “contrôle asymétrique de la limite de service” offre des performances accrues, en particulier pour les micro-réseaux à courant continu connectés à des véhicules électriques.” Crédit : MISHIMA Tomokazu

Des fibres avec une conductivité électrique 1,3 fois supérieure

Des fibres avec une conductivité électrique 1,3 fois supérieure

Les dispositifs portables, comme les montres connectées et les lunettes de réalité augmentée, sont en train de bousculer le domaine de la santé et du travail à distance. Leur petite taille et leur légèreté limitent encore leur capacité de stockage d’énergie, un obstacle technique à l’intégration de fonctionnalités variées. Pour que ces appareils puissent réaliser pleinement leur potentiel, il devient nécessaire de développer une méthode de stockage d’énergie plus légère et plus efficace.

L’Institut coréen des sciences et technologies (KIST) a annoncé qu’une équipe de recherche conjointe, dirigée par les docteurs Hyeonsu Jeong et Namdong Kim du Centre des matériaux composites fonctionnels de la branche de Jeonbuk, ainsi que par le docteur Seungmin Kim du Centre des matériaux de fusion du carbone, a mis au point un matériau d’électrode fibreux capable de stocker de l’énergie. Ces fibres sont résistantes, légères et hautement flexibles, ce qui permet une plus grande liberté dans la conception des dispositifs portables et la possibilité de les fabriquer sous diverses formes et applications.

Les fibres de nanotubes de carbone sont flexibles, légères et possèdent d’excellentes propriétés mécaniques et électriques, ce qui en fait un matériau prometteur pour les dispositifs portables. En raison de leur faible surface spécifique et de leur manque d’activité électrochimique, les études précédentes les ont principalement utilisées comme collecteur de courant et ont revêtu leur surface de matériaux actifs. L’approche est non seulement peu économique en raison du coût élevé des matériaux et des processus supplémentaires, mais présente également une forte probabilité de séparation du matériau actif de la fibre lors d’une utilisation prolongée ou d’une déformation physique.

Pour résoudre ce problème, l’équipe de recherche du KIST a développé un matériau d’électrode fibreux à haute capacité de stockage d’énergie sans avoir recours à des matériaux actifs. L’équipe a mis au point des fibres de nanotubes de carbone possédant à la fois une activité électrochimique et d’excellentes propriétés physiques en traitant à l’acide et en modifiant des nanotubes de carbone sous forme de poudre, puis en les filant en fibres.

La fibre de nanotubes de carbone modifiée possède une capacité de stockage d’énergie 33 fois supérieure, une résistance mécanique 3,3 fois supérieure et une conductivité électrique plus de 1,3 fois supérieure à celles des fibres de nanotubes de carbone ordinaires. De plus, comme le matériau d’électrode de stockage d’énergie a été développé en utilisant uniquement des fibres de nanotubes de carbone pures, il peut être produit en masse à l’aide de la technologie de filage humide.

Lors des tests effectués avec des supercondensateurs en forme de fibres, ceux-ci ont conservé près de 100 % de leurs performances lorsqu’ils étaient noués et 95 % de leurs performances après 5 000 tests de flexion. Ils ont également bien fonctionné lorsqu’ils ont été tissés dans les bracelets de montres numériques en utilisant une combinaison de fibres ordinaires et de fibres de nanotubes de carbone, après avoir été pliés, pliés et lavés.

Dans la figure ci-dessus, des fibres de nanotubes de carbone fabriquées en supercondensateurs de type fibre (FSSC) démontrent leurs capacités de stockage d’énergie et leurs propriétés portables dans une montre numérique disponible dans le commerce. Crédit : KIST

Le docteur Kim Seung-min du KIST a expliqué la signification de l’étude en déclarant : « Nous avons confirmé que les nanotubes de carbone, qui ont récemment recommencé à attirer l’attention en tant que matériau conducteur pour les batteries secondaires, peuvent être utilisés dans un éventail de domaines beaucoup plus large. »

Le docteur Hyeon Su Jeong, co-chercheur, a ajouté : « La fibre de nanotubes de carbone est un domaine compétitif car nous disposons de la technologie originale et l’écart technologique avec les pays avancés n’est pas très important. Nous poursuivrons nos recherches pour l’appliquer en tant que matériau de base pour le stockage d’énergie atypique. »

Un autre co-chercheur, le docteur Nam-dong Kim, a déclaré : « Nous menons actuellement des recherches pour appliquer cette technologie à des batteries de type fibre avec une densité d’énergie plus élevée, au-delà des supercondensateurs. »

Article : “Active Material-Free Continuous Carbon Nanotube Fibers with Unprecedented Enhancement of Physicochemical Properties for Fiber-Type Solid-State Supercapacitors” – DOI: 10.1002/aenm.202303003

Des chercheurs repoussent les limites des condensateurs

Des chercheurs repoussent les limites des condensateurs

Les condensateurs électrostatiques, composants essentiels de l’électronique moderne, sont au cœur d’une étude révolutionnaire menée par une équipe de chercheurs de l’Université de Washington à St. Louis et du MIT.

Les matériaux ferroélectriques utilisés dans les condensateurs présentent une perte d’énergie significative en raison de leurs propriétés intrinsèques, ce qui limite leur capacité de stockage d’énergie. Sang-Hoon Bae, professeur assistant en génie mécanique et science des matériaux à l’Université de Washington à St. Louis, et son équipe ont relevé ce défi en introduisant une approche innovante basée sur les matériaux 2D pour contrôler le temps de relaxation des condensateurs ferroélectriques.

En collaboration avec Rohan Mishra, Chuan Wang et Frances Ross, les chercheurs ont développé des hétérostructures 2D/3D/2D capables de minimiser les pertes d’énergie tout en préservant les propriétés avantageuses des matériaux ferroélectriques 3D. L’approche consiste à intercaler des couches de matériaux 2D et 3D d’épaisseur atomique, reliées par des liaisons chimiques et non chimiques soigneusement conçues.

Initialement, l’équipe de Sang-Hoon Bae ne se concentrait pas sur le stockage d’énergie. C’est au cours de leur exploration des propriétés des matériaux qu’ils ont découvert un nouveau phénomène physique applicable au stockage d’énergie. Les hétérostructures 2D/3D/2D ont été finement conçues pour se situer dans la zone optimale entre conductivité et non-conductivité, où les matériaux semi-conducteurs présentent des propriétés électriques idéales pour le stockage d’énergie.

Grâce à cette conception, les chercheurs ont obtenu une densité d’énergie jusqu’à 19 fois supérieure à celle des condensateurs ferroélectriques disponibles sur le marché, avec une efficacité de plus de 90%, ce qui est également sans précédent.

La structure hétérogène constitue dans ce cas précis un nouveau matériau électronique fondamental. Bien que non encore optimale à 100%, elle surpasse déjà les performances des autres laboratoires. Les prochaines étapes consisteront à améliorer encore cette structure pour répondre aux besoins de charge et de décharge ultra-rapides et de très hautes densités d’énergie dans les condensateurs, sans perte de capacité de stockage au fil des cycles de charge.

Ces avancées sont particulièrement cruciales dans les secteurs nécessitant des solutions robustes de gestion de l’énergie, tels que les véhicules électriques et le développement des infrastructures. Le matériau hétérostructuré développé par Sang-Hoon Bae et son équipe ouvre la voie à des dispositifs électroniques haute performance, englobant l’électronique de puissance, les systèmes de communication sans fil à haute fréquence et les puces de circuits intégrés, essentiels à la transition vers les composants électroniques de nouvelle génération.

Article : “High energy density in artificial heterostructures through relaxation time modulation” – DOI: 10.1126/science.adl2835

Réseau quantique : les chercheurs franchissent une étape décisive

Réseau quantique : les chercheurs franchissent une étape décisive

La communication quantique à longue distance est un défi majeur pour le développement de réseaux quantiques destinés au calcul distribué et à la communication sécurisée. Les chercheurs ont franchi une étape cruciale en créant un système qui interface deux composants clés : un dispositif de création d’informations quantiques et un dispositif de stockage de ces informations.

L’importance de partager l’information quantique

Le partage de l’information quantique est essentiel pour développer des réseaux quantiques destinés au calcul distribué et à la communication sécurisée. L’informatique quantique sera utile pour résoudre certains types de problèmes importants, tels que l’optimisation des risques financiers, le décryptage des données, la conception de molécules et l’étude des propriétés des matériaux.

Cependant, ce développement est freiné par la perte d’informations quantiques lors de leur transmission sur de longues distances. Une solution consiste à diviser le réseau en segments plus petits et à les relier tous avec un état quantique partagé.

Un système innovant pour stocker et récupérer l’information quantique

Pour réaliser cela, il faut un moyen de stocker l’information quantique et de la récupérer : c’est-à-dire un dispositif de mémoire quantique. Celui-ci doit «communiquer» avec un autre dispositif qui permet la création d’informations quantiques.

Pour la première fois, des chercheurs ont créé un tel système qui interface ces deux composants clés et utilise des fibres optiques classiques pour transmettre les données quantiques. Cet exploit a été réalisé par des chercheurs de l’Imperial College London, de l’Université de Southampton et des Universités de Stuttgart et de Wurzburg en Allemagne.

Selon le Dr Sarah Thomas, co-premier auteur de l’étude, de l’Imperial College London : « L’interfaçage de deux dispositifs clés est une étape cruciale pour permettre la mise en réseau quantique, et nous sommes vraiment ravis d’être la première équipe à avoir pu le démontrer. »

L’installation de points quantiques de l’équipe. Crédit : Thomas Angus / Imperial College London

Surmonter les défis de la communication quantique à longue distance

Dans les télécommunications classiques, l’information peut être perdue sur de grandes distances. Pour y remédier, ces systèmes utilisent des «répéteurs» à intervalles réguliers, qui lisent et ré-amplifient le signal, garantissant son arrivée intacte à destination.

Cependant, les répéteurs classiques ne peuvent pas être utilisés avec l’information quantique, car toute tentative de lecture et de copie de l’information la détruirait. C’est un avantage d’une certaine manière, car les connexions quantiques ne peuvent pas être «écoutées» sans détruire l’information et alerter les utilisateurs. Mais c’est un défi à relever pour la mise en réseau quantique à longue distance.

Une façon de surmonter ce problème est de partager l’information quantique sous forme de particules de lumière intriquées, ou photons. Les photons intriqués partagent des propriétés de telle manière que l’on ne peut pas comprendre l’un sans l’autre.

Faire communiquer les dispositifs de création et stockage des photons

Il existe plusieurs dispositifs utilisés pour créer des informations quantiques sous forme de photons intriqués et pour les stocker, mais la génération de ces photons à la demande et la disponibilité d’une mémoire quantique compatible ont longtemps échappé aux chercheurs.

Les photons ont certaines longueurs d’onde, mais les dispositifs de création et de stockage sont souvent réglés pour fonctionner avec des longueurs d’onde différentes, les empêchant de s’interfacer.

Pour faire communiquer les dispositifs, l’équipe a créé un système où les deux dispositifs utilisaient la même longueur d’onde. Un «point quantique» a produit des photons (non intriqués), qui ont ensuite été transmis à un système de mémoire quantique qui stockait les photons dans un nuage d’atomes de rubidium. Un laser a permis d’activer et de désactiver la mémoire, permettant de stocker et de libérer les photons à la demande.

Une étape importante vers la mise en réseau quantique

Non seulement la longueur d’onde de ces deux dispositifs correspondait, mais elle est également identique à celle des réseaux de télécommunications utilisés aujourd’hui, ce qui permet de la transmettre avec des câbles à fibres optiques classiques utilisés dans les connexions Internet quotidiennes.

Bien que des points quantiques et des mémoires quantiques indépendants plus efficaces que le nouveau système aient été créés, il s’agit de la première preuve que des dispositifs peuvent être conçus pour s’interfacer, et ce à des longueurs d’onde de télécommunications.

L’équipe va maintenant chercher à améliorer le système, notamment en s’assurant que tous les photons sont produits à la même longueur d’onde, en améliorant la durée de stockage des photons et en réduisant la taille de l’ensemble du système.

En tant que preuve de concept, il s’agit néanmoins d’une étape importante, comme le souligne le co-auteur de l’étude de l’Université de Southampton : « Les membres de la communauté quantique ont activement tenté cette liaison pendant un certain temps. Cela nous inclut, ayant essayé cette expérience deux fois auparavant avec différents dispositifs de mémoire et de points quantiques, remontant à plus de cinq ans, ce qui montre à quel point c’est difficile à faire. »

Légende illustration : Dr Sarah Thomas working in the quantum optics lab. Crédit : Thomas Angus / Imperial College London

Deterministic storage and retrieval of telecom light from a quantum dot single-photon source interfaced with an atomic quantum memory,’ par Sarah E. Thomas, Lukas Wagner et al. is publié dans Science Advances.

Le graphène bicouche : un matériau aux propriétés déconcertantes

Le graphène bicouche : un matériau aux propriétés déconcertantes

Une équipe internationale de chercheurs, dirigée par l’Université de Göttingen, a démontré expérimentalement que les électrons dans le graphène bicouche naturel se déplacent comme des particules sans masse, de la même manière que la lumière voyage. De plus, ils ont montré que le courant peut être “allumé” et “éteint”, ce qui ouvre des perspectives pour le développement de transistors miniatures et économes en énergie – comme l’interrupteur de votre maison, mais à l’échelle nanométrique.

Le Massachusetts Institute of Technology (MIT) aux États-Unis et le National Institute for Materials Science (NIMS) au Japon ont également participé à cette recherche.

Le graphène : un matériau aux propriétés exceptionnelles

Identifié en 2004, le graphène est une couche unique d’atomes de carbone. Parmi ses nombreuses propriétés inhabituelles, le graphène est connu pour sa conductivité électrique extraordinairement élevée, due à la vitesse élevée et constante des électrons qui le traversent. Cette caractéristique unique a fait rêver les scientifiques d’utiliser le graphène pour des transistors beaucoup plus rapides et plus économes en énergie.

Le défi a été que pour fabriquer un transistor, le matériau doit pouvoir passer d’un état hautement conducteur à un état hautement isolant. Or, dans le graphène, un tel «interrupteur» dans la vitesse des porteurs de charge ne peut pas être facilement réalisé. En fait, le graphène n’a généralement pas d’état isolant, ce qui a limité son potentiel en tant que transistor.

Le graphène bicouche : la solution pour des transistors ultra-efficaces

L’équipe de l’Université de Göttingen a maintenant découvert que deux couches de graphène, telles qu’on les trouve dans la forme naturelle du graphène bicouche, combinent le meilleur des deux mondes : une structure qui supporte le mouvement incroyablement rapide des électrons se déplaçant comme la lumière, comme s’ils n’avaient pas de masse, en plus d’un état isolant.

Les chercheurs ont montré que cet état peut être modifié par l’application d’un champ électrique perpendiculaire au matériau, rendant le graphène bicouche isolant. Cette propriété des électrons à déplacement rapide avait été prédite théoriquement dès 2009, mais il a fallu une qualité d’échantillon considérablement améliorée, rendue possible par les matériaux fournis par le NIMS, et une étroite collaboration sur la théorie avec le MIT, avant qu’il ne soit possible de l’identifier expérimentalement.

Bien que ces expériences aient été réalisées à des températures cryogéniques – à environ 273° en dessous du point de congélation – elles montrent le potentiel du graphène bicouche pour réaliser des transistors hautement efficaces.

Une première étape vers des applications technologiques innovantes

Le professeur Thomas Weitz, de la faculté de physique de l’Université de Göttingen, déclare : « Nous étions déjà au courant de la théorie. Cependant, nous avons maintenant réalisé des expériences qui montrent effectivement la dispersion de type lumière des électrons dans le graphène bicouche. Ce fut un moment très excitant pour toute l’équipe. »

La Dr Anna Seiler, chercheuse postdoctorale et première auteure, également à l’Université de Göttingen, ajoute : « Notre travail est vraiment une première étape, mais une étape cruciale. La prochaine étape pour les chercheurs sera de voir si le graphène bicouche peut réellement améliorer les transistors ou d’étudier le potentiel de cet effet dans d’autres domaines technologiques. »

Légende illustration : Représentation artistique des charges en mouvement dans le graphène bicouche naturel. – Crédit : Lukas Kroll

Anna M. Seiler et al. “Probing the tunable multi-cone band structure in Bernal bilayer graphene”, Nature Communications 2024. Doi: 10.1038/s41467-024-47342-0

Créer une île paradisiaque dans un réacteur de fusion

Créer une île paradisiaque dans un réacteur de fusion

La fusion nucléaire, source d’énergie propre et inépuisable, suscite un intérêt croissant dans la communauté scientifique. Les chercheurs du Princeton Plasma Physics Laboratory (PPPL) du Département de l’Énergie des États-Unis (DOE) ont récemment démontré comment deux méthodes existantes de gestion du plasma peuvent être combinées pour offrir une plus grande flexibilité dans la production d’électricité par fusion.

Les deux méthodes en question, connues sous les noms de pilotage du courant par électrons cyclotroniques (ECCD) et d’application de perturbations magnétiques résonantes (RMP), ont été longuement étudiées séparément. Cependant, c’est la première fois que des chercheurs simulent leur utilisation conjointe pour améliorer le contrôle du plasma.

Qiming Hu, physicien de recherche au PPPL et auteur principal d’un nouvel article publié dans Nuclear Fusion, explique : « C’est une idée assez nouvelle. Toutes les possibilités n’ont pas encore été explorées, mais notre article contribue grandement à faire progresser notre compréhension des avantages potentiels. »

Surmonter les défis pour générer de l’électricité par fusion

Pour utiliser la fusion comme source d’électricité, les scientifiques devront surmonter plusieurs obstacles, notamment perfectionner les méthodes permettant de minimiser les bouffées de particules provenant du plasma, connues sous le nom de modes localisés au bord (ELM).

Alessandro Bortolon, physicien de recherche principal au PPPL et co-auteur de l’article, explique : « Le meilleur moyen que nous ayons trouvé pour éviter les ELM est d’appliquer des perturbations magnétiques résonantes, ou RMP, qui génèrent des champs magnétiques supplémentaires. »

Les champs magnétiques créent des îlots, les micro-ondes les ajustent

Les champs magnétiques supplémentaires créés par les RMP traversent le plasma, s’entrecroisant comme les points d’un couturier. Ces champs produisent des îlots magnétiques de forme ovale ou circulaire dans le plasma.

Qiming Hu souligne : « Normalement, les îlots dans les plasmas sont vraiment, vraiment mauvais. Si les îlots sont trop grands, le plasma lui-même peut se rompre. » Les chercheurs savaient déjà expérimentalement que, dans certaines conditions, les îlots peuvent être bénéfiques.

L’injection de faisceaux micro-ondes permet d’ajuster la taille des îlots

L’ajout d’ECCD, qui est essentiellement une injection de faisceaux micro-ondes, au bord du plasma réduit la quantité de courant nécessaire pour générer les RMP nécessaires à la création des îlots. Cette injection a également permis aux chercheurs de perfectionner la taille des îlots pour une stabilité maximale du bord du plasma.

Qiming Hu explique : « Notre simulation affine notre compréhension des interactions en jeu. Lorsque l’ECCD a été ajouté dans la même direction que le courant dans le plasma, la largeur de l’îlot a diminué et la pression du piédestal a augmenté. L’application de l’ECCD dans la direction opposée a produit des résultats inverses, avec une augmentation de la largeur de l’îlot et une baisse de la pression du piédestal ou une facilitation de l’ouverture de l’îlot. »

L’ECCD au bord, plutôt qu’au cœur du plasma

Cette recherche est également remarquable car l’ECCD a été ajouté au bord du plasma au lieu du cœur, où il est généralement utilisé. Qiming Hu souligne : « Nous avons montré que c’est faisable et nous avons démontré la flexibilité de l’approche. Cela pourrait ouvrir de nouvelles voies pour la conception de futurs dispositifs. »

En réduisant la quantité de courant nécessaire pour générer les RMP, ce travail de simulation pourrait à terme conduire à une réduction du coût de la production d’énergie de fusion dans les dispositifs de fusion à l’échelle commerciale du futur.

Illustration principale / Crédit d’illustration : Kyle Palmer / Service de communication du PPPL

23 millisecondes : le temps record de mémoire atteint par le tambour quantique

23 millisecondes : le temps record de mémoire atteint par le tambour quantique

Les chercheurs de l’Institut Niels Bohr de l’Université de Copenhague ont développé une nouvelle méthode pour créer une mémoire quantique. Un petit tambour peut stocker des données envoyées par la lumière dans ses vibrations sonores, puis transmettre ces données avec de nouvelles sources lumineuses lorsque nécessaire.

Juste en dessous de l’ancien bureau de Niels Bohr se trouve un sous-sol où des tables éparses sont recouvertes de petits miroirs, de lasers et d’une agglomération de toutes sortes de dispositifs reliés par des enchevêtrements de fils et des amas de ruban adhésif. Bien qu’il soit difficile pour l’œil non averti de discerner que ces tables abritent en réalité un éventail de projets de recherche de pointe, l’essentiel se passe dans des mondes si petits que même les lois de Newton ne s’appliquent pas. C’est là que les héritiers de la physique quantique de Niels Bohr développent les technologies quantiques les plus avancées.

L’un de ces projets se distingue – pour les physiciens du moins – par le fait qu’un gadget visible à l’œil nu est capable d’atteindre des états quantiques. Le tambour quantique est une petite membrane faite d’un matériau céramique ressemblant à du verre, avec des trous dispersés selon un motif soigné le long de ses bords. Lorsque le tambour est frappé par la lumière d’un laser, il commence à vibrer, et ce, si rapidement et sans perturbation, que la mécanique quantique entre en jeu. Cette propriété a depuis longtemps suscité l’intérêt en ouvrant de nombreuses possibilités technologiques quantiques.

Photo: University of Copenhagen

Désormais, une collaboration entre différents domaines quantiques de l’Institut a démontré que le tambour peut également jouer un rôle clé pour le futur réseau d’ordinateurs quantiques. Tels des alchimistes modernes, les chercheurs ont créé une nouvelle forme de «mémoire quantique» en convertissant des signaux lumineux en vibrations sonores.

Dans un article de recherche récemment publié, les chercheurs ont prouvé que les données quantiques d’un ordinateur quantique émises sous forme de signaux lumineux – par exemple, via le type de câble à fibre optique déjà utilisé pour les connexions Internet à haut débit – peuvent être stockées sous forme de vibrations dans le tambour, puis transmises.

Des expériences antérieures ont démontré aux chercheurs que la membrane peut rester dans un état quantique par ailleurs fragile. Sur cette base, ils pensent que le tambour devrait être capable de recevoir et de transmettre des données quantiques sans qu’elles ne «décohèrent», c’est-à-dire sans perdre leur état quantique lorsque les ordinateurs quantiques seront prêts.

Selon Mads Bjerregaard Kristensen, chercheur postdoctoral à l’Institut Niels Bohr et auteur principal du nouvel article de recherche, cela ouvre de grandes perspectives pour le jour où les ordinateurs quantiques pourront vraiment faire ce que l’on attend d’eux. La mémoire quantique sera probablement fondamentale pour envoyer des informations quantiques sur de longues distances. Ainsi, ce que les chercheurs ont développé est une pièce cruciale dans les fondements mêmes d’un Internet du futur avec une vitesse et une sécurité quantiques.

Des recherches sont menées ailleurs sur une alternative où une source lumineuse porteuse de données est dirigée vers un système atomique et déplace temporairement les électrons de l’atome, mais cette méthode a ses limites.

Mads Bjerregaard Kristensen est le principal instigateur de cette nouvelle recherche. Photo de l’Université de Copenhague : Université de Copenhague

Comme l’explique le professeur Albert Schliesser, co-auteur de l’article de recherche, il y a des limites à ce que l’on peut faire avec un système atomique, car on ne peut pas concevoir soi-même les atomes ou la fréquence de la lumière avec laquelle ils peuvent interagir. Le système mécanique relativement «grand» des chercheurs offre plus de flexibilité. Ils peuvent bricoler et ajuster, de sorte que si de nouvelles découvertes changent les règles du jeu, il y a de bonnes chances que le tambour quantique puisse être adapté.

Le tambour est la dernière et la plus sérieuse tentative de mémoire quantique mécanique, car il combine un certain nombre de propriétés : le tambour a une faible perte de signal – c’est-à-dire que la force du signal de données est bien conservée. Il présente également l’énorme avantage de pouvoir gérer toutes les fréquences lumineuses, y compris la fréquence utilisée dans les câbles à fibre optique sur lesquels est construit l’Internet moderne.

Le tambour quantique est également pratique car les données peuvent être stockées et lues à tout moment. Et le temps de mémoire record de 23 millisecondes déjà atteint par les chercheurs rend beaucoup plus probable que cette technologie puisse un jour devenir un élément constitutif des systèmes de réseaux quantiques ainsi que du matériel des ordinateurs quantiques.

Selon le professeur, les chercheurs sont en avance avec cette recherche. L’informatique et la communication quantiques en sont encore à un stade précoce de développement, mais avec la mémoire obtenue, on peut imaginer que le tambour quantique sera un jour utilisé comme une sorte de RAM quantique, une sorte de «mémoire de travail» temporaire pour l’information quantique. Et cela serait révolutionnaire.

Article : “Long-lived and Efficient Optomechanical Memory for Light” – DOI: 10.1103/PhysRevLett.132.100802

Les technologies clés de l’intelligence énergétique dans les bâtiments et industries

Les technologies clés de l'intelligence énergétique dans les bâtiments et industries

L’avènement de l’intelligence énergétique représente une révolution dans la façon dont les bâtiments et les industries utilisent et gèrent cette ressource. Face aux défis climatiques actuels, l’optimisation de la consommation dans ce domaine devient une priorité absolue. Les technologies innovantes, s’appuyant sur l’IA, l’Internet des Objets (IoT), et les solutions de stockage avancées, ouvrent la voie à des structures plus habiles, efficaces et durables. Cet article se penchera sur les transformations dans ce secteur.

Les systèmes de gestion de l’énergie basés sur l’IA pour optimiser la consommation

Ces dispositifs marquent une avancée capitale dans l’usage efficient de cette ressource. En s’appuyant sur des algorithmes d’apprentissage automatique, ils analysent en profondeur les données historiques et en temps réel pour détecter des modèles de consommation. Cette étude permet de prédire avec précision les besoins futurs et d’ajuster de façon spontanée les paramètres pour maximiser l’efficacité.

Dans le cas des bâtiments commerciaux, l’IA joue un rôle transformationnel en pilotant de manière proactive le chauffage, la ventilation et l’éclairage. Par exemple, si un système décèle une pièce inoccupée ou anticipe une baisse de température extérieure, il peut réduire le chauffage ou éteindre les lumières. Il diminue ainsi significativement l’usage de l’électricité. Ces modifications sont effectuées sans délai, assurant une utilisation qui reflète les besoins actuels plutôt que des estimations approximatives.

Dans l’industrie, où la consommation énergétique est souvent massive et moins prévisible, l’IA offre une opportunité d’optimiser la production en fonction des fluctuations de la demande. Les outils présagent les périodes de haute sollicitation et adaptent l’activité de production en conséquence, favorisant un emploi rationnel et économique de l’électricité.

En plus de limiter les coûts, ces innovations favorisent également une approche durable et respectueuse de l’environnement dans la gestion des ressources. Cela souligne l’importance de la technologie dans la réalisation des objectifs d’efficacité dans ce domaine et de réduction des émissions de carbone.

énergie industrie

Des solutions de stockage d’énergie avancées pour une meilleure flexibilité

La conservation de cette ressource est devenue un pilier essentiel de la transition vers un système encore vivant et adaptable. Les progrès dans ce domaine ont ouvert la voie à une multitude de solutions optimisées, offrant une souplesse sans précédent aux bâtiments et aux industries. Ces outils favorisent une gestion efficace, en permettant d’entreposer l’énergie produite à partir de sources intermittentes telles que solaire et éolienne. Ils donnent aussi la possibilité de la libérer au moment opportun.

Batteries thermiques

Ces dispositifs de stockage sont très prometteurs, car ils vous permettent d’utiliser l’énergie que vous produisez vous-même, ce qu’on appelle l’autoconsommation. Ces systèmes consistent en effet à stocker l’énergie que vous produisez durant la journée, et celle-ci sera ensuite utilisée lorsque vous en aurez besoin. L’avantage étant que cela n’engendre aucune perte énergétique, et pour cause, l’énergie fournie en trop par votre centrale solaire sera stockée sous forme thermique. Un système résolument écologique donc. Si vous êtes intéressé par cette technologie, le groupe industriel Fhe France, par exemple, est spécialisé dans le secteur de l’énergie et a développé ce type de solution innovante. L’idéal si vous souhaitez gérer votre consommation énergétique de manière autonome.

Batteries Lithium-ion

Ces batteries ont une densité accrue, une longue durée de vie et une capacité à fournir une puissance élevée sur de courtes périodes. Ces caractéristiques en font un choix idéal pour les applications résidentielles, commerciales et industrielles. À savoir que les systèmes basés sur des batteries lithium-ion peuvent être installés à petite ou grande échelle. Ils apportent alors une large flexibilité dans divers scénarios, tels que la régulation de la charge et de la décharge pour optimiser la consommation.

Stockage à hydrogène

Cette solution propose une large liberté d’utilisation. L’hydrogène peut être fabriqué à partir de sources renouvelables grâce à l’électrolyse de l’eau, puis conservé sous forme liquide ou gazeuse pour un emploi ultérieur. Les équipements peuvent être dimensionnés pour répondre à une immense variété d’applications, allant des besoins résidentiels aux fonctions industrielles d’envergure. Cette ressource peut aussi être exploitée comme vecteur énergétique dans les secteurs du transport et de la production d’électricité. Les outils fournissent ainsi une polyvalence et une souplesse supplémentaires.

Volants d’inertie

Ces moyens de stockage gagnent en popularité en raison de leur efficacité et de leur capacité à fournir une puissance élevée sur de courtes périodes. Ils entreposent de l’énergie cinétique en faisant tourner un volant à énorme vitesse, qui peut être convertie en électricité lorsque cela est nécessaire. Les outils offrent une réponse rapide aux fluctuations de la demande, ce qui les rend très adaptés pour la régulation de fréquence dans les réseaux ou pour apporter des secours en cas de coupure de courant. Ces innovations favorisent une distribution démocratique de cette ressource importante. Les communautés et les entreprises peuvent ainsi devenir autonomes en la matière.

Les capteurs et l’IoT pour une surveillance et un contrôle en temps réel

L’intégration de ces outils dans le domaine de la gestion énergétique est un changement paradigmatique, révolutionnant la collecte et l’analyse des données. Cette synergie technologique offre une surveillance et un contrôle sans précédent, ouvrant la porte à un contrôle localisé intelligent et réactif. En effet, les capteurs, disséminés stratégiquement à travers les infrastructures, recueillent des informations importantes sur l’état des équipements, la consommation d’électricité et les variables environnementales comme la température et l’humidité. Ces renseignements sont ensuite transmis via l’IoT à des systèmes centraux d’étude, permettant une évaluation précise et en temps réel des performances.

La capacité à détecter les anomalies ou les défaillances potentielles avant qu’elles ne deviennent problématiques est un avantage significatif de cette approche. Par exemple, un dispositif peut identifier un appareil qui surchauffe et signaler ce souci pour une maintenance préventive, évitant ainsi des coûts de réparation élevés et des pertes. De plus, en analysant l’usage de cette ressource au fur et à mesure, les structures basées sur l’IoT peuvent ajuster dynamiquement les paramètres pour optimiser son efficacité. Cette méthode peut être alors adaptée aux besoins véritables plutôt qu’à des schémas préétablis.

Dans les bâtiments intelligents, l’application de ces technologies va au-delà de la simple économie. Les outils qui mesurent la qualité de l’air peuvent parfois aligner automatiquement les systèmes de ventilation pour améliorer le confort des occupants tout en maximisant la consommation d’énergie. Cette stratégie holistique réduit les dépenses et bonifie le bien-être des individus.

technologie avancée pour l'énergie

Les logiciels de prévision énergétique pour anticiper la demande et la production

Grâce à l’emploi de modèles prédictifs avancés, ces outils anticipent avec une grande précision les fluctuations futures de la sollicitation et de la fabrication de cette ressource. Cela permet aux opérateurs de réseaux de programmer de manière plus fonctionnelle l’équilibrage entre l’offre et la requête, ce qui minimise le risque de surproduction coûteuse ou de pénurie préjudiciable.

La planification, soutenue par des prévisions claires, est très bénéfique dans le secteur industriel, où elle peut entraîner une réduction notable des prix opérationnels. Par exemple, une usine peut employer ces logiciels pour ajuster son exploitation selon les estimations de demande, maximisant l’utilisation de ses moyens et restreignant ses dépenses. De même, dans le domaine des bâtiments résidentiels ou commerciaux, cette approche garantit un confort constant pour les occupants. En modulant le chauffage, la climatisation et l’éclairage en fonction des besoins, les constructions peuvent maintenir une température et une luminosité optimales tout en atténuant la consommation d’électricité.

Ces innovations sont un pivot central dans l’effort global pour une gestion plus intelligente et durable. En favorisant une allocation efficace des ressources, elles diminuent l’empreinte écologique des activités humaines. Elles marquent alors une étape importante vers la réalisation d’un avenir propre et équilibré.

L’intégration des énergies renouvelables dans les systèmes énergétiques intelligents

Grâce aux avancées, il est désormais possible d’harmoniser le développement de cette ressource renouvelable avec les besoins. Cela améliore la flexibilité et l’efficacité des réseaux.

Cette intégration se manifeste par l’ajustement actif de la consommation en fonction de la production solaire disponible. En optimisant l’utilisation de ces dispositions lorsqu’elles sont abondantes et en réduisant la dépendance aux combustibles fossiles pendant les périodes de faible rendement, les systèmes intelligents minimisent l’impact environnemental. Ils garantissent de même la fiabilité de l’approvisionnement.

L’emploi de micro-réseaux et des innovations dans le secteur, comme IA, enrichit cette dynamique. Ces éléments permettent un contrôle localisé situé et adaptable de l’énergie, facilitant l’autonomie des communautés ou des industries en tirant le meilleur parti des ressources écologiques locales.

Un centre high-tech pour relever les défis énergétiques de demain

Un centre high-tech pour relever les défis énergétiques de demain

Le Centre pour la chimie de l’énergie et de l’environnement de Iéna (CEEC Iéna) de l’Université de Iéna (Allemagne) suscite de grandes attentes avant même son achèvement. Les nouveaux bâtiments offrent un cadre propice à la recherche de pointe et ont déjà permis d’obtenir d’importants financements.

Selon le Prof. Dr Ulrich S. Schubert, chimiste et spécialiste des matériaux à Iéna, l’architecture fonctionnelle du nouveau centre avec ses laboratoires spécialisés a déjà contribué à l’acquisition de programmes coordonnés de la Fondation allemande pour la recherche (DFG) et du nouvel Institut Helmholtz HIPOLE Iéna. Parmi les projets notables, on peut citer l’extension du programme prioritaire de la DFG «Batteries à base de polymères», l’acquisition du nouveau groupe de recherche DFG “FuncHeal” et le cluster d’innovation sur l’eau de Thuringe ThWIC DE.

Ces projets et bien d’autres trouvent désormais leur place dans le CEEC Iéna II et le Centre d’application CEEC Iéna (AWZ CEEC Iéna), officiellement inaugurés le 12 avril 2024. De nombreuses personnalités étaient présentes, dont le Premier ministre de l’État libre de Thuringe, Bodo Ramelow, le ministre des Sciences Wolfgang Tiefensee et la secrétaire d’État à la Construction, la Prof. Dr Barbara Schönig.

L’Université de Iéna, un maître d’ouvrage efficace

Pour le Prof. Dr Georg Pohnert, président par intérim de l’Université de Iéna, ces nouveaux bâtiments démontrent non seulement l’excellence de la recherche menée à l’Université Friedrich Schiller, mais aussi ses compétences en matière de construction. Malgré la pandémie de COVID-19, le projet est resté quasiment dans les délais et le budget prévus depuis 2021, justifiant ainsi la confiance accordée par l’État libre de Thuringe.

Les deux parties du bâtiment, réunies sous un même toit, ont coûté 53 millions d’euros, financés par l’État fédéral d’Allemagne et l’État libre de Thuringe avec le soutien de la Fondation Carl Zeiss et de la Fondation Ernst Abbe, ainsi que par des fonds de l’UE (FEDER) et les ressources propres de l’Université. L’État a également soutenu l’équipement à hauteur de près de 10 millions d’euros, notamment pour l’acquisition d’un microscope électronique à transmission pour les matériaux polymères d’une valeur de 5,5 millions d’euros.

Explorer l’avenir de l’eau et de l’énergie

Ces investissements permettent à la communauté scientifique de Iéna d’aborder des questions importantes liées au climat, comme la recherche sur les batteries et l’énergie, mais aussi de nombreux autres sujets relevant de la chimie, des sciences des matériaux et des géosciences. Des systèmes de stockage d’énergie électrochimique sans métal (batteries, supercondensateurs), des photovoltaïques et des façades intelligentes ainsi que des technologies innovantes de l’eau sont en cours de développement.

De nouveaux matériaux seront inventés, synthétisés, traités et utilisés. Les chercheurs, de la chimie des polymères et du verre à la minéralogie, trouveront ici les meilleures conditions de travail. Au total, douze groupes de travail de l’Université et du nouvel «Institut Helmholtz pour les polymères dans les applications énergétiques de Iéna» (HIPOLE Iéna) s’installent dans ces nouveaux bâtiments.

Un bâtiment à l’image de la recherche durable

Conçu par le cabinet d’architecture munichois Telluride (anciennement HDR), le bâtiment reflète par sa forme même les thématiques de recherche qui y sont menées. Le cuivre, par exemple, fait référence aux feuilles pour électrodes de batteries. De plus, la couleur cuivrée de la barre de toit s’harmonise avec la clinique historique voisine.

Le toit, couvert de cellules solaires pour une alimentation en énergie verte et doté de zones de test pour les cellules solaires ou les composants de façade, prouve qu’une recherche durable sur la durabilité de l’avenir est menée ici.

Le nouveau bâtiment, avec ses deux parties, comprend au total 4 000 mètres carrés de surface utile et abrite plus de 40 bureaux et 60 laboratoires. Un centre technique pour la montée en puissance et les grands appareils a été mis en place dans le centre d’application. Il est désormais possible de rapprocher les résultats de la recherche d’une éventuelle production ultérieure et de produire et traiter sur place de plus grandes quantités des matériaux souhaités.

85 millions d’euros investis en dix ans

Selon le Prof. Schubert, en dix ans, 85 millions d’euros, plus 20 millions d’euros pour les instruments de recherche, ont été investis dans le campus Landgrafen, dans quatre bâtiments reliés par des passerelles. Cela permet à l’Université de Iéna de mener les initiatives de recherche lancées en 2010 dans les domaines de la recherche sur les polymères et les matériaux pour les applications énergétiques, environnementales et pharmaceutiques avec une qualité totalement nouvelle.

Les chercheurs travailleront désormais à justifier ces investissements en menant des recherches de haut niveau et en les convertissant en produits qui, à leur tour, conduiront à la création de nouveaux emplois en Thuringe.

La SCIA, moteur de l’innovation dans les semi-conducteurs aux USA

La SCIA, moteur de l'innovation dans les semi-conducteurs aux USA

Le carbure de silicium (SiC), un matériau semi-conducteur composé d’atomes de silicium et de carbone arrangés en cristaux, est de plus en plus essentiel aux technologies modernes telles que les véhicules électriques, les systèmes d’énergie renouvelable, les infrastructures de télécommunications et la microélectronique.

Connu pour sa capacité à résister à des environnements extrêmes et à des tensions élevées, le SiC est au cœur des efforts de recherche et de développement visant à faire progresser son potentiel.

Penn State lance la Silicon Carbide Innovation Alliance (SCIA)

Pour faire progresser le potentiel de ce semi-conducteur, l’université Penn State a récemment lancé l’Alliance pour l’innovation dans le domaine du carbure de silicium (SCIA), une coalition de leaders de l’industrie, d’institutions académiques et de soutiens gouvernementaux avec pour objectif de devenir le centre névralgique national pour la recherche, le développement et la formation de la main-d’œuvre dans la technologie des cristaux de SiC.

Le SiC présente une efficacité et des performances supérieures au silicium et est déjà un composant clé dans les véhicules électriques et pour le développement d’une infrastructure énergétique plus respectueuse du carbone. Selon Joshua Robinson, professeur de science et d’ingénierie des matériaux et directeur de la SCIA, « le SiC est le semi-conducteur essentiel pour la transition énergétique car il est au centre de plusieurs “technologies vertes” de nouvelle génération ».

Le SiC3 au cœur de l’alliance

Le fleuron de l’alliance sera le onsemi Silicon Carbide Crystal Center (SiC3) récemment établi au Material Research Institute de Penn State. Le SiC3 est financé via un partenariat de 8 millions de dollars avec onsemi, un leader industriel dans les technologies de puissance et de détection intelligentes.

Selon Joshua Robinson, la recherche académique sur la croissance des cristaux de SiC avait fait des progrès significatifs il y a 20 ans, produisant des matériaux principalement pour le Département de la Défense, mais bien que l’espace d’application se soit considérablement élargi, l’éducation et la recherche universitaires dans ce domaine ont depuis diminué aux États-Unis.

Le soutien crucial de l’US Air Force

Robinson a souligné que l’US Air Force a également apporté un soutien essentiel pour rendre la SCIA possible grâce à une subvention du Programme d’instrumentation de recherche de l’université de défense (DURIP). « Le rôle de l’US Air Force dans la création de la SCIA ne peut être surestimé », a indiqué Joshua Robinson. « L’Air Force a fourni un financement crucial pour l’achat d’instruments essentiels qui ont été la clé pour sécuriser notre partenariat avec onsemi et jeter les bases de la SCIA. Ce soutien souligne également l’importance stratégique du SiC dans les applications de sécurité nationale et de défense. »

Alignement avec les objectifs du CHIPS and Science Act

La vision de la SCIA s’aligne étroitement avec les objectifs du CHIPS and Science Act, qui vise à revitaliser l’industrie des semi-conducteurs en Amérique et à renforcer les capacités de fabrication nationales. L’alliance sera également essentielle dans les efforts autour du Hub des semi-conducteurs de la région Mid-Atlantic (MASH), une coalition interdépendante des meilleures universités et industries fondée par Penn State pour combiner les ressources et l’expertise afin de répondre aux besoins de l’industrie des semi-conducteurs aux États-Unis en renforçant et en alignant la recherche, la fabrication et le développement de la main-d’œuvre.

Clive Randall, professeur distingué de science et d’ingénierie des matériaux et directeur de l’Institut de recherche sur les matériaux (MRI) à Penn State, a déclaré : « L’accent mis par la SCIA sur le développement de la main-d’œuvre et la promotion de la collaboration entre l’industrie et le monde universitaire en Pennsylvanie et au-delà contribue à la réalisation des objectifs du CHIPS Act. Cela sera fondamental pour le leadership de Penn State dans le MASH, qui vise à accélérer l’innovation dans les semi-conducteurs. »

Prochaines étapes : développer les partenariats

La prochaine étape pour l’alliance est de développer son membership. David Fecko, agent de liaison industrielle pour le MRI, a ajouté : « Nous voyons d’abondantes opportunités de collaboration tout au long de la chaîne d’approvisionnement des substrats de SiC, et nous sommes impatients de nous connecter avec les parties prenantes de l’industrie pour explorer les partenariats potentiels dans ce domaine passionnant. »

« Notre objectif sera de relever les défis pertinents pour l’industrie aux côtés des membres de la SCIA et de cultiver une main-d’œuvre qualifiée grâce à une formation pratique dans une installation pilote. Dans cette optique, nous recherchons activement de nouvelles entreprises pour se joindre à nous dans nos efforts », a conclu David Fecko.

Légende illustration : Le carbure de silicium, un matériau semi-conducteur cristallin essentiel pour l’électronique de pointe et l’énergie propre, cultivé dans des fours à haute température comme celui de gauche, est au cœur de l’Alliance pour l’innovation du carbure de silicium (Silicon Carbide Innovation Alliance). L’alliance s’efforcera de faire progresser la technologie du carbure de silicium et le développement de la main-d’œuvre aux États-Unis. Crédit : Institut de recherche sur les matériaux de l’État de Pennsylvanie. Tous droits réservés.

Découverte d’une méthode pour un graphène nanocellulaire parfait

Découverte d'une méthode pour un graphène nanocellulaire parfait

Le graphène, matériau aux propriétés exceptionnelles, ne cesse de susciter l’intérêt de la communauté scientifique depuis sa découverte en 2004. Ses applications potentielles dans de nombreux domaines, allant de l’électronique à la médecine, en font un sujet de recherche particulièrement stimulant.

Récemment, une équipe de chercheurs a mis au point une nouvelle méthode pour fabriquer du graphène nanocellulaire sans fissures, ouvrant ainsi la voie à de nouvelles perspectives d’utilisation.

Le graphène, un matériau aux propriétés remarquables

Le graphène est constitué de feuilles bidimensionnelles d’atomes de carbone, liés entre eux pour former une structure hexagonale d’une épaisseur d’une seule couche d’atomes. Malgré sa finesse, le graphène est incroyablement résistant, léger, flexible et transparent. Il présente également une conductivité électrique et thermique extraordinaire, une grande surface spécifique et une imperméabilité aux gaz. Ces propriétés lui confèrent une polyvalence inégalée dans de nombreuses applications, des transistors à haute vitesse aux biocapteurs.

Le graphène nanocellulaire (GNC) est une forme spécialisée de graphène qui permet d’obtenir une grande surface spécifique en empilant plusieurs couches de graphène et en contrôlant sa structure interne avec une morphologie cellulaire à l’échelle nanométrique. Le GNC est convoité pour son potentiel à améliorer les performances des dispositifs électroniques, des dispositifs énergétiques et des capteurs. Cependant, son développement a été freiné par les défauts qui surviennent lors du processus de fabrication, notamment l’apparition de fissures lors de la formation du GNC.

Méthode pour fabriquer du graphène nanocellulaire sans fissures

Won-Young Park, étudiant diplômé de l’Université de Tohoku, et ses collègues ont découvert que les atomes de carbone s’auto-assemblent rapidement en GNC sans fissures lors du désalliage d’un précurseur amorphe Mn-C dans un bain de bismuth fondu. Le désalliage est une technique de traitement qui exploite la miscibilité variable des composants d’un alliage dans un bain de métal fondu, corrodant sélectivement certains composants de l’alliage tout en préservant les autres.

Les chercheurs ont démontré que les GNC développés par cette méthode présentaient une résistance à la traction élevée et une conductivité élevée après graphitisation. Ils ont également testé le matériau dans une batterie sodium-ion (BSI), où il a démontré un taux élevé, une longue durée de vie et une excellente résistance à la déformation.

Des perspectives prometteuses pour les batteries sodium-ion

Selon Won-Young Park, « notre méthode de fabrication de GNC sans fissures permettra d’améliorer les performances et la flexibilité des BSI, une technologie alternative aux batteries lithium-ion pour certaines applications, notamment dans le stockage d’énergie à grande échelle et les systèmes d’alimentation stationnaires où les considérations de coût, de sécurité et de durabilité sont primordiales. »

Cette recherche a été rendue possible grâce à la collaboration de chercheurs de l’Institut de recherche sur les matériaux de l’Université de Tohoku, de l’Institut de recherche sur les frontières interdisciplinaires des sciences de l’Université de Tohoku, de l’Institut de recherche sur la fracture et la fiabilité, de l’Université des sciences et technologies de Pohang et de l’Université Johns Hopkins.

Article : “Mechanically Robust Self-Organized Crack-Free Nanocellular Graphene with Outstanding Electrochemical Properties in Sodium Ion Battery” | Auteurs : Wong-Young Park, Jiuhui Han, Jongun Moon, Soo-Hyun Joo, Takeshi Wada, Yuji Ichikawa, Kazuhiro Ogawa, Hyoung Seop Kim, Mingwei Chen, Hidemi Kato | Journal: Advanced Materials | DOI: 10.1002/adma.202311792

Comprendre la gestion technique du bâtiment et son utilité

Comprendre la gestion technique du bâtiment et son utilité

Dans un contexte de réchauffement climatique et de hausse du coût de l’énergie, la mise en place d’un système de gestion technique du bâtiment devient incontournable. Celle-ci doit faire partie intégrante d’un projet immobilier, en construction comme en rénovation.

La gestion technique du bâtiment devient incontournable

Selon Sinteo, acteur dans le domaine de la performance des bâtiments, la Gestion Technique du Bâtiment est un axe essentiel dans le secteur de la construction. En faisant le choix des meilleures solutions technologiques du marché, celle-ci offre en effet la possibilité de gérer de façon efficace et responsable les bâtiments.

Un système de gestion technique du bâtiment, ou GTB, permet de piloter de manière centralisée l’ensemble des équipements techniques d’un bâtiment par le biais de l’informatique. Grâce à un système, vous avez en effet la possibilité de contrôler de façon intelligente et coordonnée les éclairages, le chauffage, la climatisation et la ventilation. Vous pouvez également gérer des aspects comme les accès et la sécurité incendie. La GTB peut être intégrée dans un bâtiment tertiaire, commercial, industriel, résidentiel ou de santé.

Des bâtiments confortables et écoresponsables

Grâce à un système de gestion technique du bâtiment, vous pouvez rendre un bâtiment plus confortable et plus pratique pour vos collaborateurs et vos visiteurs. À l’aide de capteurs de température installés à des endroits stratégiques, il est en effet possible d’ajuster en temps réel le chauffage ou la climatisation afin de maintenir une température douce et homogène dans le bâtiment. Un ajustement automatique du système de ventilation assure de son côté un environnement agréable et sain en toute saison, en évitant notamment la stagnation de l’humidité.

Un système de gestion technique du bâtiment se traduit en outre par une meilleure maîtrise de la consommation énergétique. Grâce à une programmation reposant sur des emplois du temps, il est notamment possible de couper les éclairages et le chauffage quand les lieux sont totalement vides. Il n’y a effectivement aucun intérêt à laisser des lumières allumées ou la température ambiante à 22°C en l’absence de salariés. De plus, la collecte d’informations permet de suivre les consommations énergétiques et d’identifier des pistes d’amélioration.

Une sécurité accrue et des coûts réduits

Un système de gestion technique du bâtiment sert aussi à renforcer la sécurité dans un bâtiment. Grâce à des contrôles d’accès par badge, vous pouvez être informé des allées et venues. En recevant des alertes à distance, vous êtes prévenu d’une intrusion ou d’un départ de feu dans le bâtiment en votre absence, afin de prévenir les forces de l’ordre ou les secours. De plus, des capteurs offrent la possibilité de détecter des appareils de sécurité défaillants, dans le but de prévoir une réparation et de garder des équipements pleinement opérationnels.

Il ne faudrait pas oublier l’aspect économique. Réduire la consommation énergétique d’un bâtiment, c’est également baisser les coûts de fonctionnement. Cet aspect n’est pas anodin, à l’heure où les prix de l’énergie peuvent subir de fortes hausses.

Si intégrer la GTB dans une nouvelle construction tombe sous le sens, est-il possible de l’envisager dans un bâtiment ancien ? Le mieux reste de contacter un expert qui réalisera une étude approfondie pour identifier les contraintes techniques et lever les barrières budgétaires. Il vous expliquera par ailleurs les normes à respecter.

L’hydrogène naturel, une énergie illimitée cachée sous nos pieds ?

L'hydrogène naturel, une énergie illimitée cachée sous nos pieds ?

L’hydrogène naturel, présent dans les poches souterraines de la croûte terrestre, suscite un intérêt grandissant en tant que source d’énergie potentiellement illimitée et sans carbone. Le département de l’Énergie des États-Unis a récemment accordé des subventions de recherche à des équipes de laboratoires, d’universités et d’entreprises privées pour développer des technologies permettant d’exploiter ce combustible bon marché et propre.

Un processus naturel de production d’hydrogène

L’hydrogène géologique est produit lorsque l’eau réagit avec des roches riches en fer, provoquant l’oxydation du fer. Le groupe de recherche du professeur assistant Iwnetim Abate du MIT, l’un des bénéficiaires de la subvention, utilisera sa subvention de 1,3 million de dollars pour déterminer les conditions idéales de production d’hydrogène souterrain, en tenant compte de facteurs comme les catalyseurs pour initier la réaction chimique, la température, la pression et les niveaux de pH.

L’objectif est d’améliorer l’efficacité de la production à grande échelle, en répondant aux besoins énergétiques mondiaux à un coût compétitif. Selon l’U.S. Geological Survey, il y aurait potentiellement des milliards de tonnes d’hydrogène géologique enfouis dans la croûte terrestre.

Un intérêt croissant pour l’hydrogène naturel

L’intérêt pour l’hydrogène géologique grandit à une époque où les gouvernements du monde entier recherchent des alternatives énergétiques sans carbone au pétrole et au gaz. En décembre, le président français Emmanuel Macron a déclaré que son gouvernement fournirait des fonds pour explorer l’hydrogène naturel.

Aujourd’hui, l’hydrogène commercial est fabriqué à 2 dollars le kilogramme, principalement pour la production d’engrais, de produits chimiques et d’acier, mais la plupart des méthodes impliquent la combustion de combustibles fossiles, qui libèrent du carbone réchauffant la Terre. L’« hydrogène vert », produit à partir d’énergies renouvelables, est prometteur, mais à 7 dollars le kilogramme, il est coûteux.

Des projets de recherche diversifiés

Les bénéficiaires des subventions de l’ARPA-E comprennent la Colorado School of Mines, la Texas Tech University et le Los Alamos National Laboratory, ainsi que des entreprises privées comme Koloma, une startup de production d’hydrogène qui a reçu des financements d’Amazon et de Bill Gates.

Les projets eux-mêmes sont diversifiés, allant de l’application des méthodes industrielles pétrolières et gazières pour la production et l’extraction d’hydrogène au développement de modèles pour comprendre la formation d’hydrogène dans les roches.

Un potentiel énorme à exploiter

Le géochimiste Viacheslav Zgonnik, l’un des plus grands experts dans le domaine de l’hydrogène naturel, s’accorde à dire que la liste des inconnues est longue, tout comme le chemin vers les premiers projets commerciaux. Mais il affirme que les efforts pour stimuler la production d’hydrogène – pour exploiter la réaction naturelle entre l’eau et la roche – présentent un « potentiel énorme ».

Le professeur assistant Iwnetim Abate dirige un projet visant à déterminer les conditions idéales pour produire de l’hydrogène sous terre. Photo : Gretchen Ertl

« L’idée est de trouver des moyens d’accélérer cette réaction et de la contrôler afin que nous puissions produire de l’hydrogène à la demande dans des endroits spécifiques », explique le géochimiste, PDG et fondateur de Natural Hydrogen Energy, une startup basée à Denver qui détient des baux miniers pour des forages exploratoires aux États-Unis. « Si nous pouvons atteindre cet objectif, cela signifie que nous pouvons potentiellement remplacer les combustibles fossiles par de l’hydrogène stimulé. »

Des expériences à grande échelle

Iwnetim Abate et les chercheurs de son laboratoire formulent une recette pour un fluide qui induira la réaction chimique déclenchant la production d’hydrogène dans les roches. L’ingrédient principal est l’eau, et l’équipe teste des matériaux « simples » pour les catalyseurs qui accéléreront la réaction et augmenteront ainsi la quantité d’hydrogène produite, explique le post-doctorant Yifan Gao.

L’équipe développe ce qu’elle appelle un système à haut débit, composé d’un logiciel d’intelligence artificielle et de robotique, pour tester différents mélanges de catalyseurs et simuler ce qui se passerait lorsqu’ils seraient appliqués à des roches de différentes régions, avec différentes conditions externes comme la température et la pression.

Pour Douglas Wicks, de l’ARPA-E, les questions que posent Iwnetim Abate et les autres bénéficiaires de la subvention ne sont que les premières étapes critiques d’un territoire énergétique inexploré.

« Si nous parvenons à comprendre comment stimuler ces roches pour qu’elles produisent de l’hydrogène en toute sécurité, nous pourrons vraiment libérer la source d’énergie potentielle », explique-t-il. Ensuite, l’industrie émergente se tournera vers le pétrole et le gaz pour le savoir-faire en matière de forage, de tuyauterie et d’extraction du gaz. « Comme j’aime à le dire, il s’agit d’une technologie habilitante qui, nous l’espérons, nous permettra à très court terme de dire : Y a-t-il vraiment quelque chose là ? »

La prochaine étape du projet, après avoir développé la recette du catalyseur, est de concevoir un réacteur qui servira à deux fins. Tout d’abord, équipé de technologies telles que la spectroscopie Raman, il permettra aux chercheurs d’identifier et d’optimiser les conditions chimiques qui conduisent à des taux et des rendements améliorés de production d’hydrogène.

Le dispositif à l’échelle du laboratoire permettra également d’orienter la conception d’un réacteur réel capable d’accélérer la production d’hydrogène sur le terrain.

Légende illustration : Le mois dernier, le ministère américain de l’énergie a accordé des subventions de recherche d’un montant de 20 millions de dollars à 18 équipes issues de laboratoires, d’universités et d’entreprises privées, afin de développer des technologies susceptibles de permettre la production à faible coût d’hydrogène à partir du sous-sol.

Un filtre intelligent de 10 000 pixels pour un traitement visuel inédit 

Un filtre intelligent de 10 000 pixels pour un traitement visuel inédit 

Les chercheurs travaillant sur la prochaine génération de technologies informatiques visent à apporter de la lumière dans ce domaine, au sens propre comme au figuré. L’informatique optique, qui repose sur des particules de lumière appelées photons, devrait offrir des alternatives aux approches électroniques traditionnelles. De tels systèmes, ou des composants basés sur la lumière de systèmes hybrides conservant également des parties électroniques, pourraient être plus rapides, consommer moins d’énergie et traiter les informations visuelles de manière plus efficace grâce à un traitement simultané et parallèle.

Les défis de l’informatique optique

Jusqu’à présent, l’informatique optique a été confrontée à une limitation pour obtenir des réponses non linéaires, ce qui signifie produire des signaux qui ne sont pas directement proportionnels à l’entrée. La non-linéarité rend possibles les applications informatiques universelles, y compris l’intelligence artificielle.

Les matériaux et dispositifs non linéaires en cours de développement ont besoin d’une quantité importante de lumière pour fonctionner. Auparavant, cela nécessitait des lasers de haute puissance qui ne fonctionnent que dans une bande étroite du spectre électromagnétique, absorbant la lumière au fil du temps, ce qui ralentit le traitement, ou utilisant des matériaux énergivores qui absorbent beaucoup de lumière mais excluent les applications nécessitant une efficacité ou une transparence lumineuse.

Une percée collaborative de la CNSI

Désormais, une étude collaborative récente menée par des membres du California NanoSystems Institute de l’UCLA (CNSI) a présenté un dispositif qui surmonte ces obstacles. Dans une avancée majeure vers l’informatique optique pour le traitement de l’information visuelle, les chercheurs du CNSI ont montré qu’un minuscule réseau de pixels transparents pouvait produire une réponse non linéaire rapide et à large bande à partir d’une lumière ambiante de faible puissance.

L’équipe a également démontré une application qui combine leur dispositif avec un appareil photo de smartphone pour réduire les reflets dans les images. L’étude a été publiée dans Nature Communications.

Selon Aydogan Ozcan, professeur d’innovation en ingénierie Volgenau à l’UCLA Samueli School of Engineering et co-auteur correspondant, « Les non-linéarités optiques sont loin derrière ce dont nous avons besoin pour les applications de calcul visuel. Nous avons besoin de non-linéarités à faible puissance, à large bande, à faibles pertes et rapides pour que les systèmes optiques répondent à nos besoins en matière de calcul visuel. Ce travail contribue à combler cette lacune. »

De multiples applications potentielles

Les applications potentielles de cette technologie, au-delà de la réduction des reflets validée dans l’étude, couvrent une variété d’utilisations grand public et industrielles : amélioration de la détection pour les véhicules autonomes, caméras qui reconnaissent certains objets tout en en cachant d’autres, cryptage d’images, et détection efficace des défauts dans les chaînes de montage robotisées, entre autres.

Le dispositif pourrait offrir de nombreux avantages. Par exemple, les images entrantes pourraient être traitées sans conversion en signal numérique, accélérant les résultats et réduisant la quantité de données envoyées dans le cloud pour un traitement et un stockage numériques.

Les chercheurs envisagent de relier leur technologie à des caméras bon marché et de compresser les données pour produire des images d’une résolution nettement supérieure à ce qui était réalisé auparavant, et de capturer avec plus de précision et d’exactitude des informations utiles sur la disposition des objets dans l’espace et les spectres électromagnétiques présents dans la lumière.

Un dispositif innovant et transparent

Le dispositif de l’étude est un plan transparent mesurant 1 cm carré. Il utilise un matériau semi-conducteur 2D, rendu sous forme de film de seulement quelques atomes d’épaisseur, qui a été développé par Xiangfeng Duan, professeur de chimie et de biochimie à l’UCLA College et co-auteur correspondant.

La finesse du matériau le rend transparent, tout en conservant des qualités qui permettent aux photons entrants de réguler efficacement la conductivité électrique. L’équipe de recherche a couplé le semi-conducteur 2D avec une couche de cristaux liquides et l’a rendu fonctionnel avec un réseau d’électrodes.

Le résultat est un filtre intelligent comprenant 10 000 pixels, chacun étant capable de s’assombrir de manière sélective et rapide de façon non linéaire lorsqu’il est exposé à une lumière ambiante à large bande.

Comme l’explique Xiangfeng Duan, « Fondamentalement, nous voulons utiliser un matériau qui n’absorbe pas beaucoup de lumière, mais qui produit néanmoins un signal suffisant pour traiter la lumière. Chaque pixel peut passer de complètement transparent à partiellement transparent puis opaque. Il ne faut qu’un petit nombre de photons pour changer radicalement la transparence. »

Une collaboration rendue possible grâce à un financement

Cette recherche a été rendue possible par le Fonds d’innovation de la Fondation Elman au CNSI. Une subvention a permis le recrutement du premier auteur de l’étude, le chercheur postdoctoral Dehui Zhang, qui a fait progresser les travaux dans le cadre des groupes de recherche d’Ozcan et de Xiangfeng Duan.

Dehui Zhang, et le projet, ont permis de relier des membres du corps professoral qui se connaissaient comme collègues depuis plus d’une décennie mais n’avaient pas encore exploré comment ils pouvaient faire équipe.

« Cette opportunité unique a conduit à une collaboration très, très passionnante », a déclaré Xiangfeng Duan. « C’est vraiment un plaisir de penser en dehors de nos zones de confort. Cela m’a montré qu’en tant que développeur de matériaux, je peux bénéficier d’aller au-delà d’une étude fondamentale ou d’une preuve de concept pour explorer des applications. »

« Nous espérons continuer sur cette voie », a-t-il ajouté. « Ce n’est que le début. Il y a certainement encore beaucoup à faire. »

Légende illustration : Ce dispositif expérimental utilise un matériau semi-conducteur 2D mis au point par Xiangfeng Duan, UCLA de chimie et de biochimie.

L’espoir d’un traitement innovant pour les troubles neurologiques

L'espoir d'un traitement innovant pour les troubles neurologiques

Des chercheurs américains ont mis au point un stimulateur cérébral implantable de la taille d’un petit pois, une avancée technologique qui pourrait révolutionner le traitement de la dépression résistante aux médicaments et d’autres troubles psychiatriques ou neurologiques.

L’innovation décrite dans l’étude offrirait une alternative thérapeutique moins invasive que les interfaces cerveau-ordinateur actuelles et plus accessible que les thérapies basées sur la neurostimulation.

Un dispositif alimenté sans fil par un transmetteur externe

Grâce à la technologie pionnière de transfert d’énergie magnétoélectrique, le dispositif développé dans le laboratoire de Jacob Robinson, en collaboration avec Motif Neurotech et les cliniciens Dr Sameer Sheth et Dr Sunil Sheth, peut être alimenté sans fil via un transmetteur externe. Il est utilisé pour stimuler le cerveau à travers la dure-mère, la membrane protectrice attachée à la base du crâne.

Joshua Woods, étudiant diplômé en génie électrique dans le laboratoire Robinson et auteur principal de l’étude publiée dans Science Advances, explique : « Nous avons éliminé le besoin d’une batterie en alimentant sans fil le dispositif à l’aide d’un transmetteur externe. »

Amanda Singer, ancienne étudiante diplômée du programme de physique appliquée du Rice University, maintenant chez Motif Neurotech, est également auteure principale.

Des ingénieurs de l’université Rice ont mis au point le premier stimulateur cérébral miniaturisé dont l’efficacité a été démontrée sur un patient humain. (Photo : Jeff Fitlow/Rice University)

Convertir les champs magnétiques en impulsions électriques

La technologie repose sur un matériau qui convertit les champs magnétiques en impulsions électriques. Ce processus de conversion est très efficace à petite échelle et présente une bonne tolérance au désalignement, ce qui signifie qu’il ne nécessite pas de manœuvres complexes ou minutieuses pour s’activer et se contrôler. Le dispositif a une largeur de 9 millimètres et peut délivrer 14,5 volts de stimulation.

« Notre implant tire toute son énergie de cet effet magnétoélectrique », a déclaré Robinson, fondateur et PDG de Motif, une startup créée via le Rice Biotech Launch Pad qui travaille à la commercialisation du dispositif. « La physique de ce transfert d’énergie rend cela beaucoup plus efficace que toute autre technologie de transfert d’énergie sans fil dans ces conditions. »

Des essais concluants chez l’homme et le porc

Les chercheurs ont testé temporairement le dispositif chez un patient humain, en l’utilisant pour stimuler le cortex moteur, la partie du cerveau responsable du mouvement, et générer une réponse de mouvement de la main. Ils ont ensuite montré que le dispositif s’interface avec le cerveau de manière stable pendant une durée de 30 jours chez le porc.

« Cela n’avait pas été fait auparavant car la qualité et la force du signal nécessaires pour stimuler le cerveau à travers la dure-mère étaient auparavant impossibles avec un transfert d’énergie sans fil pour des implants aussi petits », a déclaré Joshua Woods.

Une procédure d’implantation minimalement invasive

L’implantation nécessiterait une procédure minimalement invasive de 30 minutes qui placerait le dispositif dans l’os au-dessus du cerveau. L’implant et l’incision seraient pratiquement invisibles, et le patient rentrerait chez lui le jour même.

Sunil Sheth, professeur et vice-président de la recherche, McNair Scholar et titulaire de la chaire dotée Cullen Foundation en neurochirurgie au Collège de médecine de Baylor, compare cette procédure à la pose d’un stimulateur cardiaque, une partie très routinière des soins cardiaques. Selon lui, une procédure mineure de 30 minutes, réalisée dans un centre de chirurgie ambulatoire, serait beaucoup mieux tolérée que la stimulation cérébrale profonde, perçue comme effrayante et invasive.

Joshua Woods (de gauche à droite), Jacob Robinson et Fatima Alrashdan

Vers des essais cliniques à long terme chez l’homme

Robinson envisage que la technologie soit utilisée depuis le confort de son domicile. Un médecin prescrirait le traitement et fournirait des directives pour l’utilisation du dispositif, mais les patients conserveraient un contrôle total sur la façon dont le traitement est administré.

Motif Neurotech est en train de demander l’approbation de la FDA pour un essai clinique à long terme chez l’homme. Les patients et les soignants peuvent s’inscrire sur le site Web de Motif Neurotech pour savoir quand et où ces essais commenceront.

Article : “Miniature battery-free epidural cortical stimulators” | Science Advances | DOI: 10.1126/sciadv.adn0858. Authors: Joshua Woods, Amanda Singer, Fatima Alrashdan, Wendy Tan, Chufeng Tan, Sunil Sheth, Sameer Sheth and Jacob Robinson. https://doi.org/10.1126/sciadv.adn0858

Des absorbeurs solaires efficaces même à 1000°C : le pari de chercheurs

Des absorbeurs solaires efficaces même à 1000°C : le pari de chercheurs

Les dispositifs solaires thermiques ont le potentiel de transformer la façon dont nous chauffons nos maisons et produisons de l’énergie à grande échelle. Une équipe britannique développe actuellement ces technologies innovantes grâce à une subvention de 1,1 million de livres sterling accordée par le Conseil de recherche en sciences physiques et de l’ingénieur (EPSRC).

Ce projet combine l’expertise de plusieurs universités britanniques dans les domaines de la photonique, des matériaux avancés, de l’électromagnétisme appliqué et des installations de nanofabrication de classe mondiale.

Objectif principal : développer de nouvelles surfaces absorbantes

L’objectif principal de cette recherche est de créer de nouvelles conceptions de surfaces capables d’absorber sélectivement la lumière du soleil tout en émettant efficacement de la chaleur sous forme de rayonnement proche infrarouge. Contrairement aux cellules solaires qui convertissent généralement la lumière du soleil en électricité, les dispositifs solaires thermiques utilisent la lumière du soleil pour générer de la chaleur, qui peut ensuite être utilisée pour entraîner des moteurs mécaniques ou être convertie en électricité.

Selon le professeur Marian Florescu, chercheur principal de l’Université de Surrey, ce projet ne se limite pas à l’innovation, mais répond à une nécessité mondiale. Le soleil nous inonde chaque jour d’une quantité considérable d’énergie, bien plus que ce que nous captons actuellement. En développant ces surfaces solaires absorbantes avancées, l’équipe ouvre de nouvelles voies efficaces pour exploiter cette abondante énergie solaire.

Plusieurs objectifs spécifiques

Le projet poursuit plusieurs objectifs spécifiques. Tout d’abord, il vise à développer des absorbeurs solaires capables de fonctionner efficacement même à des températures très élevées. Ensuite, l’équipe cherche à améliorer l’efficacité de ses structures spéciales d’absorption solaire et prévoit de construire des modèles prototypes pour démontrer leur performance. Enfin, les chercheurs souhaitent mieux comprendre et, à terme, améliorer la façon dont ces dispositifs gèrent et utilisent la chaleur qu’ils génèrent à partir de la lumière du soleil.

Collaboration entre plusieurs universités britanniques

Le professeur Marin Cryan, co-chercheur principal de l’Université de Bristol, souligne que son institution développe depuis plusieurs années une technologie de cellules solaires thermoïoniques. Celles-ci utilisent la lumière solaire concentrée pour chauffer des matériaux jusqu’à ce que l’émission thermoïonique d’électrons se produise, ce qui peut constituer la base de cellules solaires à haut rendement et à faible coût. Ce projet passionnant développera des absorbeurs solaires sélectifs très efficaces, qui seront un composant important de la conception globale des cellules.

De son côté, le Dr Daniel Ho, co-chercheur principal de l’Université de Northumbria, souligne que son établissement est à la pointe de la recherche sur les thermophotovoltaïques, utilisant une platine chauffante de microscope spécialisée ainsi qu’un système de spectroscopie d’imagerie de Fourier construit en interne. Cette technique avancée d’analyse thermique permet une analyse complète et résolue en angle de la diffusion à travers les spectres visible et infrarouge, même dans des conditions de vide et à des températures pouvant atteindre 1000°C.

Les partenaires de ce projet sont enthousiastes à l’idée de travailler ensemble pour réaliser des développements pionniers dans la recherche sur les énergies renouvelables. Leur objectif est de transformer la façon dont nous utilisons la lumière du soleil, en faisant de celle-ci une véritable centrale d’énergie propre et durable capable de répondre à nos besoins croissants sans nuire à la planète.

Un matériau promet une efficacité quantique de plus de 190 % dans les cellules solaires

Un matériau promet une efficacité quantique de plus de 190 % dans les cellules solaires

Des chercheurs américains ont développé un matériau qui démontre le potentiel d’augmenter considérablement l’efficacité des panneaux solaires. Ce nouveau matériau quantique vise à améliorer d’une manière significative la conversion de l’énergie solaire, jouant ainsi un rôle crucial dans la réponse aux besoins énergétiques mondiaux.

Un prototype utilisant ce matériau comme couche active dans une cellule solaire présente une absorption photovoltaïque moyenne de 80%, un taux élevé de génération de porteurs photoexcités et une efficacité quantique externe (EQE) allant jusqu’à 190%, un niveau sans précédent. Cette mesure dépasse largement la limite théorique d’efficacité de Shockley-Queisser pour les matériaux à base de silicium et propulse le domaine des matériaux quantiques pour le photovoltaïque vers de nouveaux sommets.

Chinedu Ekuma, professeur de physique, qui a publié un article sur le développement du matériau avec Srihari Kastuar, doctorant à Lehigh, dans la revue Science Advances, souligne : « Ce travail représente un bond en avant significatif dans notre compréhension et notre développement de solutions énergétiques durables, mettant en évidence des approches innovantes qui pourraient redéfinir l’efficacité et l’accessibilité de l’énergie solaire dans un avenir proche. »

Des états de bande intermédiaires distinctifs

Le bond d’efficacité du matériau est en grande partie attribuable à ses «états de bande intermédiaires» distinctifs, des niveaux d’énergie spécifiques positionnés dans la structure électronique du matériau d’une manière qui les rend idéaux pour la conversion de l’énergie solaire.

Ces états ont des niveaux d’énergie situés dans les sous-bandes interdites optimales – des plages d’énergie où le matériau peut efficacement absorber la lumière du soleil et produire des porteurs de charge – d’environ 0,78 et 1,26 électron-volts. De plus, le matériau offre des performances particulièrement élevées en termes d’absorption dans les régions infrarouge et visible du spectre électromagnétique.

Dépasser les limites traditionnelles de l’EQE

Dans les cellules solaires traditionnelles, l’EQE maximale est de 100%, représentant la génération et la collecte d’un électron pour chaque photon absorbé de la lumière du soleil. Certains matériaux et configurations avancés développés ces dernières années ont toutefois démontré la capacité de générer et de collecter plus d’un électron à partir de photons à haute énergie, représentant une EQE de plus de 100%.

Bien que ces matériaux à génération d’excitons multiples (MEG) ne soient pas encore largement commercialisés, ils ont le potentiel d’augmenter considérablement l’efficacité des systèmes d’énergie solaire. Dans le matériau développé par Lehigh, les états de bande intermédiaires permettent de capturer l’énergie des photons qui est perdue par les cellules solaires traditionnelles, notamment par réflexion et production de chaleur.

Tirer parti des lacunes de van der Waals

Les chercheurs ont développé ce nouveau matériau en tirant parti des «lacunes de van der Waals», des espaces atomiquement petits entre les matériaux bidimensionnels en couches. Ces lacunes peuvent confiner des molécules ou des ions, et les spécialistes des matériaux les utilisent couramment pour insérer, ou “intercaler”, d’autres éléments afin d’ajuster les propriétés des matériaux.

Pour développer leur nouveau matériau, les chercheurs de Lehigh ont inséré des atomes de cuivre zerovalent entre des couches d’un matériau bidimensionnel composé de séléniure de germanium (GeSe) et de sulfure d’étain (SnS).

De la modélisation informatique à la preuve de concept

Ekuma, expert en physique computationnelle de la matière condensée, a développé le prototype comme preuve de concept après une modélisation informatique approfondie du système qui a démontré un potentiel théorique prometteur.

«Sa réponse rapide et son efficacité accrue indiquent fortement le potentiel du GeSe/SnS intercalé au Cu en tant que matériau quantique pour une utilisation dans des applications photovoltaïques avancées, offrant une voie pour l’amélioration de l’efficacité dans la conversion de l’énergie solaire», a-t-il précisé. «C’est un candidat prometteur pour le développement de cellules solaires de nouvelle génération à haute efficacité, qui joueront un rôle crucial dans la réponse aux besoins énergétiques mondiaux.»

Vers une intégration future dans les systèmes d’énergie solaire

Bien que l’intégration du matériau quantique nouvellement conçu dans les systèmes d’énergie solaire actuels nécessitera des recherches et des développements supplémentaires, Chinedu Ekuma souligne que la technique expérimentale utilisée pour créer ces matériaux est déjà très avancée. Les scientifiques ont, au fil du temps, maîtrisé une méthode qui insère avec précision des atomes, des ions et des molécules dans les matériaux.

Cette avancée scientifique ouvre de nouvelles perspectives pour l’optimisation de l’efficacité des cellules solaires, contribuant ainsi à relever les défis énergétiques de notre époque. Les travaux de l’équipe de l’Université de Lehigh témoignent du potentiel des matériaux quantiques pour révolutionner le domaine du photovoltaïque et offrir des solutions durables pour un avenir énergétique plus propre.

Légende illustration : Schéma de la cellule solaire à couche mince avec CuxGeSe/SnS comme couche active. Crédit : Ekuma Lab / Lehigh University

Article : “Chemically Tuned Intermediate Band States in Atomically Thin CuxGeSe/SnS Quantum Material for Photovoltaic Applications” – DOI: 10.1126/sciadv.adl6752

Première mondiale : le magnétisme induit à température ambiante

Première mondiale : le magnétisme induit à température ambiante

Des chercheurs européens ont réussi à démontrer pour la toute première fois comment la lumière laser peut induire un comportement quantique à température ambiante et rendre magnétiques des matériaux non magnétiques. Le résultat contribuerait à concevoir des ordinateurs plus rapides et plus économes en énergie, ainsi qu’à un transfert et un stockage d’informations plus efficaces.

Le potentiel de la technologie quantique est immense, mais il est aujourd’hui largement limité aux environnements extrêmement froids des laboratoires. Les chercheurs s’intéressent particulièrement aux propriétés particulières et bizarres des particules quantiques, qui s’écartent complètement des lois de la physique classique et peuvent rendre les matériaux magnétiques ou supraconducteurs.

En augmentant la compréhension de la façon exacte dont ces types d’états quantiques apparaissent et pourquoi, l’objectif est de pouvoir contrôler et manipuler les matériaux pour obtenir des propriétés quantiques.

Jusqu’à présent, les chercheurs n’ont pu induire des comportements quantiques, tels que le magnétisme et la supraconductivité, qu’à des températures extrêmement basses. Par conséquent, le potentiel de la recherche quantique est encore limité aux environnements de laboratoire.

Une 1ère dans l’induction du magnétisme à température ambiante

L’équipe de recherche est la première au monde à démontrer expérimentalement comment la lumière laser peut induire le magnétisme dans un matériau non magnétique à température ambiante. Dans l’étude, publiée dans Nature, les chercheurs ont soumis le matériau quantique titanate de strontium à des faisceaux laser courts mais intenses d’une longueur d’onde et d’une polarisation particulières, afin d’induire le magnétisme.

Stefano Bonetti, responsable de la recherche à l’Université de Stockholm et à l’Université Ca’ Foscari de Venise, explique : « L’innovation de cette méthode réside dans le concept de laisser la lumière déplacer les atomes et les électrons de ce matériau dans un mouvement circulaire, afin de générer des courants qui le rendent aussi magnétique qu’un aimant de réfrigérateur. Nous avons pu le faire en développant une nouvelle source de lumière dans l’infrarouge lointain avec une polarisation en forme de “tire-bouchon. C’est la première fois que nous pouvons induire et voir clairement comment le matériau devient magnétique à température ambiante dans une expérience. De plus, notre approche permet de fabriquer des matériaux magnétiques à partir de nombreux isolants, alors que les aimants sont généralement fabriqués à partir de métaux. À long terme, cela ouvre la voie à des applications totalement nouvelles dans la société. »

Des applications pour les technologies de l’information

La méthode est basée sur la théorie de la «multiferroïcité dynamique», qui prédit que lorsque les atomes de titane sont “remués” avec une lumière polarisée circulairement dans un oxyde à base de titane et de strontium, un champ magnétique se forme. Mais ce n’est que maintenant que la théorie peut être confirmée en pratique. Cette percée devrait avoir de larges applications dans plusieurs technologies de l’information.

Alexander Balatsky, professeur de physique à NORDITA, déclare : « Cela ouvre la voie à des commutateurs magnétiques ultra-rapides qui peuvent être utilisés pour un transfert d’informations plus rapide et un stockage de données considérablement meilleur, ainsi que pour des ordinateurs significativement plus rapides et plus économes en énergie. »

En fait, les résultats de l’équipe ont déjà été reproduits dans plusieurs autres laboratoires, et une publication dans le même numéro de Nature démontre que cette approche peut être utilisée pour écrire, et donc stocker, des informations magnétiques.

Légende illustration : Stefano Bonetti dans son laboratoire à l’université de Stockholm. Photo : Fondation Knut et Alice Wallenbergs/Magnus Bergström

Article : “Terahertz electric-field-driven dynamical multiferroicity in SrTiO3” – DOI: 10.1038/s41586-024-07175-9

Batteries sodium : un processus 10 fois plus efficace

Batteries sodium : un processus 10 fois plus efficace

La transition vers des sources d’énergie plus respectueuses de l’environnement nécessite également des batteries rechargeables efficaces pour stocker cette énergie. Bien que les batteries lithium-ion soient actuellement les plus largement utilisées, les batteries sodium tout solide suscitent un intérêt croissant, car le sodium est beaucoup plus abondant que le lithium. Cette caractéristique devrait rendre les batteries sodium moins coûteuses, et les batteries tout solide sont considérées comme plus sûres. Cependant, des problèmes de traitement ont rendu la production de masse difficile jusqu’à présent.

Le professeur associé Atsushi Sakuda et le professeur Akitoshi Hayashi, tous deux de la Graduate School of Engineering de l’Université métropolitaine d’Osaka, ont dirigé une équipe de recherche dans le développement d’un processus pouvant conduire à la synthèse de masse de sulfures contenant du sodium.

En utilisant des polysulfures de sodium (sulfures avec deux atomes de soufre ou plus) à la fois comme matériau et comme flux, qui favorise la fusion, l’équipe a créé un électrolyte solide à base de sulfure présentant la conductivité ionique de sodium la plus élevée rapportée au monde – environ 10 fois supérieure à celle requise pour une utilisation pratique – et un électrolyte vitreux à haute résistance à la réduction.

La synthèse de masse de tels électrolytes présentant une conductivité et une formabilité élevées est essentielle pour l’utilisation pratique des batteries sodium tout solide.

Selon le professeur Sakuda, «Ce processus nouvellement développé est utile pour la production de presque tous les matériaux à base de sulfure de sodium, y compris les électrolytes solides et les matériaux actifs d’électrode. De plus, par rapport aux méthodes conventionnelles, ce processus facilite l’obtention de matériaux affichant des performances supérieures, nous pensons donc qu’il deviendra un processus de référence pour le développement futur de matériaux pour les batteries sodium tout solide.»

Article : “Utilizing reactive polysulfides flux Na2Sx for the synthesis of sulfide solid electrolytes for all-solid-state sodium batteries” – DOI: 10.1016/j.ensm.2024.103307

Légende illustration : L’électrolyte sulfuré solide synthétisé Na2.88Sb0.88W0.12S4 présente la conductivité de l’ion sodium la plus élevée au monde. Crédit : Atsushi Sakuda, Osaka Metropolitan University

Filtration : les vides nanométriques, un atout insoupçonné

Filtration : les vides nanométriques, un atout insoupçonné

Les vides, ou espaces vides, existent au sein de la matière à toutes les échelles, de l’astronomique au microscopique. Une nouvelle étude menée par des chercheurs a permis de dévoiler en trois dimensions les vides à l’échelle nanométrique grâce à l’utilisation de microscopes haute puissance et de théories mathématiques. Cette avancée est sur le point d’améliorer les performances de nombreux matériaux utilisés dans les domaines domestique, chimique, énergétique et médical, en particulier dans le domaine de la filtration.

Des vides nanométriques au cœur des membranes de filtration

L’agrandissement des filtres couramment utilisés à domicile montre que, bien qu’ils ressemblent à un matériau solide avec des trous uniformes, ils sont en réalité composés de millions de minuscules vides orientés de manière aléatoire qui permettent aux petites particules de passer à travers. Dans certaines applications industrielles, comme la filtration de l’eau et des solvants, des membranes fines comme du papier constituent les barrières qui séparent les fluides et les particules.

Falon Kalutantirige, étudiant diplômé de l’Université de l’Illinois à Urbana-Champaign, explique : « La communauté des sciences des matériaux est consciente depuis un certain temps de l’existence de ces vides nanométriques orientés de manière aléatoire au sein des membranes filtrantes. Le problème était que la structure complexe de la membrane dans son ensemble – qui ressemble à des chaînes de montagnes nanométriques lorsqu’elle est agrandie – bloquait notre vue des espaces vides. Comme nous ne pouvions pas les voir, nous ne pouvions pas comprendre pleinement comment ils affectaient les propriétés de filtration. Nous savions que si nous pouvions trouver un moyen de les voir, nous pourrions alors comprendre comment ils fonctionnent et, en fin de compte, améliorer les performances des membranes filtrantes. »

Une approche combinant science des matériaux et théorie des graphes

L’étude, dirigée par le professeur Qian Chen de l’Université de l’Illinois et le professeur Ying Li de l’Université du Wisconsin-Madison, est la première à intégrer la science des matériaux et un concept mathématique appelé théorie des graphes pour aider à imager et à cartographier la disposition aléatoire de ces vides au sein des matériaux de filtration. Les résultats sont publiés dans la revue Nature Communications.

Cette image, intitulée “Au-delà du néant”, a été produite à l’aide de la modélisation informatique et représente une surface fortement agrandie d’une membrane de filtration d’eau comme un paysage montagneux, avec des points de données informatiques comme l’univers sombre et étoilé à l’arrière-plan. Crédit : Falon Kalutantirige

S’appuyant sur une étude précédente qui utilisait des modèles de laboratoire, les chercheurs ont déclaré que la nouvelle étude se concentre sur des membranes beaucoup plus complexes utilisées dans des applications industrielles.

« Les surfaces des membranes que nous avons étudiées dans ce travail semblent plates à l’œil nu, mais lorsque nous avons zoomé à l’aide de la microscopie électronique à transmission, de la tomographie électronique et de la microscopie à force atomique, nous avons pu observer ces vides nichés dans ces paysages montagneux nanométriques que nous appelons des froissements », a indiqué Kalutantirige, premier auteur de l’étude.

La théorie des graphes pour décrire des structures irrégulières

Cependant, l’équipe avait besoin d’un moyen de mesurer et de cartographier ces caractéristiques pour construire un modèle prédictif quantitatif et obtenir une image plus globale des surfaces des membranes.

Qian Chen explique : « La cartographie et la mesure seules fonctionneront pour les matériaux ayant une structure régulière ou périodique, ce qui rend mathématiquement simple la mise à l’échelle de nos modèles et la prédiction de l’influence des propriétés structurelles sur les performances du matériau. Mais l’irrégularité que nous avons observée dans notre étude nous a poussés à utiliser la théorie des graphes, qui nous donne un moyen mathématique de décrire ce matériau hétérogène et désordonné – mais pratique. »

Falon Kalutantirige, étudiant diplômé en chimie, a travaillé avec plusieurs technologies pour cette étude, notamment la microscopie électronique à transmission. Crédit : Fred Zwicky

Des vides cruciaux pour les performances de filtration

La théorie des graphes a permis à l’équipe d’obtenir enfin une compréhension plus globale de la structure des membranes filtrantes, ce qui les a amenés à découvrir une forte corrélation entre les propriétés physiques et mécaniques uniques de l’espace vide aléatoire et l’amélioration des performances de filtration.

« Notre méthode est une technique très universelle pour décrire les matériaux », a déclaré Falon Kalutantirige. « De nombreuses choses que nous utilisons dans la vie quotidienne et dans la science ne sont pas faites de matériaux composés de structures uniformes répétitives. Donc, la beauté de la méthode, je pense, est que nous pouvons capturer la “régularité” des structures irrégulières. »

L’équipe a déclaré que cette avancée améliorera l’efficacité de nombreux matériaux poreux de nouvelle génération, tels que les polymères utilisés dans l’administration de médicaments.

« Le titre de cette étude fait allusion au concept d’ “au-delà du néant”, et par là, nous voulons dire que ces espaces vides et vides sont vraiment importants lorsqu’il s’agit de développer les meilleures membranes de filtration. Ce travail n’est possible qu’avec notre merveilleuse équipe de collaborateurs. Xiao Su nous a aidés pour les tests de performance des membranes. Emad Tajkhorshid, Charles Schroeder et Jeffrey Moore ont travaillé avec nous sur la synthèse et l’analyse des systèmes polymères. » conclut Qian Chen.

Légende illustration : Une nouvelle étude réalisée par Qian Chen, professeur de science et d’ingénierie des matériaux à l’Illinois (à droite), et Falon Kalutantirige, étudiant diplômé en chimie, souligne l’importance de l’espace vide à l’échelle nanométrique dans les matériaux de tous les jours. L’image en arrière-plan, intitulée “Au-delà du néant”, a été produite à l’aide de la modélisation informatique et représente une surface agrandie d’une membrane de filtration d’eau comme un paysage montagneux, avec des points de données informatiques comme l’univers sombre et étoilé en arrière-plan. Crédit : Fred Zwicky

Imprimer l’inconnu : quand l’IA déchiffre les matériaux durables

Imprimer l'inconnu : quand l'IA déchiffre les matériaux durables

L’impression 3D a connu un essor considérable ces dernières années, mais les matériaux plastiques utilisés par ces imprimantes pour créer des objets restent difficilement recyclables. Bien que de nouveaux matériaux durables émergent pour une utilisation en impression 3D, leur adoption demeure complexe en raison de la nécessité d’ajuster manuellement les paramètres des imprimantes 3D pour chaque matériau.

Pour imprimer un nouveau matériau à partir de zéro, il faut généralement définir jusqu’à 100 paramètres dans le logiciel qui contrôle la façon dont l’imprimante extrudera le matériau lors de la fabrication d’un objet. Les matériaux couramment utilisés, comme les polymères produits en masse, disposent de jeux de paramètres établis, perfectionnés grâce à des processus fastidieux d’essais et d’erreurs.

Cependant, les propriétés des matériaux renouvelables et recyclables peuvent varier considérablement en fonction de leur composition, rendant presque impossible la création de jeux de paramètres fixes. Dans ce cas, les utilisateurs doivent définir tous ces paramètres manuellement.

Une solution innovante pour automatiser le processus

Des chercheurs se sont attaqués à ce problème en développant une imprimante 3D capable d’identifier automatiquement les paramètres d’un matériau inconnu. Une équipe collaborative du Center for Bits and Atoms (CBA) du MIT, du National Institute of Standards and Technology (NIST) des États-Unis et du Centre national de la recherche scientifique en Grèce (Demokritos) a modifié l’extrudeuse, le «cœur» d’une imprimante 3D, afin qu’elle puisse mesurer les forces et le flux d’un matériau.

Ces données, recueillies lors d’un test de 20 minutes, sont intégrées dans une fonction mathématique utilisée pour générer automatiquement les paramètres d’impression. Ces paramètres peuvent être saisis dans un logiciel d’impression 3D standard et utilisés pour imprimer avec un matériau encore jamais vu.

Des résultats prometteurs pour une impression 3D plus durable

Les paramètres générés automatiquement peuvent remplacer environ la moitié des paramètres qui doivent généralement être ajustés manuellement. Lors d’une série d’impressions tests avec des matériaux uniques, notamment plusieurs matériaux renouvelables, les chercheurs ont démontré que leur méthode peut produire de manière constante des paramètres viables.

Selon Neil Gershenfeld, auteur principal de l’étude et directeur du CBA, « cette recherche pourrait contribuer à réduire l’impact environnemental de la fabrication additive, qui repose généralement sur des polymères non recyclables et des résines dérivées des combustibles fossiles ».

Jake Read, premier auteur de l’étude et étudiant diplômé du CBA, souligne l’importance de cette avancée : « Dans cet article, nous démontrons une méthode capable de prendre tous ces matériaux intéressants à base biologique et provenant de diverses sources durables, et de montrer que l’imprimante peut déterminer par elle-même comment imprimer ces matériaux. L’objectif est de rendre l’impression 3D plus durable ».

Vers une métrologie computationnelle pour l’industrie manufacturière

Cette collaboration développe désormais plus largement la métrologie computationnelle, dans laquelle le résultat d’une mesure est un modèle prédictif plutôt qu’un simple paramètre. Les chercheurs appliqueront cette approche à d’autres domaines de la fabrication avancée, ainsi qu’à l’élargissement de l’accès à la métrologie.

Comme le souligne Alysia Garmulewicz, professeure associée à la Faculté d’administration et d’économie de l’Université de Santiago au Chili, qui n’a pas participé à ces travaux, « en développant une nouvelle méthode pour la génération automatique de paramètres de processus pour la fabrication par dépôt de filament fondu, cette étude ouvre la voie à l’utilisation de filaments recyclés et biosourcés aux comportements variables et inconnus. Il est important de noter que cela renforce le potentiel de la technologie de fabrication numérique à utiliser des matériaux durables d’origine locale ».

Légende illustration : Des chercheurs ont mis au point une imprimante 3D capable d’identifier automatiquement les paramètres d’un matériau inconnu. (Image : avec l’aimable autorisation des chercheurs)

Article adapté du contenu de l’auteur : Adam Zewe, MIT

Des ingénieurs US conçoivent un réseau de distribution d’énergie solaire plus performant

Des ingénieurs US conçoivent un réseau de distribution d'énergie solaire plus performant

L’intégration des énergies renouvelables dans le réseau électrique représente un défi majeur pour les opérateurs de réseau et les fournisseurs d’électricité. Avec l’essor des parcs éoliens et des installations solaires, il devient crucial de développer des outils permettant de gérer efficacement ces sources d’énergie intermittentes.

Le projet MODERNISE, mené par une équipe de chercheurs de l’Iowa State University, vise à relever ce défi en proposant des solutions innovantes.

Le projet MODERNISE, acronyme de «Modernizing Operation and Decision-Making Tools Enabling Resource Management in Stochastic Environment», a été sélectionné par le Département de l’Énergie américain pour recevoir une subvention de 3 millions de dollars sur trois ans. Ce financement, complété par une contribution supplémentaire de 1,1 million de dollars des collaborateurs du projet, témoigne de l’importance accordée à cette problématique.

Zhaoyu Wang, professeur associé en génie électrique et informatique à l’Iowa State University et affilié au Centre de recherche sur l’énergie électrique de l’université, dirige ce projet ambitieux. Il souligne la difficulté de contrôler l’ensoleillement et la vitesse du vent, contrairement aux centrales électriques traditionnelles dont la production peut être ajustée en fonction de la demande.

Des collaborations institutionnelles de premier plan

Le projet MODERNISE bénéficie de la collaboration de plusieurs institutions de renom, notamment le Argonne National Laboratory, le National Renewable Energy Laboratory, PJM Interconnection, AES Indiana et AES Ohio, Siemens Corp. et Hitachi America Ltd. ISO New England et la Tennessee Valley Authority apportent également leur expertise en tant que conseillers du projet.

Cette collaboration multidisciplinaire permettra de développer des algorithmes de calcul avancés pour agréger les sources d’énergie renouvelables, des panneaux solaires sur les toits aux grands parcs solaires, afin d’optimiser le fonctionnement du réseau électrique.

Vers un réseau électrique intelligent et flexible

L’agrégation des ressources renouvelables permettra aux opérateurs de réseau de mieux comprendre et gérer les incertitudes liées à l’approvisionnement en énergie. En combinant ces sources d’énergie intermittentes, il sera possible de lisser les fluctuations et d’améliorer la prévisibilité de la production.

Les chercheurs développeront également des algorithmes pour aider les opérateurs de systèmes électriques à intégrer efficacement l’approvisionnement en énergie renouvelable agrégée. Ces outils contribueront à rendre le fonctionnement du réseau plus fiable et efficace.

À terme, le projet MODERNISE vise à créer un réseau électrique moderne, intelligent et suffisamment flexible pour exploiter l’électricité renouvelable provenant de sources diverses et la distribuer aux clients où et quand ils en ont besoin.

Légende illustration : Les ingénieurs de l’État de l’Iowa s’efforcent d’améliorer l’intégration des centrales d’énergie renouvelable dans le réseau électrique, comme la ferme solaire Alliant Energy de l’université de l’État de l’Iowa. Photo de Christopher Gannon/Université d’État de l’Iowa.

L’hydrogène, futur de nos réservoirs de pétrole ? Sandia mène l’enquête

L'hydrogène, futur de nos réservoirs de pétrole ? Sandia mène l'enquête

Les réservoirs de grès poreux, autrefois remplis de pétrole et de gaz naturel, pourraient bientôt devenir des sites de stockage pour un combustible sans carbone : l’hydrogène. Les scientifiques de Sandia National Laboratories étudient actuellement la faisabilité de cette solution innovante, qui pourrait contribuer à la transition vers une économie plus durable.

L’hydrogène présente de nombreux avantages en tant que combustible propre. Il peut être produit par électrolyse de l’eau en utilisant de l’énergie solaire ou éolienne, et être utilisé pour générer de l’électricité, alimenter l’industrie lourde et les véhicules à pile à combustible. De plus, l’hydrogène peut être stocké pendant plusieurs mois et utilisé lorsque les besoins énergétiques dépassent l’offre des sources d’énergie renouvelables.

Cependant, l’hydrogène est moins dense énergétiquement que les combustibles fossiles et plus difficile à comprimer. Selon Tuan Ho, ingénieur chimiste à Sandia, le stockage de grandes quantités d’hydrogène dans des réservoirs métalliques en surface n’est pas envisageable.

Réservoirs d’hydrocarbures épuisés, solution de stockage souterrain

Si l’hydrogène peut être stocké dans des cavernes de sel, ces formations géologiques ne sont pas répandues aux États-Unis. L’équipe de Tuan Ho étudie donc la possibilité de stocker l’hydrogène dans des réservoirs de pétrole et de gaz épuisés, en analysant les risques de fuite, de piégeage dans la roche ou de contamination.

Les chercheurs ont constaté que l’hydrogène ne reste pas piégé dans le grès après son injection, mais qu’une petite partie (jusqu’à 10 %) peut rester adsorbée dans les échantillons de schiste. Les simulations informatiques de Tuan Ho ont confirmé ces résultats expérimentaux.

Interactions entre l’hydrogène et les minéraux argileux

En étudiant plus précisément les interactions moléculaires entre les couches d’argile de type montmorillonite, l’eau et l’hydrogène, Tuan Ho a montré que l’hydrogène ne s’insère pas préférentiellement dans les espaces interfoliaires hydratés de ce type d’argile. Les pertes d’hydrogène par piégeage ou migration dans l’argile seraient donc minimes, ce qui est encourageant pour le stockage souterrain.

Risques de contamination par les hydrocarbures résiduels

Les expériences et simulations ont révélé que du gaz naturel résiduel peut être libéré de la roche lors de l’injection d’hydrogène dans un réservoir de gaz naturel épuisé. Ainsi, l’hydrogène extrait contiendra une petite quantité de gaz naturel, générant du CO2 lors de sa combustion. L’équipe étudie actuellement les effets de l’hydrogène sur un réservoir de pétrole épuisé et les interactions potentielles avec les hydrocarbures résiduels.

Des recherches supplémentaires sont nécessaires pour comprendre les interactions entre l’hydrogène stocké, les microorganismes et les autres composés chimiques présents dans les réservoirs de pétrole épuisés. Selon Don Conley, responsable du projet SHASTA à Sandia, ces travaux contribueront à guider les essais de stockage souterrain d’hydrogène à grande échelle, essentiels pour démontrer la faisabilité de cette solution et décarboner le secteur énergétique.

Légende illustration : Un ingénieur en géosciences travaille sur un système d’adsorption de gaz sous une hotte dans le cadre d’un projet visant à déterminer si les réservoirs de pétrole épuisés peuvent être utilisés pour stocker de l’hydrogène sans carbone. (Photo : Craig Fritz)

Article : “Nuclear magnetic resonance and molecular simulation study of H2 and CH4 adsorption onto shale and sandstone for hydrogen geological storage” – DOI: 10.1016/j.ijhydene.2023.11.011

Les montres connectées bientôt capables de mesurer les calories brûlées

Les montres connectées bientôt capables de mesurer les calories brûlées

La mesure précise des calories brûlées lors d’une activité physique est un défi de taille pour les appareils portables tels que les smartphones et les montres connectées. Des chercheurs de l’Université Carnegie Mellon et de l’Institut Indien de Technologie de Gandhinagar ont développé une solution innovante pour améliorer significativement la précision de ces estimations.

Les chercheurs ont découvert que l’intégration d’une caméra thermique abordable aux appareils portables pourrait réduire les inexactitudes dans les estimations de dépense énergétique de près de 40% avec une montre connectée actuelle à un peu moins de 6%. Selon Mayank Goel, professeur à l’Université Carnegie Mellon, la caméra thermique permet de surveiller le rythme respiratoire et la température corporelle de l’utilisateur, deux paramètres essentiels pour une estimation précise des calories brûlées.

Toutefois, les chercheurs ont constaté que les fréquences respiratoire et cardiaque ne suffisent pas à elles seules, car elles ne prennent pas en compte les différences physiques et contextuelles individuelles. La solution idéale pour mesurer avec précision la dépense énergétique est un calorimètre, qui utilise la fréquence cardiaque, la respiration et la concentration de dioxyde de carbone dans l’air expiré. Bien qu’aucune solution n’existe actuellement pour mesurer les concentrations de CO2 avec un appareil portable, la caméra thermique pourrait mesurer la température corporelle.

JoulesEye : un système basé sur l’apprentissage automatique

En combinant ces trois points de données avec l’aide de l’apprentissage automatique, les chercheurs ont développé un système appelé JoulesEye pour estimer la dépense énergétique. Lors de tests menés auprès de 54 participants qui ont fait du vélo ou couru pendant 15 minutes, JoulesEye a pu estimer les calories brûlées avec un taux d’erreur de seulement 5,8% par rapport à un calorimètre clinique.

En plus d’aider les passionnés de fitness, JoulesEye pourrait être utilisé dans l’entraînement sportif, ainsi que pour surveiller les personnes atteintes de diabète chronique ou de maladies cardiovasculaires.*

Vers une intégration abordable et respectueuse de la vie privée

L’intégration d’une caméra thermique basse résolution dans les appareils portables devrait être réalisable, car ces caméras sont déjà disponibles pour 45 dollars ou moins. Cependant, l’équipe travaille sur l’incorporation d’une caméra thermique de résolution encore plus faible dans le système, ce qui pourrait réduire le prix du capteur et atténuer les préoccupations en matière de confidentialité liées à une caméra pointée en permanence vers le visage de l’utilisateur.

Les chercheurs espèrent également réduire le temps pendant lequel la caméra thermique doit être dirigée vers le visage de l’utilisateur, qui est actuellement d’environ 40 secondes pour effectuer les mesures nécessaires. Leur objectif est que le temps nécessaire pour consulter sa montre soit suffisant pour obtenir les informations dont ils ont besoin.

L’importance d’estimations précises pour un mode de vie sain

Mayank Goel souligne l’importance d’avoir des estimations précises des calories brûlées, car des chiffres erronés peuvent conduire les utilisateurs à modifier leur comportement de manière problématique. Par exemple, si une personne pense avoir brûlé 400 calories sur un tapis de course alors qu’en réalité, elle n’en a dépensé que 200, elle pourrait manger plus de calories tout au long de la journée, ce qui constitue un problème majeur.

La surveillance de la respiration est un intérêt de longue date pour Goel et son laboratoire Smart Sensing for Humans (SMASH), qui développe des technologies pour des applications telles que la détection de la santé et la reconnaissance d’activité. Grâce à cette nouvelle avancée, les appareils portables pourraient bientôt offrir des estimations de dépense énergétique beaucoup plus précises, contribuant ainsi à promouvoir un mode de vie sain et actif.

* Un rapport sur JoulesEye, co-écrit par Goel, Adhikary, Sadeh et Nipun Batra, professeur assistant en informatique à l’IIT Gandhinagar, a été publié dans les Proceedings of the ACM Mobile, Wearable and Ubiquitous Technologies et sera présenté en octobre à la conférence UbiComp 2024 à Melbourne, en Australie.

Légende illustration : De nouveaux travaux menés par des chercheurs de la CMU et de l’Indian Institute of Technology (IIT) Gandhinagar montrent que l’ajout d’une caméra thermique peu coûteuse à des dispositifs portables pourrait améliorer considérablement la précision de l’estimation des calories brûlées.

Première visualisation d’un état quantique à résolution atomique

Première visualisation d'un état quantique à résolution atomique

Les chercheurs ont réussi à capturer pour la première fois des images à résolution atomique d’un état d’interface chiral, un phénomène quantique exotique qui pourrait aider à faire progresser l’informatique quantique et l’électronique à faible consommation d’énergie.

Une équipe de recherche internationale dirigée par le Lawrence Berkeley National Laboratory (Berkeley Lab) a réussi à capturer les premières images à résolution atomique d’un état d’interface chiral. Cet exploit a été rendu possible grâce à l’utilisation d’un microscope à effet tunnel (STM) qui a permis aux chercheurs de détecter différents états électroniques dans l’échantillon et de visualiser la fonction d’onde de l’état d’interface chiral.

L’état d’interface chiral est un canal conducteur qui permet aux électrons de se déplacer dans une seule direction, les empêchant d’être dispersés vers l’arrière et de provoquer une résistance électrique qui gaspille de l’énergie. Les chercheurs s’efforcent de mieux comprendre les propriétés des états d’interface chiraux dans les matériaux réels, mais la visualisation de leurs caractéristiques spatiales s’est avérée exceptionnellement difficile jusqu’à présent.

Création et contrôle à la demande d’états d’interface chiraux

En plus de visualiser directement un état d’interface chiral, les chercheurs ont également démontré la création à la demande de ces canaux conducteurs sans résistance dans un isolant 2D. Ils ont montré qu’un état d’interface chiral peut être déplacé à travers l’échantillon en modulant la tension sur une électrode de grille placée sous les couches de graphène.

Dans une démonstration finale de contrôle, les chercheurs ont montré qu’une impulsion de tension provenant de la pointe d’une sonde STM peut «écrire» un état d’interface chiral dans l’échantillon, l’effacer et même en réécrire un nouveau dans lequel les électrons circulent dans la direction opposée.

Des images de microscopie à effet tunnel montrent une fonction d’onde d’état d’interface chirale (bande lumineuse) dans un isolant QAH fabriqué à partir de graphène monocouche-bicouche torsadé dans un dispositif 2D. L’interface peut être déplacée à travers l’échantillon en modulant la tension sur une électrode de grille placée sous les couches de graphène. Credit Canxun Zhang/Berkeley Lab

Perspectives d’applications futures

Ces résultats pourraient aider les chercheurs à construire des réseaux ajustables de canaux d’électrons prometteurs pour la microélectronique à faible consommation d’énergie et les dispositifs de mémoire magnétique à faible puissance à l’avenir, ainsi que pour l’informatique quantique exploitant les comportements exotiques des électrons dans les isolants QAH.

Les chercheurs ont l’intention d’utiliser leur technique pour étudier une physique plus exotique dans des matériaux apparentés, comme les anyons, un nouveau type de quasi-particule qui pourrait ouvrir une voie vers l’informatique quantique. Comme le souligne Canxun Zhang, premier auteur de l’étude, « nos résultats fournissent des informations qui n’étaient pas possibles auparavant. Il y a encore un long chemin à parcourir, mais c’est un bon premier pas ».

Légende illustration : Image de microscopie à effet tunnel d’une fonction d’onde d’état d’interface chirale (bande lumineuse) dans un isolant Hall quantique anormal fabriqué à partir de graphène monocouche-bicouche torsadé. Crédit : Canxun Zhang/Berkeley Lab

Article : “Manipulation of chiral interface states in a moiré quantum anomalous Hall insulator” – DOI: 10.1038/s41567-024-02444-w

Des nano-membranes inspirées de la nature pour un avenir durable

Des nano-membranes inspirées de la nature pour un avenir durable

La conversion du dioxyde de carbone en composés utilisables grâce à l’énergie solaire, tout en produisant simultanément de l’hydrogène, est l’ambitieux objectif de recherche d’Andrea Pannwitz, nouvelle professeure junior de chimie inorganique à l’Université d’Iéna, financée par la Fondation Carl Zeiss.

Andrea Pannwitz aspire à ce que les deux processus, à savoir la conversion du dioxyde de carbone et la production d’hydrogène, se déroulent simultanément.

«Cela signifie qu’au cours de la conversion du dioxyde de carbone, nous générons ce qu’on appelle du gaz de synthèse, un mélange d’hydrogène et de monoxyde de carbone, qui est une précieuse matière première industrielle pour la production de nouveaux hydrocarbures», explique la chimiste. Ces derniers pourraient, dans le cas le plus simple, être utilisés comme carburants, appelés “carburants solaires” car issus de l’énergie solaire. Des produits chimiques de base de grande valeur sont également envisageables, par exemple pour la production d’agents pharmacologiques.

Bien que les applications potentielles soient prometteuses, il est crucial de comprendre ce processus de conversion le plus précisément possible. «Nous menons des recherches fondamentales pour cela», précise la scientifique. «Rendre l’énergie lumineuse chimiquement utilisable est très complexe : cela nécessite des colorants appropriés qui absorbent la lumière et un catalyseur qui conduit efficacement la réaction souhaitée. Les deux doivent être coordonnés entre eux, et l’ensemble du système doit être stable en présence d’eau

Des chloroplastes artificiels

Pour relever ces défis, Andrea Pannwitz et son équipe travaillent avec des nano-membranes inspirées de la nature. «Les plantes possèdent dans leurs cellules des chloroplastes, où se déroule la photosynthèse. Ces chloroplastes sont constitués de bicouches lipidiques, dans lesquelles sont intégrées les unités de chlorophylle actives qui effectuent finalement la réaction chimique», explique-t-elle. «En conséquence, dans nos recherches, nous utilisons des membranes lipidiques inspirées de la nature, dans lesquelles nous intégrons les unités catalytiquement actives, et nous étudions également comment cet environnement chimique local affecte l’efficacité de la catalyse.»

Pour ses travaux, Andrea Pannwitz trouve un environnement idéal à Iéna. «Cet endroit possède une grande force dans les projets collaboratifs, comme le centre de recherche collaborative CataLight, auquel mon équipe participe», estime-t-elle. «À l’avenir, je souhaite également m’engager dans d’autres projets collaboratifs impliquant également la lumière, ce qui s’intègre parfaitement dans la ville de la lumière qu’est Iéna

Montrer la vie de la recherche dès le programme d’études

Dans l’enseignement, Andrea Pannwitz accorde une grande importance à l’introduction directe des étudiants aux sujets de recherche actuels. «Il est important pour moi que les étudiants en master ou déjà en licence avancée comprennent la recherche, également sur la base des connaissances acquises lors des cours et des séminaires.»

Pour elle, cela signifie, par exemple, concevoir des séminaires particulièrement interactifs et introduire des formats qui font partie de la routine de recherche, comme une présentation de poster ou une conférence, tels qu’on les connaît lors des congrès. «Même une petite publication avec un processus d’examen interne apporte des éléments de recherche active directement dans le programme d’études», souligne-t-elle.

Après ses études de chimie à Göttingen, Andrea Pannwitz a obtenu son doctorat à l’Université de Bâle en Suisse en 2017, puis elle a mené des recherches à l’Université de Leyde aux Pays-Bas. De 2020 à 2024, elle a été professeure junior et responsable d’un groupe de recherche junior à l’Université d’Ulm.

À Iéna, sa chaire de professeur junior suit la procédure dite de «tenure track» et pourrait potentiellement être convertie en une chaire de professeur titulaire en 2026. «Bien sûr, j’aimerais rester à Iéna, également parce que je connais encore bien la ville», dit-elle en souriant. «J’ai été scolarisée ici, au lycée Carl Zeiss.» Le fait que sa chaire de professeur junior soit maintenant financée par la Fondation Carl Zeiss pourrait être un bon présage pour elle.

En synthèse

Pour une meilleure compréhension

Qu’est-ce que le gaz de synthèse et comment est-il produit dans ses recherches ?

Le gaz de synthèse est un mélange d’hydrogène et de monoxyde de carbone, obtenu lors de la conversion du dioxyde de carbone grâce à l’énergie solaire. Il s’agit d’une précieuse matière première industrielle pour la production de nouveaux hydrocarbures, tels que des carburants ou des produits chimiques de base.

Quels sont les défis à relever pour rendre l’énergie lumineuse chimiquement utilisable

Rendre l’énergie lumineuse chimiquement utilisable nécessite des colorants appropriés qui absorbent la lumière et un catalyseur qui conduit efficacement la réaction souhaitée. Les deux doivent être coordonnés entre eux, et l’ensemble du système doit être stable en présence d’eau.

Comment les recherches d’Andrea Pannwitz s’inspirent-elles de la nature ?

Andrea Pannwitz et son équipe travaillent avec des nano-membranes inspirées des chloroplastes des plantes, où se déroule la photosynthèse. Ils utilisent des membranes lipidiques dans lesquelles ils intègrent les unités catalytiquement actives, afin d’étudier l’influence de l’environnement chimique local sur l’efficacité de la catalyse.

Quelle est l’approche pédagogique pour introduire les étudiants à la recherche ?

Andrea Pannwitz accorde une grande importance à l’introduction directe des étudiants aux sujets de recherche actuels, en concevant des séminaires interactifs et en introduisant des formats qui font partie de la routine de recherche, comme des présentations de posters ou des conférences.

Références

Source : Jena / Andrea Pannwitz est le nouveau professeur junior de chimie inorganique

L’IA du futur se cache dans le cerveau minuscule des papillons

L'IA du futur se cache dans le cerveau minuscule des papillons

Les papillons Heliconius, malgré leur cerveau minuscule, sont capables de prendre des décisions basées sur plusieurs signaux sensoriels simultanés, une prouesse que les technologies d’intelligence artificielle (IA) actuelles peinent à réaliser sans une consommation d’énergie significative. Une équipe de chercheurs a développé une plateforme d’IA multi-sensorielle plus avancée et économe en énergie, s’inspirant des capacités de ces fascinants insectes.

Les technologies d’IA actuelles excellent dans le traitement d’un seul type d’entrée sensorielle, comme l’image ou le son, mais peinent à imiter les processus de prise de décision multi-sensoriels utilisés par les humains et les animaux. Cette limitation peut restreindre le potentiel de l’IA dans des domaines tels que la robotique et les capteurs intelligents destinés à détecter des dangers comme des structures défectueuses ou des fuites de produits chimiques imminentes.

Saptarshi Das, professeur associé du Penn State (USA) en sciences et mécanique de l’ingénierie et auteur correspondant de l’étude dans Advanced Materials, souligne que «la plupart des animaux et des êtres humains basent leur prise de décision sur plus d’un sens, contrairement à l’IA actuelle qui excelle avec une seule entrée sensorielle».

Les papillons Heliconius, un modèle d’efficacité énergétique

Les papillons Heliconius choisissent leur partenaire en combinant un signal visuel, le motif des ailes, et un signal chimique, les phéromones libérées par l’autre papillon. Ils parviennent à gérer cette tâche avec un cerveau minuscule et une consommation d’énergie minimale, contrairement à l’informatique moderne qui nécessite une quantité significative d’énergie.

Das souligne que «les cerveaux des papillons et de nombreux autres animaux sont très petits et utilisent peu de ressources, tant en termes d’énergie que de taille physique du cerveau, et pourtant ils effectuent des tâches de calcul qui reposent sur plusieurs entrées sensorielles à la fois».

Une plateforme matérielle inspirée des papillons

Pour imiter électroniquement ce comportement, les chercheurs ont développé une plateforme matérielle composée de deux matériaux 2D, le sulfure de molybdène (MoS2) et le graphène. La partie MoS2, un memtransistor capable d’effectuer à la fois des processus de mémoire et d’information, a été choisie pour ses capacités de détection de la lumière, imitant les capacités visuelles du papillon. La partie graphène, un chemitransistor capable de détecter les molécules chimiques, imite la détection des phéromones par le cerveau du papillon.

Subir Ghosh, doctorant en sciences et mécanique de l’ingénierie et co-auteur de l’étude, explique que «le signal visuel et le signal chimique des phéromones déterminent si la femelle papillon va s’accoupler avec le mâle. Nous avons eu l’idée de combiner le MoS2 photosensible et le graphène chimiquement actif pour créer une plateforme intégrée visuo-chimique pour l’IA et l’informatique neuromorphique».

Des tests prometteurs pour le capteur multi-sensoriel

Les chercheurs ont testé leur dispositif en exposant leur capteur à différentes lumières colorées, imitant les signaux visuels, et en appliquant des solutions de compositions chimiques variées, ressemblant aux phéromones libérées par les papillons. L’objectif était d’évaluer la capacité de leur capteur à intégrer les informations provenant à la fois du photodétecteur et du chemisenseur, à l’instar du succès de l’accouplement des papillons qui dépend de la correspondance entre la couleur des ailes et la force des phéromones.

En mesurant la réponse de sortie, les chercheurs ont déterminé que leurs dispositifs pouvaient intégrer de manière transparente les signaux visuels et chimiques, soulignant le potentiel de leur capteur à traiter et interpréter simultanément divers types d’informations.

Vers une IA multi-sensorielle économe en énergie

La détection double dans un seul dispositif est également plus économe en énergie par rapport à la façon dont les systèmes d’IA actuels fonctionnent, en collectant des données à partir de différents modules de capteurs et en les transférant vers un module de traitement, ce qui peut entraîner des retards et une consommation d’énergie excessive.

Les chercheurs prévoient d’étendre leur dispositif pour intégrer trois sens, imitant la façon dont une écrevisse utilise des signaux visuels, tactiles et chimiques pour détecter les proies et les prédateurs. L’objectif est de développer des dispositifs d’IA matériels capables de gérer des scénarios de prise de décision complexes dans divers environnements.

Ghosh envisage des applications potentielles, comme «des systèmes de capteurs dans une centrale électrique, qui détecteraient les problèmes potentiels tels que des fuites ou des défaillances de systèmes en se basant sur plusieurs signaux sensoriels, comme une odeur chimique, un changement de vibration ou la détection visuelle de faiblesses. Cela aiderait le système et le personnel à déterminer plus efficacement les actions à entreprendre pour résoudre rapidement le problème, car il ne reposerait pas sur un seul sens, mais sur plusieurs».

Légende illustration : Selon une équipe de chercheurs de l’État de Pennsylvanie, la manière dont les papillons Heliconius traitent simultanément deux entrées sensorielles, les phéromones et la vision, pour trouver un partenaire pourrait inspirer une intelligence artificielle multisensorielle améliorée.

Article : A Butterfly-Inspired Multisensory Neuromorphic Platform for Integration of Visual and Chemical Cues – DOI: 10.1002/adma.202307380

57 millions $ d’économies en 15 ans : le pari renouvelable du pôle Sud

57 millions $ d'économies en 15 ans : le pari renouvelable du pôle Sud

L’Antarctique, continent hostile et isolé, abrite depuis longtemps des stations de recherche scientifique. Parmi elles, la station Amundsen-Scott du pôle Sud, où des études sur le changement climatique et la cosmologie sont menées. Aujourd’hui, une analyse approfondie explore la possibilité de remplacer une partie de la production d’énergie de cette station, actuellement assurée par du carburant diesel, par des sources d’énergie renouvelables. Cette transition pourrait-elle devenir réalité dans cet environnement extrême ?

Actuellement, la station Amundsen-Scott du pôle Sud dépend exclusivement de sources d’énergie non renouvelables, en particulier du carburant diesel, pour alimenter les instruments et fournir de la chaleur au personnel. Une récente analyse menée par des scientifiques du Département de l’Énergie des États-Unis (DOE) des laboratoires nationaux d’Argonne et du National Renewable Energy Laboratory (NREL) montre que les énergies renouvelables pourraient être une alternative viable.

Amy Bender, physicienne à la division de physique des hautes énergies d’Argonne et auteure correspondante de l’étude, explique : « Toute l’énergie au pôle Sud est actuellement générée par du carburant diesel et un générateur. Nous nous demandions s’il était possible de passer aux énergies renouvelables. Cette étude est le début d’une tentative de défendre cette idée. »

Cette image montre la disposition des panneaux solaires esquissée dans l’étude. Les panneaux sont alignés de manière à capter la lumière du soleil le long de l’horizon à pratiquement n’importe quel moment de la journée pendant l’été austral. (Image fournie par le laboratoire national d’Argonne et le laboratoire national des énergies renouvelables.)

Réduire l’empreinte carbone pendant l’été austral

L’équipe de recherche a d’abord voulu savoir si l’utilisation de sources d’énergie solaire pendant l’été austral (novembre-février) serait envisageable pour réduire considérablement l’utilisation de carburant diesel au pôle Sud. Ralph Muehleisen, scientifique en chef des bâtiments et responsable du groupe Technologies des bâtiments et de l’industrie à Argonne, souligne : « Même si nous n’éliminons pas complètement l’utilisation du diesel, le fait de pouvoir éviter d’acheter ce carburant diesel pour l’été réduit considérablement son utilisation. »

Un stockage d’énergie adapté aux conditions extrêmes

Sue Babinec, responsable du programme de stockage stationnaire à Argonne, a décrit l’accent mis par l’équipe sur le type de stockage d’énergie nécessaire pour rendre le projet possible. Elle a souligné que les énergies renouvelables nécessitent un stockage d’énergie différent des applications quotidiennes des batteries, comme les transports ou l’électronique grand public. Les exigences spécifiques au pôle Sud rendent ces différences encore plus marquées.

« Les types de batteries dont vous avez besoin pour l’énergie avec les énergies renouvelables ne doivent pas seulement durer des années, elles doivent fournir de l’énergie pendant une très longue période », explique-t-elle. « Nous avons effectué une analyse détaillée du type de batterie qui fonctionne le mieux selon que vous utilisez l’énergie solaire, l’énergie éolienne ou les deux pour l’alimentation. »

Amundsen-Scott South Pole Station. Crédit : Amy Bender/Argonne National Laboratory.

Des économies substantielles et un retour sur investissement rapide

En utilisant le logiciel d’intégration et d’optimisation des énergies renouvelables du NREL, l’équipe a conclu que le remplacement de 95 % du carburant diesel nécessaire pour fournir 170 kW de puissance à la station du pôle Sud permettrait d’économiser environ 57 millions de dollars sur 15 ans, après un investissement initial de 9,7 millions de dollars. De plus, le délai avant que l’investissement ne soit rentabilisé par les économies de coûts de carburant serait d’un peu plus de deux ans.

Nate Blair, responsable de groupe au Centre des applications intégrées du NREL, note : « Lorsque je me suis lancé dans les énergies renouvelables, personne ne parlait de déployer l’énergie solaire en Alaska ou au Canada parce que c’était très cher et qu’il n’y fait pas très ensoleillé. Une composante renouvelable, associée aux générateurs diesel existants, offre une plus grande fiabilité et résilience. Si une pièce se casse, les autres composants du système peuvent vous aider à tenir jusqu’à ce qu’elle soit réparée. Nous prévoyons une baisse continue des coûts du solaire, de l’éolien et des batteries à l’avenir. »

Des défis logistiques à surmonter

La mise en œuvre d’un tel plan nécessitera des efforts considérables, notamment pour acheminer l’équipement à travers l’océan Austral, puis sur des centaines de kilomètres de toundra glacée jusqu’au pôle Sud. De plus, l’infrastructure devra être construite pour faire de l’utilisation des énergies renouvelables une réalité.

Comme le souligne Ralph Muehleisen, « Le DOE et les universités du monde entier essaient de décarboniser nos six continents. Ils ne font que commencer à atteindre l’Antarctique, donc nous parlons maintenant vraiment, pour la première fois, de décarboniser le monde. »

Selon lui, si nous pouvons commencer à réduire l’utilisation des sources d’énergie non renouvelables à la dernière frontière de la Terre, où seuls quelques milliers de personnes vivent et travaillent à un moment donné, alors il n’y a aucune raison pour que nous ne puissions pas le faire partout ailleurs.

Légende illustration : Une photo de la gare de nuit. La nouvelle station est visible à l’extrême gauche, la centrale électrique est au centre, et l’ancien garage de mécanique automobile en bas à droite. La lumière verte dans le ciel fait partie de l’aurore australe. Photo by Chris Danals, National Science Foundation

Article : “Techno-economic analysis of renewable energy generation at the South Pole” – DOI: 10.1016/j.rser.2023.114274 

Réseaux neuronaux à pointes : l’avenir du calcul inspiré du cerveau

Réseaux neuronaux à pointes : l'avenir du calcul inspiré du cerveau

Les chercheurs en neuromorphique s’efforcent de concevoir des systèmes de calcul aussi performants que le cerveau biologique, en particulier le cerveau humain, qui consomme peu d’énergie et fonctionne avec une grande efficacité. Une équipe de recherche a récemment abordé cet objectif sous un angle différent, en se concentrant sur la mesure du transfert d’informations plutôt que sur la conception de composants matériels imitant le mécanisme d’apprentissage du cerveau.

Leur méthode, qui s’est avérée efficace dans un système neuromorphique électronique, a été publiée dans Intelligent Computing, un journal partenaire de Science.

Pour évaluer l’efficacité du transfert d’informations, l’équipe s’est inspirée de la théorie de l’information. Ils ont quantifié la quantité d’informations transmises par les synapses dans les neurones individuels, puis ont mesuré cette quantité en utilisant l’information mutuelle, dont l’analyse révèle la relation entre les stimuli d’entrée et les réponses des neurones.

L’équipe a d’abord mené des expériences avec des neurones biologiques. Ils ont utilisé des tranches de cerveau de rats, enregistrant et analysant les circuits biologiques dans les cellules granulaires du cervelet. Ils ont ensuite évalué les informations transmises au niveau des synapses des neurones des fibres moussues aux cellules granulaires du cervelet. Les fibres moussues ont été stimulées périodiquement avec des pointes électriques pour induire une plasticité synaptique, une caractéristique biologique fondamentale où le transfert d’informations au niveau des synapses est constamment renforcé ou affaibli par l’activité neuronale répétée.

Les résultats montrent que les changements dans les valeurs d’information mutuelle sont largement cohérents avec les changements dans le transfert d’informations biologiques induits par la plasticité synaptique. Les résultats des expériences de simulation et des expériences neuromorphiques électroniques reflètent les résultats biologiques.

L’équipe a ensuite mené des expériences avec des neurones simulés. Ils ont appliqué un modèle de réseau neuronal à pointes, qui a été développé par le même groupe de recherche. Les réseaux neuronaux à pointes s’inspirent du fonctionnement des neurones biologiques et sont considérés comme une approche prometteuse pour obtenir un calcul neuromorphique efficace.

Cellule granule du cervelet et sa réponse à une paire de stimuli de 50 Hz. (A) Neurone biologique. (B) Modèle informatique utilisé pour la simulation. (C) Neurone simulé. (D) Neurone électronique. Crédit : Daniela Gandolfi ET AL.

Enfin, l’équipe a mené des expériences avec des neurones électroniques. Une configuration similaire à celles des expériences biologiques et de simulation a été utilisée. Un dispositif à semi-conducteurs développé précédemment fonctionnait comme un neurone, et quatre memristors spécialisés fonctionnaient comme des synapses. L’équipe a appliqué 20 séquences de pointes pour diminuer les valeurs de résistance, puis 20 autres pour les augmenter. Les changements dans les valeurs de résistance ont été étudiés pour évaluer l’efficacité du transfert d’informations dans le système neuromorphique.

En plus de vérifier la quantité d’informations transférées dans les neurones biologiques, simulés et électroniques, l’équipe a également souligné l’importance du timing des pointes, qui, comme ils l’ont observé, est étroitement lié au transfert d’informations. Cette observation pourrait influencer le développement du calcul neuromorphique, étant donné que la plupart des dispositifs sont conçus avec des algorithmes basés sur la fréquence des pointes.

Bien que les systèmes électroniques n’aient pas entièrement reproduit le transfert complexe d’informations entre les synapses et les neurones, l’équipe a démontré qu’il est possible de transformer les circuits biologiques en circuits électroniques tout en maintenant la quantité d’informations transférées.

«Cela représente une étape clé vers des systèmes artificiels basse consommation inspirés du cerveau», notent les auteurs.

Article : “Information Transfer in Neuronal Circuits: From Biological Neurons to Neuromorphic Electronics” – DOI: 10.34133/icomputing.0059

Le MIT dévoile ‘flexure’ un module polyvalent pour robots à muscles

Le MIT dévoile 'flexure' un module polyvalent pour robots à muscles

Les muscles, ces merveilles de la nature, sont des actionneurs parfaits capables de transformer l’énergie en mouvement avec une puissance et une précision inégalées pour leur taille. Leur capacité à se régénérer après une blessure et à se renforcer grâce à l’exercice en font des candidats de choix pour les ingénieurs qui cherchent à concevoir des robots plus performants et plus adaptables.

Des robots “biohybrides” prometteurs

Plusieurs équipes de chercheurs ont déjà démontré le potentiel des muscles naturels pour animer des squelettes artificiels capables de marcher, nager, pomper ou encore saisir des objets. Chaque robot ainsi créé présente une conception unique, sans véritable modèle générique permettant toutefois d’exploiter au mieux les capacités des tissus musculaires.

C’est dans ce contexte que les ingénieurs du MIT ont mis au point un dispositif ressemblant à un ressort, qui pourrait servir de module de base pour la plupart des robots à muscles. Baptisé «flexure», ce nouveau composant est conçu pour optimiser le travail fourni par les tissus musculaires qui lui sont attachés, à l’image d’une presse à jambes chargée avec la masse idéale pour maximiser l’amplitude des mouvements naturels du muscle.

Un “squelette” adaptable et performant

Lors des tests, les chercheurs ont fixé un anneau de tissu musculaire autour du dispositif, tel un élastique tendu entre deux poteaux. Résultat : le muscle a étiré le ressort de manière fiable et répétée, avec une amplitude cinq fois supérieure à celle obtenue avec les conceptions précédentes.

Pour Ritu Raman, professeure au MIT et co-auteure de l’étude publiée dans Advanced Intelligent Systems, ce design de flexure constitue un nouveau bloc de construction pouvant être combiné à d’autres pour créer des squelettes artificiels de toutes formes. Il suffira ensuite d’y ajouter des tissus musculaires pour animer ces structures.

Selon la chercheuse, ces flexures offrent aux roboticiens «un nouvel ensemble de règles pour créer des robots puissants et précis, actionnés par des muscles, et capables de réaliser des tâches intéressantes». Une véritable boîte à outils pour concevoir les machines du futur.

Vers des robots chirurgicaux miniatures

L’équipe du MIT adapte et combine désormais ces flexures pour construire des robots articulés, précis et fiables, alimentés par des muscles naturels. Parmi les applications envisagées figurent notamment des robots chirurgicaux miniatures, capables de réaliser des interventions peu invasives à l’intérieur du corps humain.

«Techniquement, les muscles peuvent animer des robots de toutes tailles, mais nous sommes particulièrement enthousiastes à l’idée de créer de petits robots, car c’est dans ce domaine que les actionneurs biologiques excellent en termes de force, d’efficacité et d’adaptabilité», souligne Ritu Raman.

Cette nouvelle approche ouvre ainsi l’accès à une nouvelle génération de robots bio-inspirés, alliant la complexité et la performance des systèmes naturels à la précision et la polyvalence des technologies de pointe. Une alliance prometteuse pour repousser les limites de la robotique et imaginer des machines toujours plus autonomes et interactives.

Légende illustration : Les ingénieurs du MIT ont mis au point un nouveau ressort (présenté dans une boîte de Pétri) qui maximise le travail des muscles naturels. Lorsque des tissus musculaires vivants sont attachés à des poteaux situés aux coins du dispositif, les contractions du muscle tirent sur le ressort, formant ainsi un actionneur naturel efficace. Le ressort peut servir de “squelette” pour de futurs robots musclés. Crédit : Felice Frankel

Article : ““Enhancing and Decoding the Performance of Muscle Actuators with Flexures”” – DOI: 10.1002/aisy.202300834

Le sable, jusqu’à 100 heures de stockage d’énergie pour un coût imbattable

Le sable, jusqu'à 100 heures de stockage d'énergie pour un coût imbattable

Le stockage d’énergie est un enjeu crucial pour l’avenir, et une solution innovante pourrait bien se trouver sous nos pieds : le sable. Grâce à sa capacité à retenir la chaleur, ce matériau omniprésent et peu coûteux pourrait jouer un rôle clé dans les technologies de stockage d’énergie thermique.

Si les batteries sont souvent considérées comme la solution de référence pour le stockage d’énergie, d’autres technologies existent, comme le pompage-turbinage hydroélectrique ou le stockage d’énergie thermique (TES) utilisant du sel fondu ou des roches surchauffées. Le TES se présente comme une alternative peu coûteuse, et le stockage dans des particules solides comme le sable offre une solution facilement accessible, sans restrictions géologiques.

Selon Zhiwen Ma, ingénieur mécanique au National Renewable Energy Laboratory (NREL) du Département de l’Énergie des États-Unis, le sable est « facile d’accès, respectueux de l’environnement, stable dans une large plage de températures et peu coûteux ».

Une technologie brevetée pour stocker l’énergie dans le sable

Les chercheurs du NREL ont développé et breveté une technologie permettant de chauffer des particules de sable à la température souhaitée grâce à des sources d’énergie renouvelables comme l’éolien et le solaire. Le sable est ensuite déposé dans un silo pour être stocké et utilisé ultérieurement, soit pour produire de l’électricité, soit pour fournir de la chaleur industrielle.

Un prototype à l’échelle du laboratoire a validé la technologie et permis de créer un modèle informatique montrant qu’un dispositif à l’échelle commerciale conserverait plus de 95% de sa chaleur pendant au moins cinq jours.

Le stockage d’énergie thermique, une solution compétitive

Selon Jeffrey Gifford, chercheur postdoctoral au NREL, le stockage d’énergie thermique dans des particules comme le sable présente un avantage supplémentaire par rapport aux batteries : il ne repose pas sur des matériaux rares ou dont la chaîne d’approvisionnement est complexe et non durable, comme le cobalt utilisé dans les batteries lithium-ion.

De plus, le coût du stockage d’énergie dans le sable est particulièrement compétitif. Zhiwen Ma a calculé que le sable était l’option la moins chère par rapport à quatre technologies concurrentes, dont le stockage d’énergie par air comprimé (CAES), le pompage-turbinage hydroélectrique et deux types de batteries. Avec une durée de stockage de plusieurs centaines d’heures, le sable coûterait entre 4 et 10 dollars par kilowattheure, contre 150 à 300 dollars pour le CAES et environ 60 dollars pour le pompage-turbinage hydroélectrique.

Projet de démonstration pour prouver le potentiel commercial du sable

En 2025, un système de stockage d’énergie thermique électrique (ETES) sera construit sur le campus Flatirons du NREL, dans le Colorado. Ce projet de démonstration financé par le Département de l’Énergie des États-Unis vise à montrer le potentiel commercial du sable pour le stockage d’énergie thermique, avec une capacité de stockage allant de 10 à 100 heures.

Contrairement aux sels fondus déjà utilisés pour le stockage temporaire d’énergie, le sable ne gèle pas et peut retenir considérablement plus de chaleur, jusqu’à 1 100°C (2 012°F), permettant de stocker de la chaleur pour la production d’électricité ou pour remplacer les combustibles fossiles dans les processus industriels.

Le choix du matériau de stockage thermique

Les chercheurs du NREL ont étudié différentes particules solides pour évaluer leur capacité à s’écouler et à retenir la chaleur. Parmi les particules considérées figuraient des matériaux céramiques utilisés dans la fracturation hydraulique, de l’argile calcinée, de l’alumine fondue brune et du sable de silice.

Si les matériaux céramiques ont surpassé le sable dans toutes les catégories, les gains de performance marginaux ont été jugés insuffisants pour justifier leur coût plus élevé. Le sable, sous forme de quartz alpha ultra-pur, coûte entre 30 et 80 dollars la tonne et est facilement disponible dans le Midwest des États-Unis.

Un stockage d’énergie évolutif et rentable

Selon Craig Turchi, responsable du groupe de recherche sur les sciences et technologies de l’énergie thermique au NREL, augmenter la quantité d’énergie pouvant être stockée dans le sable est aussi simple que d’ajouter plus de sable, ce qui représente un coût marginal pour accroître la capacité de stockage.

Si les composants nécessaires pour reconvertir le sable surchauffé en électricité nécessitent un investissement initial, une fois cet investissement réalisé, il est beaucoup moins coûteux d’ajouter du sable pour augmenter la durée de stockage que d’ajouter des batteries supplémentaires.

« Il s’agit d’un coût marginal pour ajouter une capacité de stockage supplémentaire », a-t-il indiqué. « Nous avons besoin d’une capacité de stockage allant de quelques minutes à quelques mois. Les batteries ont très bien fonctionné dans l’espace de quelques minutes à quelques heures en termes d’échelle. Et lorsque l’on passe à des mois de stockage, on envisage généralement de produire un combustible comme l’hydrogène pour assurer ce stockage à long terme. Mais entre plusieurs heures et deux semaines, il n’y a pas d’adéquation pour l’instant. L’hydrogène est trop cher pour cela. Les batteries sont trop chères pour cela ».

Le stockage d’énergie dans le sable pourrait ainsi combler une lacune entre le stockage de quelques heures assuré par les batteries et le stockage de plusieurs mois permis par la production d’hydrogène, offrant une solution compétitive pour un stockage allant de plusieurs heures à deux semaines.

Les composants nécessaires pour convertir le sable surchauffé en électricité nécessitent un coût initial. « Mais une fois que vous avez payé pour cela », a conclu M. Turchi, « si vous voulez simplement augmenter la durée de votre électricité, il est beaucoup, beaucoup moins coûteux d’ajouter du sable que l’alternative, qui est de continuer à ajouter des batteries ».

Légende illustration : Les chercheurs Shin Young Jeong et Zhiwen Ma examinent le prototype d’un dispositif utilisant du sable surchauffé pour le stockage de l’énergie à long terme. Photo de Joe DelNero, NREL

L’intelligence artificielle améliore la microscopie à super-résolution

L'intelligence artificielle améliore la microscopie à super-résolution

Les méthodes computationnelles et le traitement algorithmique des données jouent un rôle crucial dans la microscopie à super-résolution. Une nouvelle approche dans ce domaine ouvre la voie à une imagerie améliorée, offrant des perspectives prometteuses pour la recherche scientifique et médicale.

Un projet conjoint entre le Center for Advanced Systems Understanding (CASUS) du Helmholtz-Zentrum Dresden-Rossendorf en Allemagne, l’Imperial College London et l’University College London a utilisé l’intelligence artificielle générative pour améliorer la qualité des images à super-résolution.

L’intelligence artificielle générative, principe à la base d’applications actuelles de création de texte ou d’images telles que ChatGPT ou Stable Diffusion, ne se contente pas de percevoir et de classer les données reçues, mais les étend pour créer de nouvelles données dans un cadre contrôlé.

Un algorithme open-source moins coûteux en calcul

L’algorithme d’intelligence artificielle générative open-source du projet CASUS, appelé Conditional Variational Diffusion Model (CVDM), « améliore la qualité des images en les reconstruisant à partir d’un état aléatoire », selon les chercheurs. Il est également moins coûteux en calcul que les modèles de diffusion établis.

Artur Yakimovich du CASUS explique : « Les modèles de diffusion ont longtemps été connus pour être coûteux en calcul à entraîner, au point que certains chercheurs y renonçaient. Mais de nouveaux développements comme notre CVDM permettent de minimiser les ‘exécutions improductives’ qui ne mènent pas au modèle final. En réduisant l’effort de calcul et donc la consommation d’énergie, cette approche peut également rendre l’entraînement des modèles de diffusion plus écologique. »

Des applications immédiates en microscopie médicale

La microscopie à super-résolution, qui permet une imagerie en dessous de la limite de diffraction théorique, pourrait être un domaine d’application précieux pour CVDM. En effet, des techniques comme la microscopie à illumination structurée font encore face à des obstacles inhérents liés à la perte d’information et au bruit, malgré les progrès réalisés en termes de performance.

CVDM vise à minimiser les exécutions improductives pendant le calcul. Lors de la phase d’entraînement, le modèle est capable de trouver de manière autonome l’entraînement optimal pour la réduction du bruit dans une tâche particulière, sans que les programmeurs aient besoin de définir au préalable des «calendriers» de réduction globale du bruit par essais et erreurs.

Des tests appliquant CVDM à des images à super-résolution et à la microscopie à super-résolution par illumination structurée ont montré qu’il pouvait améliorer la résolution de 4,42 % par rapport aux méthodes probabilistes de diffusion existantes, et de 26,27 % par rapport à une méthode basée sur la régression. Des tests utilisant des images cliniques de cellules épithéliales et urinaires ont démontré qu’une approche CVDM a une « applicabilité immédiate à la microscopie médicale », selon le projet.

Artur Yakimovich conclut : « Nous pensons que notre approche présente de nouvelles propriétés uniques, à savoir une grande flexibilité et rapidité pour une qualité comparable voire supérieure aux autres approches de modèles de diffusion. De plus, notre CVDM fournit des indications directes lorsqu’il n’est pas très sûr de la reconstruction, une propriété très utile qui suggère la voie pour résoudre ces incertitudes dans de nouvelles expériences et simulations. »

PhotonWear : des photodétecteurs 50% plus sensibles grâce au silicium noir

PhotonWear : des photodétecteurs 50% plus sensibles grâce au silicium noir

Les capteurs portables sont en passe de révolutionner le secteur de la santé, offrant des solutions innovantes pour répondre aux besoins complexes d’une population vieillissante et de plus en plus soucieuse de son bien-être. Le projet finlandais PhotonWear, lancé par le centre de recherche appliquée VTT, s’inscrit dans cette dynamique en développant de nouveaux capteurs portables pour la surveillance de la santé.

Le consortium PhotonWear, qui comprend VTT, GE HealthCare, ElFys, Bittium et l’Université d’Oulu, est financé par Business Finland et devrait se poursuivre jusqu’en octobre 2025.

Les recherches antérieures de VTT dans le domaine des technologies photoniques ont notamment porté sur le développement de fibres optiques en cellulose capables de surveiller les conditions au sein de structures bâties, ainsi que sur une caméra hyperspectrale associée à une analyse spectrale par intelligence artificielle, adaptée à l’intégration dans des appareils grand public et des processus de sécurité alimentaire.

Un élément clé de la technologie PhotonWear sera les photodétecteurs en silicium noir fournis par ElFys. Le silicium noir, développé accidentellement à Harvard, utilise un processus de modification de surface par laser pour améliorer la photo-réponse du silicium et lui faire absorber presque toute la lumière visible qui le frappe. Selon les développeurs de PhotonWear, un photodétecteur en silicium noir peut présenter une sensibilité jusqu’à 50 % supérieure à celle d’un matériau non traité.

Mesures multispectrales haute fidélité pour une surveillance précise

L’un des axes de PhotonWear sera l’utilisation de mesures multispectrales de haute fidélité comme moyen de surveiller des paramètres d’intérêt, notamment la pression artérielle et la présence de biomarqueurs particuliers tels que le lactate et le glucose, le tout par des méthodes optiques non invasives.

Teemu Alajoki, coordinateur du projet PhotonWear, souligne que si l’on trouve aujourd’hui des capteurs optiques dans les montres intelligentes mesurant des paramètres tels que la fréquence cardiaque et sa variabilité, le projet vise à améliorer la précision des capteurs afin qu’ils soient adaptés à un usage médical, tout en les rendant beaucoup plus confortables à porter.

En mars 2024, ElFys a annoncé qu’elle livrait les premiers échantillons de photodétecteurs à base de silicium noir de l’entreprise, issus d’une fonderie de production de masse, la fabrication à grande échelle de détecteurs dans cette installation devant commencer au début de l’année 2025.

Capteurs portables confortables et une analyse de données avancée

Le projet développe également une analyse de données avancée compatible avec les capteurs optiques portables. Ces types d’appareils peuvent collecter des données en continu, de sorte qu’ils peuvent non seulement transmettre les données de santé mesurées, mais aussi envoyer des avertissements automatiques si ces mesures semblent dangereuses, y compris dans des scénarios où un patient sort de l’hôpital mais souffre ensuite d’une aggravation des symptômes.

L’objectif est de créer une électronique flexible, voire extensible, extrêmement confortable, ajustée à la peau, imperceptible et fiable, même dans des cas d’utilisation exigeants. PhotonWear ouvre ainsi la voie à une nouvelle génération de capteurs portables pour une surveillance de la santé plus précise, plus confortable et plus efficace.

Légende illustration : PhotonWear développera des capteurs pour surveiller un certain nombre de biomarqueurs importants. Crédit : VTT.

Comment les montagnes pourraient stocker des montagnes d’énergie propre

Comment les montagnes pourraient stocker des montagnes d'énergie propre

Le stockage d’énergie propre est un enjeu majeur pour la transition vers un réseau électrique décarboné. Les montagnes, collines, falaises et plateaux pourraient bientôt jouer un rôle clé dans cette transition grâce à une forme bien établie de stockage d’énergie qui suscite un regain d’attention : l’hydroélectricité par pompage.

Alors que le pays effectue sa transition vers un réseau électrique propre, les chercheurs sont à la recherche des meilleures façons de stocker l’énergie pour l’utiliser lorsque les vents ralentissent, que les nuages bloquent le soleil et que le réseau a besoin d’un coup de pouce. Certains experts espèrent développer de meilleures batteries, comme les batteries lithium-ion très appréciées qui alimentent les voitures électriques. Mais les batteries sont comme les guépards : elles fonctionnent souvent mieux sur de courtes distances.

L’hydroélectricité par pompage peut être une technologie plus ancienne, mais, comme nous les humains qui courons en endurance, elle peut dépasser la concurrence, souvent en stockant de l’énergie pendant huit à douze heures d’affilée ou plus. Les batteries à l’échelle des services publics sont souvent trop coûteuses si elles sont construites pour stocker plus de quatre heures d’énergie.

Selon Daniel Inman, chercheur au National Renewable Energy Laboratory (NREL) qui étudie l’économie de ces technologies de stockage d’énergie, « l’hydroélectricité par pompage est peut-être la solution de stockage d’énergie la plus prometteuse dont nous disposons pour atteindre l’énorme augmentation nécessaire à la réalisation d’un secteur de l’électricité propre ».

Le fonctionnement des centrales hydroélectriques par pompage

Les centrales hydroélectriques par pompage reposent sur deux réservoirs, l’un situé à une altitude plus élevée, pour stocker l’énergie. En utilisant l’énergie excédentaire des éoliennes, des panneaux solaires et d’autres centrales électriques, l’eau est pompée dans le réservoir supérieur ; lorsque le réseau a besoin de plus d’énergie pour répondre à la demande, cette eau est relâchée et s’écoule vers le bas, faisant tourner une turbine pour générer de l’électricité propre.

Malgré leur grand potentiel, peu de nouvelles installations hydroélectriques par pompage ont été construites depuis les années 1970, en partie parce que ces technologies s’accompagnent souvent de coûts initiaux élevés et que les réservoirs peuvent avoir un impact sur l’environnement, surtout s’ils sont reliés à une rivière. Aujourd’hui, les investisseurs envisagent une option plus respectueuse de l’environnement : les systèmes en boucle fermée, qui sont séparés des cours d’eau naturels.

Un nouvel outil d’estimation des coûts pour les centrales hydro.

Mais l’écart de plusieurs décennies depuis la dernière construction d’une installation de pompage aux États-Unis rend difficile la prévision du coût des installations en boucle fermée, en particulier pour les personnes et les organisations qui n’ont pas beaucoup d’expérience dans la construction de ce type de centrales. Cela signifie que les développeurs et les planificateurs de réseau ne disposent pas des données nécessaires pour prendre des décisions éclairées sur le nombre de nouvelles installations que le pays pourrait ou devrait construire pour soutenir son réseau en évolution.

C’est pourquoi Daniel Inman, ainsi que ses collègues chercheurs du NREL Stuart Cohen, Vignesh Ramasamy et Evan Rosenlieb, ont créé un nouvel outil d’estimation des coûts capable d’évaluer les coûts potentiels de construction et de main-d’œuvre associés aux centrales hydroélectriques par pompage en boucle fermée.

L’hydroélectricité par pompage est la plus grande source de capacité de stockage d’énergie à l’échelle du réseau aux États-Unis, représentant environ 96 % en 2022.

Et pourtant, selon Daniel Inman, l’hydroélectricité par pompage en boucle fermée a été négligée au cours de la dernière décennie, malgré le fait que cette technologie protège mieux les écosystèmes que la plupart des centrales traditionnelles en boucle ouverte (celles qui sont construites le long des rivières).

Les installations hydroélectriques par pompage fournissent également une inertie au réseau : si un problème coupe temporairement l’alimentation électrique, les grandes turbines d’une installation continuent de tourner, ce qui permet de combler cette lacune de puissance.

Vers un réseau électrique propre, fiable et résilient

Pour créer un réseau électrique propre, fiable et résilient, le monde aura probablement besoin à la fois de batteries et de nouvelles installations hydroélectriques par pompage. Grâce au nouvel outil d’estimation des coûts du NREL, il est désormais plus facile que jamais d’estimer comment et où ces deux technologies peuvent travailler ensemble pour construire cet avenir.

Selon Daniel Inman, « cet outil permet aux développeurs de projets potentiels d’obtenir un chiffre approximatif de ce que pourrait coûter une installation particulière. Et une estimation plus réaliste des coûts nous permettrait de développer des résultats de modélisation de l’expansion des capacités qui soient plus réalistes ».

Pour les planificateurs de réseau, cet outil pourrait fournir une image plus précise du nombre d’installations hydroélectriques par pompage qui pourraient raisonnablement être construites au cours des prochaines décennies, une mesure importante pour comprendre quel type de stockage d’énergie le réseau futur du pays pourrait avoir ou avoir besoin.

Légende illustration : L’hydroélectricité par pompage pourrait être l’un des moyens les plus prometteurs de stocker l’énergie pour un futur réseau énergétique 100 % propre. Mais il est difficile pour le public de connaître le coût de construction de ces installations, jusqu’à aujourd’hui. Photo de Juan Obando, concours de photos “Make a Splash” du ministère américain de l’énergie.

Cellule solaire organique en tandem : 16,94% d’efficacité atteinte

Cellule solaire organique en tandem : 16,94% d'efficacité atteinte

Les cellules solaires organiques en tandem à quatre terminaux représentent une avancée significative dans le domaine de l’énergie solaire. Des chercheurs de l’ICFO ont récemment mis au point un nouveau dispositif de ce type, atteignant une efficacité de conversion énergétique de 16,94%. Cette réalisation ouvre la voie à de nouvelles perspectives dans le domaine des énergies renouvelables et de la lutte contre le changement climatique.

Les cellules solaires organiques en tandem à deux terminaux constituent l’une des approches les plus prometteuses pour pallier les pertes par transmission et thermalisation dans les cellules solaires à simple jonction. Cependant, leur fabrication présente des défis, notamment en termes d’équilibre du courant électrique entre les deux sous-cellules et de réalisation d’une couche d’interconnexion robuste et transparente.

La configuration en tandem à quatre terminaux offre une alternative hautement efficace. Contrairement à l’approche à deux terminaux, elle dispose de connexions électriques séparées pour la cellule avant transparente et la cellule arrière opaque, éliminant ainsi la contrainte d’appariement du courant électrique. Cette configuration permet une plus grande flexibilité dans le choix des bandes interdites de chaque cellule, optimisant ainsi l’absorption des photons et améliorant l’efficacité globale de la production d’énergie solaire.

Un élément clé : l’électrode transparente en argent ultrafine

La fabrication d’une électrode transparente en argent ultrafine, d’une épaisseur de seulement 7 nm, a joué un rôle central dans l’optimisation des performances de la cellule solaire en tandem. Placée à l’arrière de la cellule avant, cette électrode assure une bonne transmission de la lumière pour alimenter la cellule arrière, tout en maintenant une conductivité électrique élevée pour garantir des performances optimales de la cellule avant.

La production de cette électrode a nécessité un contrôle méticuleux des conditions de laboratoire pour assurer précision et cohérence. L’électrode a ensuite été empilée avec trois couches diélectriques alternant le trioxyde de tungstène (WO3) et le fluorure de lithium (LiF), formant une structure multicouche photonique cruciale pour une distribution efficace et uniforme de la lumière entre les deux cellules.

Illustration artistique de la cellule solaire organique à quatre tandems développée (© ICFO/Francisco Bernal-Texca)

Des résultats prometteurs et des applications potentielles

Les chercheurs ont testé les performances photovoltaïques du dispositif sous un soleil d’éclairement avec un simulateur solaire et ont mesuré son efficacité quantique. Le dispositif a atteint une efficacité de conversion énergétique de 16,94%, ce qui, à ce jour, serait la plus élevée atteinte pour une cellule organique en tandem à quatre terminaux.

Cette recherche ouvre la voie à des applications potentielles dans les cellules photoélectrochimiques (PEC), répondant aux exigences électriques cruciales telles que la fourniture de la tension nécessaire pour surpasser les réactions établies de fractionnement de l’eau ou de réduction du CO2, comme dans le projet SOREC2.

La méthodologie de conception et de mise en œuvre de la structure en tandem à quatre terminaux pourrait être appliquée à la conception de nouveaux systèmes où une distribution adéquate de la lumière dans les éléments est cruciale pour les performances d’un dispositif donné.

Légende illustration : Cellule solaire organique transparente mise au point par Francisco Bernal du groupe de recherche sur la photovoltaïque organique nanostructurée de l’ICFO (©ICFO/Francisco Bernal-Texca).

Bernal-Texca, F; Martorell, J. (2024) Four-Terminal Tandem Based on a PM6:L8-BO Transparent Solar Cell and a 7nm Ag Layer Intermediate Electrode. Solar RRL. DOI: 10.1002/solr.202300728

In-Sight L38 : configurer des outils 3D avec seulement 5 à 10 images

In-Sight L38 : configurer des outils 3D avec seulement 5 à 10 images

L’inspection automatisée dans l’industrie manufacturière est en constante évolution, cherchant à améliorer la qualité et les performances. Cognex, un développeur de vision industrielle, apporte une solution innovante avec son nouveau système de vision 3D In-Sight® L38, combinant intelligence artificielle, technologies de vision 2D et 3D pour résoudre un large éventail d’applications d’inspection et de mesure.

Le système In-Sight L38 crée des images de projection qui intègrent des informations 3D dans une image 2D facile à étiqueter, simplifiant ainsi la formation. Il révèle également des caractéristiques non visibles avec l’imagerie 2D traditionnelle.

Les outils d’intelligence artificielle détectent les caractéristiques variables ou indéfinies, tandis que les algorithmes basés sur des règles fournissent des mesures 3D pour obtenir des résultats d’inspection fiables.

Monté au-dessus d’une ligne d’assemblage, l’In-Sight L38 inspecte les produits en 3D. Selon Carl Gerst, vice-président exécutif des produits de vision et d’identification chez Cognex, « Dans l’automatisation d’usine, où un déploiement rapide et une fiabilité sont non seulement souhaités mais essentiels, l’In-Sight L38 offre les deux. C’est plus qu’un système de vision 3D. C’est une solution alimentée par l’IA pour atteindre de nouveaux niveaux de qualité et de performance dans les inspections automatisées. »

Une configuration simplifiée grâce à l’intelligence artificielle

L’In-Sight L38 simplifie grandement le processus de configuration des systèmes 3D grâce à la technologie d’intelligence artificielle intégrée qui utilise des modèles pré-entraînés avec des données spécifiques au domaine. La formation par l’exemple remplace les étapes de programmation complexes, qui nécessitaient auparavant la combinaison de nombreux outils traditionnels basés sur des règles, pour rationaliser le développement des applications.

Les outils 3D uniques alimentés par l’IA peuvent être configurés en quelques minutes, nécessitant aussi peu que 5 à 10 images étiquetées pour automatiser une tâche. Avec un seul outil, les utilisateurs peuvent détecter des défauts difficiles, mesurer les variations en trois dimensions et obtenir des résultats en unités réelles.

Une optique laser brevetée pour une imagerie haute résolution

L’optique laser brevetée sans tacheture de l’In-Sight L38 minimise le bruit visuel et les reflets pour capturer des images de plus haute résolution que les capteurs de déplacement laser traditionnels. Un laser de haute puissance offre des taux d’acquisition rapides pour prendre en charge des vitesses de ligne élevées.

Le laser haute puissance répond aux normes de sécurité de classe 2, éliminant le besoin d’enceintes coûteuses. Il offre également plus de lumière que les systèmes traditionnels, ce qui réduit les exigences d’exposition et permet d’augmenter les vitesses de ligne.

L’In-Sight L38 offre un déploiement rapide et une inspection fiable pour l’automatisation manufacturière. Les outils 3D alimentés par l’IA peuvent être configurés rapidement, nécessitant aussi peu que 5 à 10 images étiquetées pour automatiser une tâche, ouvrant ainsi de nouvelles perspectives pour l’inspection automatisée dans l’industrie.

Légende illustration : L’In-Sight L38 offre un déploiement rapide et une inspection fiable pour l’automatisation de la fabrication. Photo : Cognex.

BPPflexRoll : le chaînon manquant pour une énergie hydrogène accessible

BPPflexRoll : le chaînon manquant pour une énergie hydrogène accessible

Les systèmes de piles à combustible respectueux de l’environnement, qui devraient alimenter des machines telles que les véhicules à l’avenir, sont encore rares et coûteux de nos jours. Plusieurs raisons expliquent cela, notamment le processus complexe et onéreux utilisé pour produire les plaques bipolaires, un composant clé des électrolyseurs et des piles à combustible, nécessaires à de nombreux systèmes à hydrogène.

L’Institut Fraunhofer pour les machines-outils et la technologie de formage IWU vient de franchir une étape majeure vers la réduction des coûts et la production de masse des plaques bipolaires en introduisant un système innovant de gaufrage à rouleaux : BPPflexRoll.*

Une efficacité élevée pour les piles à combustible à hydrogène

Les piles à combustible à hydrogène sont très efficaces. Elles utilisent de l’hydrogène et de l’oxygène pour produire de l’électricité, alimentant des machines telles que des véhicules écologiques. Les électrolyseurs inversent ce processus en utilisant de l’énergie électrique pour diviser l’eau en hydrogène et en oxygène. Les deux types de systèmes à hydrogène nécessitent des plaques bipolaires (BPP), qui comprennent deux composants de conversion clés : l’assemblage membrane-électrode (MEA), dans un système de pile à combustible, et la membrane revêtue de catalyseur (CCM), dans un électrolyseur.

Dans une pile à combustible, la structure à double paroi des plaques bipolaires permet à l’oxygène et à l’hydrogène de circuler des deux côtés de la MEA tandis que l’eau refroidit la pile. Le problème est que le processus actuel de production des plaques bipolaires est coûteux, ce qui empêche l’application de la technologie de l’hydrogène et donc, par exemple, l’utilisation généralisée et rentable des véhicules à pile à combustible à hydrogène. Ce potentiel ne peut être libéré que si le coût de la production de masse des composants de base impliqués est réduit.

Gaufrage de plaques bipolaires à l’aide de BPPflexRoll. Dans cette nouvelle technologie, la structure de la plaque bipolaire est gaufrée par une paire de rouleaux. © Fraunhofer IWU

BPPflexRoll : un prototype de système de gaufrage à rouleaux

Les chercheurs de Fraunhofer IWU à Chemnitz, en partenariat avec Profiroll Technologies GmbH, ont développé un prototype de système de gaufrage à rouleaux : BPPflexRoll. La ligne de production est opérationnelle à Fraunhofer IWU. Elle est déjà équipée d’une technologie de contrôle et d’un concept d’exploitation qui s’alignent sur une installation industrielle sur des points clés. Le système se compose de trois stands de rouleaux et nécessite une surface d’installation de 4 500 mm x 3 300 mm.

L’une des raisons pour lesquelles les BPP métalliques sont si coûteuses est qu’elles sont produites par lots discontinus.

« Chaque plaque bipolaire se compose de deux moitiés en acier inoxydable. Les structures pour le flux de gaz et la dissipation de chaleur sont embossées sur les moitiés dans un processus de formage discontinu, puis elles sont assemblées. Notre système de gaufrage à rouleaux a le potentiel de remplacer ces chaînes de processus ou étapes de production discontinues par un processus continu. Sans arrêts ni démarrages, ce processus permettra un volume de production élevé », explique Stefan Polster, responsable du groupe Traitement de la tôle et conception d’outils chez Fraunhofer IWU.

Des avantages significatifs pour la production de plaques bipolaires

« L’un des principaux avantages du gaufrage à rouleaux est la vitesse de processus plus élevée. Jusqu’à 120 demi-plaques BPP peuvent être produites chaque minute », note Robin Kurth, responsable du groupe Machines de formage chez Fraunhofer IWU. Les chercheurs espèrent que ce changement dans les méthodes de production réduira de moitié les coûts de fabrication des BPP.

Dans la nouvelle technologie, la structure de la plaque bipolaire est embossée à l’aide d’une paire de rouleaux, la bande métallique ultra-fine passant en continu entre eux. L’un des rouleaux de formage est défini comme le poinçon, l’autre comme la matrice. Étant donné que les rouleaux utilisés pour former les canaux d’écoulement n’ont qu’un contact linéaire avec la pièce, le formage par étapes peut réduire les forces de processus d’un facteur dix en moyenne par rapport à l’embossage conventionnel. Cela se traduit par une technologie de machine plus petite et moins coûteuse. La flexibilité est un autre avantage du système : le nombre de jeux de rouleaux requis peut être ajusté individuellement, en fonction de la géométrie des plaques bipolaires.

Vers des machines de formage cognitives avec un système de surveillance intégré

Avec le nouveau système pilote, les chercheurs de Fraunhofer IWU font également un pas important vers des machines de formage cognitives, capables de s’auto-surveiller et de se contrôler à l’aide de capteurs et d’algorithmes intelligents. « Contrairement aux systèmes précédents, nous surveillerons à l’avenir la qualité du BPP en temps réel en capturant, consolidant et analysant les paramètres du processus avec des capteurs », déclare Robin Kurth. Les données seront ensuite traitées et rendues utilisables via des solutions cloud.

Les premières plaques bipolaires produites avec l’installation sont déjà testées dans des piles à combustible à l’Institut Fraunhofer pour les systèmes d’énergie solaire ISE à Fribourg.

Avec BPPflexRoll, les chercheurs ouvrent la voie à la production de masse de plaques bipolaires haute efficacité et à faible coût.

* Les chercheurs de Fraunhofer présenteront un composant du système au stand commun de Fraunhofer dans le hall 2, stand B24, au salon Hannover Messe 2024 du 22 au 26 avril.

Légende illustration : Le principal avantage de cette méthode est la vitesse élevée du processus, qui entraîne une augmentation substantielle de la quantité unitaire produite, des économies d’échelle et, en fin de compte, une réduction significative des coûts. Crédit : © Fraunhofer IWU

Chaleur extrême : les ventilateurs ne suffisent plus, que faire ?

Chaleur extrême : les ventilateurs ne suffisent plus, que faire ?

Les vagues de chaleur extrême deviennent de plus en plus fréquentes en raison du changement climatique, ce qui soulève des questions cruciales sur les moyens les plus efficaces pour se rafraîchir. Une nouvelle étude menée par des chercheurs de l’Université d’Ottawa remet en question l’idée selon laquelle les ventilateurs peuvent efficacement refroidir le corps pendant ces épisodes de chaleur intense.

L’étude, dirigée par Robert Meade, chercheur postdoctoral à l’Unité de recherche sur la physiologie humaine et environnementale de l’Université d’Ottawa, suggère que les ventilateurs pourraient ne pas être aussi efficaces qu’on le pensait pour lutter contre la chaleur extrême. Selon les résultats de cette recherche, les ventilateurs améliorent certes l’évaporation de la sueur, mais cet effet n’est pas suffisamment puissant pour abaisser significativement la température interne du corps lorsqu’il fait déjà très chaud (au-dessus de 33-35°C).

Les personnes âgées, qui peuvent avoir une capacité réduite à transpirer, bénéficient encore moins des avantages rafraîchissants des ventilateurs. « Même chez les adultes plus jeunes, les ventilateurs ne fournissent qu’une petite fraction de la puissance de refroidissement de la climatisation », explique Robert Meade.

Des recommandations pour les organisations de santé

L’étude recommande aux organisations de santé de continuer à déconseiller de compter sur les ventilateurs pendant les épisodes de chaleur extrême, en particulier pour les personnes âgées et les autres groupes à risque plus élevé de coup de chaleur et d’autres problèmes de santé liés à la chaleur. L’accent devrait plutôt être mis sur l’accès à des solutions de refroidissement alternatives, comme la climatisation, et sur l’exploration de moyens pour rendre ces options plus accessibles et respectueuses de l’environnement.

Les autorités de santé publique ont un rôle à jouer dans ce domaine. « Maintenir une température intérieure fraîche est important pour les personnes vulnérables, mais les stratégies de refroidissement comme la climatisation peuvent être coûteuses et néfastes pour l’environnement. Il est crucial d’améliorer l’accessibilité et la durabilité de la climatisation et d’autres formes de refroidissement ambiant pour protéger ceux qui en ont besoin », souligne Robert Meade.

Méthode basée sur la modélisation de l’équilibre thermique humain

La recherche a été menée en utilisant des techniques de modélisation de « l’équilibre thermique humain » développées en 2015. En étendant ces modèles pour estimer la température centrale dans diverses conditions et hypothèses de modélisation, les auteurs ont pu comparer les effets attendus de l’utilisation d’un ventilateur dans un large éventail de scénarios.

« Les résultats des 116 640 modèles alternatifs que nous avons produits dans les analyses de sensibilité indiquent que les ventilateurs ne réduisent probablement pas de manière significative la température centrale en cas de forte chaleur, et n’égalent pas le refroidissement par climatisation. Les comparaisons avec des techniques de modélisation plus avancées et des simulations de vagues de chaleur en laboratoire ont confirmé cette conclusion », ajoute Robert Meade.

Ainsi, si les ventilateurs peuvent encore jouer un rôle important dans le refroidissement à des températures modérées, ils ne suffisent pas à eux seuls lorsque la chaleur devient extrême. Cette étude souligne l’importance de développer des solutions de refroidissement plus durables et accessibles pour protéger les populations vulnérables face aux vagues de chaleur qui se multiplient.

L’étude intitulée : A critical review of the effectiveness of electric fans as a personal cooling intervention in hot weather and heatwavesnorth_eastexternal link, a été publié dans le Lancet Planetary Healthnorth_eastexternal link.

Graphène et silicium : l’alliance parfaite pour l’électronique de demain

Graphène et silicium : l'alliance parfaite pour l'électronique de demain

Les matériaux innovants sont au cœur des préoccupations des chercheurs et des industriels, qui s’efforcent de développer des solutions toujours plus performantes et adaptées aux besoins spécifiques de chaque application. L’Institut Fraunhofer pour les microsystèmes photoniques IPMS s’inscrit pleinement dans cette dynamique, en proposant des substrats en silicium sur mesure pour la caractérisation électrique de matériaux tels qu’une nouvelle émulsion de graphène.

Les semi-conducteurs organiques sont des éléments clés de l’électronique organique et du photovoltaïque. Ils permettent de réaliser des dispositifs électroniques flexibles et des cellules solaires imprimées, grâce à des procédés basse température et des techniques de dépôt et de structuration sur de grandes surfaces, telles que diverses méthodes de revêtement et d’impression.

Les performances de l’ensemble du système dépendent fortement des matériaux semi-conducteurs actifs utilisés. C’est pourquoi une caractérisation électronique simple, fiable et reproductible de la conductivité, de la mobilité des porteurs, de la résistance de contact et du rapport courant on/off de ces semi-conducteurs est essentielle pour les développeurs de matériaux et de procédés.

Substrats OFET désagrégés de Fraunhofer IPMS. © Fraunhofer IPMS

L’Institut Fraunhofer IPMS développe et fabrique des substrats en silicium dotés de structures de transistor unique en architecture grille basse, qui sont utilisés pour la réalisation de transistors à effet de champ organiques (OFET) ou pour la caractérisation des paramètres électriques de matériaux conducteurs, par exemple pour le photovoltaïque organique.

Comme l’explique Thomas Stoppe, chef de projet : « Nos substrats sont déjà bien établis dans la R&D des institutions de recherche internationales. Nous souhaitons maintenant nous concentrer davantage sur les solutions spécifiques aux clients et développons en permanence la technologie pour mieux répondre aux besoins de nos partenaires industriels. Il existe un marché en pleine expansion, notamment dans le domaine de l’électronique organique, et nos substrats permettent une mesure ciblée, simple et reproductible des propriétés électriques des semi-conducteurs et des matériaux conducteurs. »

Les possibilités de caractérisation des matériaux ont été démontrées par des résultats récents, tels que l’étude d’une émulsion de graphène commerciale. Ces résultats seront présentés lors de la conférence iCampus-Cottbus iCCC2024 à Cottbus en mai 2024, puis publiés dans le Journal of Sensors and Sensor Systems.*

L’accès à la technologie des microsystèmes existante de l’Institut Fraunhofer IPMS offre des avantages significatifs, tels que la fabrication de haute précision et reproductible des puces et l’adaptation flexible de la technologie aux exigences individuelles de l’application cible. Cela permet différentes combinaisons de matériaux et des adaptations spécifiques au client des structures d’électrodes ou des épaisseurs de diélectriques.

Substrats OFET du Fraunhofer IPMS dans un paquet de gaufres. © Fraunhofer IPMS

Ainsi, des oxydes de grille de haute qualité avec des épaisseurs de couche de 28 nm à 320 nm sont possibles, ce qui permet des courants de fuite de grille extrêmement faibles jusqu’à la plage inférieure des pA et donc des mesures très précises. De plus, différentes orientations des structures de transistors existent sur une même puce afin d’étudier les influences du procédé de dépôt.

La fabrication est réalisée en salle blanche sur des wafers de silicium avec du dioxyde de silicium thermique (SiO2). Une couche brevetée d’oxyde d’indium-étain (ITO) agit comme couche d’adhérence pour l’or, améliorant la fiabilité, la précision et la reproductibilité, et permettant l’utilisation de ces substrats pour une assurance qualité complète dans les petites et grandes entreprises chimiques.

* Du 9 au 12 avril, les puces développées seront présentées au salon «analytica» à Munich. Les utilisateurs intéressés auront l’opportunité d’échanger avec des experts sur le stand A3.407 de l’Institut Fraunhofer IPMS.

Des lasers à disque pour une transmission quantique à longue portée

Des lasers à disque pour une transmission quantique à longue portée

L’expansion de la fibre optique progresse à l’échelle mondiale, augmentant non seulement la bande passante des connexions Internet conventionnelles, mais rapprochant également la réalisation d’un Internet quantique global. Cet Internet quantique permettrait de contribuer à exploiter pleinement le potentiel de certaines technologies, comme l’informatique quantique plus puissante grâce à la liaison de processeurs et de registres quantiques, une communication plus sécurisée grâce à la distribution de clés quantiques ou des mesures de temps plus précises grâce à la synchronisation des horloges atomiques.

Les défis de l’Internet quantique

Les différences entre la norme de fibre de verre de 1550 nm et les longueurs d’onde des divers bits quantiques (qubits) réalisés à ce jour représentent toutefois un obstacle, car ces qubits se situent principalement dans le spectre visible ou proche infrarouge.

Les chercheurs souhaitent surmonter cet obstacle à l’aide de la conversion de fréquence quantique, capable de modifier spécifiquement les fréquences des photons tout en conservant toutes les autres propriétés quantiques. Cela permet une conversion vers la gamme de télécommunications de 1550 nm pour une transmission à longue portée et à faible perte des états quantiques.

Le projet « HiFi — Highly integrated quantum frequency converter of highest fidelity based on innovative laser, fiber and production technology », financé par le ministère fédéral allemand de l’Éducation et de la Recherche (BMBF), vise à développer toutes les technologies nécessaires pour fournir des convertisseurs de fréquence quantique (QFK) à haute efficacité et faible bruit pour les premières pistes d’essai.

Les lasers à disque de Fraunhofer IAF

Dans le cadre de ce projet, l’Institut Fraunhofer pour la physique des états solides appliquée IAF a contribué au développement de lasers à disque (également connus sous le nom de lasers à émission par la surface à cavité externe verticale, VECSELs) basés sur l’antimoniure de gallium (GaSb). Il s’agit de lasers à semi-conducteurs à émission par la surface, pompés optiquement, avec un résonateur externe et un filtre intracavité pour la sélection de la longueur d’onde.

Selon Dr. Marcel Rattunde, coordinateur du sous-projet HiFi et responsable du département optoélectronique de Fraunhofer IAF, « Les VECSELs que nous avons développés dans le cadre de HiFi sont des sources de pompage à bande spectrale étroite qui, selon la longueur d’onde de sortie des qubits utilisés, couvrent spécifiquement une longueur d’onde comprise entre 1,9 et 2,5 µm et atteignent une puissance de sortie allant jusqu’à 2,4 W avec une stabilité de longueur d’onde absolue inférieure à 2 fm. Cela correspond à une stabilité de fréquence inférieure à 100 kHz et se situe nettement en dessous de la classe de stabilité de fréquence 1E-9. Ce résultat représente un record international pour ce type de laser. »

Installation VECSEL pour le développement d’une source de pompe à faible bruit pour la conversion quantique de fréquence. © Fraunhofer IAF

Ce résultat a été rendu possible grâce à une étroite collaboration avec le partenaire du projet, MENLO Systems GmbH. Ensemble, ils ont verrouillé le laser à disque sur un peigne de fréquences, lui-même couplé à une référence de 10 MHz.

La conversion de fréquence quantique à l’aide de lasers de pompe

Dans la conversion de fréquence quantique, l’énergie du photon de pompe est soustraite du photon de signal par un processus de différence de fréquence dans un cristal optique non linéaire. Pour garantir un processus à faible bruit, l’énergie des photons de pompe doit être inférieure à la longueur d’onde cible (généralement 1550 nm), sinon le laser de pompe peut générer des photons dans le signal de sortie en raison d’effets parasites.

En combinaison avec le peigne de fréquences MENLO, les VECSELs développés à Fraunhofer IAF répondent aux exigences élevées de la conversion de fréquence quantique, car leur bande passante étroite et leur stabilité de longueur d’onde empêchent les fluctuations de la longueur d’onde de pompe et, par conséquent, les changements de la longueur d’onde cible des qubits. S’il y a un écart supérieur à la largeur de raie naturelle, les qubits ne seraient plus indiscernables, ce qui éliminerait une exigence de base pour le traitement quantique mécanique ultérieur.

Du 7 au 11 avril 2024, les chercheurs du Fraunhofer IAF présenteront leurs derniers résultats de recherche dans le domaine de l’optoélectronique lors du salon SPIE Photonics Europe de cette année à Strasbourg.

Steffen Adler parlera des résultats du projet HiFi le 11 avril à 14h dans sa présentation “High-power 2 μm GaSb-based VECSEL with an absolute wavelength stability below 1 MHz” (VECSEL haute puissance à base de GaSb avec une stabilité absolue de la longueur d’onde inférieure à 1 MHz).