Est-ce qu’un aspirateur robot consomme beaucoup d’électricité ?

Est-ce qu'un aspirateur robot consomme beaucoup d'électricité ?

Contrairement aux aspirateurs traîneaux et balais, les aspirateurs robots fonctionnent de manière entièrement autonome. De plus, ils offrent des avantages incontournables en termes de gain de temps, de confort et d’efficacité de nettoyage. Mais qu’en est-il de leur consommation d’énergie ? Un aspirateur robot consomme-t-il beaucoup d’électricité ?

Comment calculer la consommation électrique d’un aspirateur robot ?

Pour calculer la consommation d’énergie d’un aspirateur robot, il faut prendre en compte 2 paramètres : 

  1. La puissance nominale indiquée par le fabricant (en Watts).
  2. La durée moyenne d’utilisation (en heures).

Multipliez la puissance de votre aspirateur intelligent par la durée de nettoyage pour obtenir la quantité d’énergie totale consommée pendant cette période (en kWh). Notez que la valeur obtenue représente une estimation moyenne de la consommation de l’aspirateur autonome. 

Les facteurs qui influent sur la consommation d’un aspirateur robot

Pour un aspirateur robot, la consommation moyenne indiquée par le fabricant est une valeur théorique qui peut différer de la consommation réelle en fonction de plusieurs facteurs comme : la surface à nettoyer, le type de revêtement de sol, la présence d’obstacles, la fréquence et la technologie de nettoyage et enfin l’entretien de l’appareil.

La surface de la zone à nettoyer

La taille de la zone à nettoyer a un impact direct sur la consommation d’électricité de votre robot aspirateur. Généralement, les logements de grande taille comme les maisons à plusieurs étages nécessitent des temps de nettoyage plus conséquents. Donc, plus la surface de la zone à nettoyer est grande, plus l’aspirateur automatique consomme de l’énergie. 

Le type de sol

Les robots aspirateurs peuvent nettoyer différents types de sols (tapis, moquette, lino, parquet, etc.). Ceci dit, leur consommation réelle peut varier en fonction du type de revêtement de sol. Par exemple, sur un tapis à poils longs ou une moquette épaisse, l’aspirateur autonome doit faire face à une résistance au roulement plus importante. De plus, il a besoin d’une force d’aspiration plus importante pour aspirer la poussière en profondeur. Dans ce cas, le moteur est plus sollicité que sur un sol en parquet ou en carrelage par exemple, ce qui se traduit par une consommation plus élevée. 

La présence d’obstacles

Un aspirateur robot est doté d’une technologie de navigation qui lui permet de se déplacer selon un schéma précis. Les modèles d’entrée de gamme utilisent un système de navigation aléatoire dit “Bump and Run”. Lorsque le robot heurte un obstacle, il retourne en arrière et ajuste son chemin pour éviter l’obstacle.

Les modèles haut de gamme sont dotés d’une navigation intelligente (SLAM ou LIDAR) qui utilise des capteurs laser et des caméras pour identifier les obstacles et choisir le parcours le plus optimal selon une cartographie virtuelle. 

Plus l’aspirateur automatique rencontre d’obstacles dans la pièce (meubles, jouets posés sur terre, accessoires d’animaux de compagnie, etc.), plus il doit ajuster son parcours de nettoyage, ce qui peut entraîner une consommation plus élevée pour les modèles “Bump and Run”. 

La fréquence de nettoyage

En règle générale, plus vous utilisez votre aspirateur robot, plus ce dernier consomme d’énergie. Cela dit, un nettoyage régulier est nécessaire pour maintenir votre logement propre et éviter les séances de nettoyage intensives très énergivores. Ainsi, pour optimiser la consommation d’un aspirateur intelligent, il convient de choisir le mode de nettoyage le plus adapté au niveau de saleté du sol. 

Les aspirateurs robots sont généralement dotés de plusieurs modes de nettoyage que vous pouvez choisir selon vos besoins : Aspirateur uniquement, serpillère et aspirateur en simultané, uniquement serpillère et serpillère après l’aspirateur. 

La technologie de nettoyage

Les robots aspirateurs laveurs 3-en-1 prennent en charge le lavage du sol et consomment généralement plus d’électricité que les aspirateurs robots 2-en-1. Les modèles équipés de la fonction nettoyage et de séchage à l’air chaud des serpillères sont ceux qui consomment le plus.

La qualité d’entretien du robot aspirateur

Un manque d’entretien peutentraîner une surconsommation de votre aspirateur robot. Par exemple, l’obstruction du filtre à poussière pourrait affecter la puissance d’aspiration de l’appareil. En effet, le moteur de l’appareil serait plus sollicité, ce qui entraînerait une surconsommation d’électricité. 

Quelle est la consommation d’un aspirateur robot par rapport à un aspirateur classique ?

Comme les aspirateurs robots, les aspirateurs balais fonctionnent avec une batterie rechargeable. Leur puissance électrique varie généralement de 150 à 400 W. Celle des aspirateurs autonomes se situe entre 30 et 120 W. Dans les mêmes conditions de fonctionnement, un aspirateur robot consommerait jusqu’à 13 fois moins qu’un aspirateur balai. 

Par ailleurs, les aspirateurs traîneaux fonctionnent sur secteur. Ils affichent une puissance de 600 à 900 W (puissance maximale autorisée pour ce type d’aspirateur depuis 2017). Dans les mêmes conditions de fonctionnement, un aspirateur robot consommerait jusqu’à 30 fois moins qu’un aspirateur traîneau. 

Notez qu’il s’agit d’une estimation qui ne prend pas en compte la puissance d’aspiration et les performances de nettoyage de chaque type d’aspirateur. 

Conclusion

La consommation électrique réelle d’un robot aspirateur peut varier selon plusieurs facteurs tels que la taille du logement, le type du sol, la fréquence de nettoyage ou encore la présence d’obstacles. Ceci dit, elle reste généralement plus faible que celle des aspirateurs traîneaux et des aspirateurs balais. 

Quelques petits gestes, comme le choix de la fréquence et du mode de nettoyage adaptés, la réduction des obstacles dans le logement et le nettoyage régulier du filtre, contribuent à optimiser la consommation électrique de votre aspirateur automatique. 

5 bonnes raisons d’adopter un volet roulant pour sa piscine

5 bonnes raisons d'adopter un volet roulant pour sa piscine

L’été se dessine à l’horizon, et avec lui, l’envie de se prélasser au bord de la piscine. Si vous êtes l’heureux propriétaire d’un bassin, vous avez certainement déjà réfléchi aux différentes options pour le protéger et en faciliter l’entretien. Parmi elles, le volet roulant s’est imposé ces dernières années comme le choix privilégié de nombreux Français, détrônant ainsi la traditionnelle bâche. Mais pourquoi un tel engouement ? Plongeons-nous dans les multiples avantages qu’offre ce dispositif, combinant sécurité, praticité et économies.

Une sécurité optimale pour votre piscine

La sécurité constitue l’un des principaux arguments en faveur de l’adoption d’un volet roulant. Depuis 2003, la loi impose aux propriétaires de piscines privées de mettre en place un dispositif de sécurité normalisé. Le volet roulant, conforme à la norme NF P90-308, répond parfaitement à cette exigence.

Une fois déployé, le volet recouvre intégralement la surface du bassin, empêchant ainsi tout risque de chute accidentelle ou de noyade, en particulier chez les enfants en bas âge. Les lames en PVC ou en polycarbonate sont suffisamment résistantes pour supporter le poids d’un adulte, offrant ainsi une barrière efficace entre l’eau et les abords de la piscine.

Un entretien facilité et une eau préservée

Le volet roulant agit ensuite comme un véritable bouclier contre les divers polluants capables d’altérer la qualité de l’eau. En recouvrant le bassin, il empêche les feuilles mortes, les insectes et autres débris de tomber dans l’eau, réduisant ainsi le temps consacré au nettoyage de la piscine.

De plus, en limitant l’exposition de l’eau aux rayons UV, le volet roulant freine le développement des algues par photosynthèse. Vous allez donc diminuer la quantité de produits de traitement nécessaires au maintien d’une eau saine et limpide. C’est par conséquent un gain de temps et d’argent non négligeable.

Un atout esthétique pour votre espace piscine

Outre ses qualités pratiques, le volet roulant apporte une touche d’élégance à votre espace piscine. Qu’il soit hors-sol ou immergé ce dispositif s’intègre harmonieusement à l’environnement de votre bassin.

Exemple de volet roulant automatique hors sol. (Crédit Astralpool)

Les lames en PVC ou en polycarbonate sont disponibles dans une large gamme de coloris, vous permettant de choisir la teinte qui s’accordera le mieux avec le revêtement de votre piscine et les abords. Certains modèles de volets hors-sol sont même en mesure d’être habillés d’un coffre en bois ou en composite, pour un rendu encore plus esthétique.

Un site spécialisé comme https://www.esc-grossiste.fr/boutique/ propose ce type d’équipement.

Des économies d’énergie substantielles

L’installation d’un volet roulant permet également de réaliser des économies significatives sur le plan énergétique. En effet, lorsque le volet est fermé, il limite considérablement l’évaporation de l’eau, phénomène responsable d’une grande partie des déperditions de chaleur dans une piscine.

Ainsi, en préservant la température de l’eau, le volet roulant réduit la consommation d’énergie nécessaire au chauffage du bassin. Selon les estimations, les économies réalisées peuvent atteindre jusqu’à 30% sur les coûts de chauffage. Un argument de poids pour les propriétaires soucieux de leur facture énergétique.

Un confort d’utilisation au quotidien

Enfin, le volet roulant vous offre un confort d’utilisation inégalé au quotidien. Grâce à sa motorisation, vous avez la capacité d’ouvrir et de fermer votre piscine en quelques secondes, par simple pression sur un bouton ou une télécommande.

Fini le temps passé à dérouler et à enrouler manuellement une bâche de protection. Avec un volet roulant automatique, vous profitez pleinement de votre piscine sans effort ni contrainte.

L’adoption d’un volet roulant pour votre piscine représente un investissement à long terme. Sécurité renforcée, entretien facilité, économies d’énergie, esthétique soignée et confort d’utilisation sont autant d’atouts qui font de ce dispositif un équipement incontournable pour votre bassin. Alors, prêt à franchir le pas et à profiter sereinement de votre espace piscine cet été ?

🏆Meilleurs pulvérisateurs électriques (2023) : Guide et comparatif

Meilleurs pulvérisateurs électriques (2023) : Guide et comparatif

Le jardinage reste un passe-temps merveilleux qui permet de se connecter avec la nature tout en créant un espace verdoyant. Entre l’arrosage, la fertilisation et la lutte contre les maladies et les insectes nuisibles, entretenir un jardin peut vite devenir chronophage. C’est pourquoi l’outil de jardinage, comme le pulvérisateur électrique s’avère être un allié précieux pour les jardiniers, du débutant comme l’expert.

Dans cet article, nous allons examiner tous les aspects du pulvérisateur électrique, à quoi il sert, ses avantages, son fonctionnement, ses principales caractéristiques, les points clés pour vous aider à choisir ainsi qu’une sélection des meilleurs pulvérisateurs électriques pour votre jardin.

A quoi sert un pulvérisateur électrique ?

Un pulvérisateur électrique est un outil de jardinage qui pulvérise des liquides comme des des engrais liquides, des herbicides, des fongicides, de l’eau ou d’autres solutions de traitement sur les plantes et les surfaces. Il est équipé d’un moteur électrique qui actionne la pompe pour projeter le liquide sous forme de fine brume, ce qui permet une application uniforme et précise. Les pulvérisateurs électriques sont utilisés pour traiter les grandes surfaces de manière efficace et rapide, tout en réduisant la fatigue et l’effort physique pour l’utilisateur.

Un pulvérisateur électrique est très utile égalemlent pour un autre type d’activité. En particulier, son utilisation est essentielle pour le démoussage d’une toiture. En effet, ce dispositif permet de projeter un produit antifongique sur la surface traitée de manière uniforme et en quantité suffisante. De cette manière, le produit agira efficacement pour éliminer les mousses, lichens et autres champignons qui peuvent s’accumuler sur les tuiles ou ardoises de votre toiture.

L’utilisation d’un pulvérisateur électrique facilite grandement l’opération de démoussage, car elle permet d’aller jusqu’aux endroits les plus inaccessibles, sans la nécessité de faire des efforts physiques importants.

Avantages et inconvénients d’utiliser un pulvérisateur électrique

D’une part, les pulvérisateurs électriques sont très pratiques car ils facilitent la pulvérisation, que ce soit pour la désinfection, pour les toitures ou les espaces verts. Ils permettent une distribution uniforme du produit sur la surface à traiter, sans effort, ce qui est très apprécié. De plus, certains modèles sont équipés d’une sangle qui permet une utilisation plus ergonomique.

D’autre part, les pulvérisateurs électriques sont souvent plus coûteux que les pulvérisateurs manuels, et ils nécessitent d’être alimentés en électricité. Certains modèles ont un débit limité et peuvent ne pas être adaptés pour des surfaces très grandes. Il faut donc faire attention aux caractéristiques de chaque produit dont l’autonomie de la batterie notamment.

Comment fonctionne un pulvérisateur électrique ?

Le pulvérisateur électrique pulvérise des liquides ( engrais liquides, détergents ou produits nettoyants, fongicides, herbicides, etc.). Il est alimenté par une batterie rechargeable qui alimente la pompe pour créer une pression par le biais d’une buse.

Lorsque la pression est créée, le liquide est pulvérisé à travers la buse. La taille des particules peut être ajustée en fonction de la taille de la buse.

Pulvérisateurs électriques sans fil

Avec un simple clic de bouton, les pulvérisateurs électriques sans fil offrent une solution efficace pour atteindre les zones difficiles d’accès. Ils sont équipés d’une batterie rechargeable et ne nécessitent pas de câbles encombrants. Ils ont une conception légère et ergonomique pour faciliter leur maniement et sont dotés d’une fonction de réglage de pression pour s’adapter à vos différents besoins de pulvérisation.

Que vous souhaitiez pulvériser des produits chimiques, des herbicides, des insecticides ou des engrais, le pulvérisateur à batterie reste l’outil idéal pour accomplir cette tâche avec efficacité et sans d’effort. La batterie rechargeable évite le besoin d’une alimentation électrique continu ou l’utilisation d’un moteur thermique bruyant.

Pulvérisateur électrique jardinage

Les points clés pour choisir son pulvérisateur électrique

Les points clés pour choisir son pulvérisateur électrique sont nombreux. Tout d’abord, la capacité du réservoir est à prendre en compte en fonction de vos besoins propres.

Ensuite, la qualité du tuyau et de la buse influenceront grandement la qualité de la pulvérisation. Il est aussi nécessaire de se tourner vers un modèle équipé d’une batterie rechargeable afin de ne pas être limité par le temps de charge et de permettre une utilisation sans fil.

Si vous devez pulvériser des produits corrosifs, il peut être intéressant de se diriger vers un pulvérisateur électrique résistant à ce type de produits. Enfin, la présence d’une sangle pour faciliter son transport peut être un point important à prendre en compte.

Notre sélection des meilleurs pulvérisateurs électriques

Notre sélection des meilleurs pulvérisateurs électriques est composée de modèles performants pouvant résister aux produits corrosifs. Ce type de pulvérisateur électrique est idéal pour des travaux de pulvérisation en extérieur, notamment pour les sols, la toiture, les murs.

La plupart des modèles sélectionnés ont une grande capacité de cuve et un tuyau de pulvérisation pratique pour une utilisation aisée. Les buses de pulvérisation sont également efficaces pour une meilleure couverture de la zone à traiter.

Les principales caractéristiques sont mises en valeur afin que vous puissiez faire le bon choix. Les prix varient entre 110 et 270 euros. Tous les pulvérisateurs présentés sont disponibles en ligne chez notre partenaire Amazon.

🥇 Pulvérisateur électrique Powerjet 2

Ce pulvérisateur électrique est proposé par la marque Multirex. Il dispose d’une puissance de 12V et d’une capacité de 10 litres. Il est équipé d’une lance télescopique en acier inoxydable ainsi que d’une buse réglable. Le Powerjet 2 peut être utilisé pour pulvériser des produits phytosanitaires ou des engrais sur les plantes et les cultures.

🥈 RYOBI – Pulvérisateur à Dos 18V ONE+

Ce pulvérisateur à dos électrique est de la marque Ryobi. Il est alimenté par une batterie 18V et a une capacité de 15 litres. Il dispose d’une lance réglable en laiton et d’une buse à jet réglable. Le RYOBI – Pulvérisateur à Dos 18V ONE+ est utilisé pour pulvériser des produits phytosanitaires sur les plantes et les cultures.

🥉 Forum Equipement – Pulvérisateur Électrique PRO SPRAYER

Ce pulvérisateur électrique est proposé par la marque Forum Equipement. Il est équipé d’un réservoir de 28 litres et d’une batterie rechargeable. Il dispose d’une lance télescopique en acier inoxydable et d’une buse à jet réglable. Le Pulvérisateur Électrique et Autonome PRO SPRAYER peut être utilisé pour pulvériser des produits phytosanitaires ou des engrais sur les plantes et les cultures.

🥉 Einhell – Pulvérisateur à pression sans fil GE-WS 18/150

Ce pulvérisateur électrique est proposé par la marque Einhell. Il est équipé d’un réservoir de 15 litres et fonctionne avec une batterie lithium-ion 18V. Il dispose d’une lance télescopique et d’une buse à jet réglable. Le Einhell Pulvérisateur à pression sans fil GE-WS 18/150 Li-Solo est utilisé pour pulvériser des produits phytosanitaires ou des engrais sur les plantes et les cultures.

VITOPulvérisateur à batterie Lithium 12V/6AH

Ce pulvérisateur électrique est proposé par la marque VITO. Il est équipé d’un réservoir de 16 litres et fonctionne avec une batterie lithium-ion 12V/6AH. Il dispose d’une lance télescopique et d’une buse à jet réglable. Le Pulvérisateur à batterie Lithium VITO 12V/6AH 16L 6 bars Poids léger Chargeur inclus Végetaux jardin toitures peut être utilisé pour pulvériser des produits phytosanitaires ou des engrais sur les plantes et les cultures.

RIBILAND – Pulvérisateur électrique PILA16

Ce pulvérisateur électrique est proposé par la marque Ribiland. Il est équipé d’un réservoir de 16 litres et fonctionne avec une batterie lithium-ion 12V. Il dispose d’une lance télescopique et d’une buse à jet réglable. Le RIBILAND Pulvérisateur PILA16 électrique sur roues 16 Litres batterie 12V est monté sur des roues pour faciliter son déplacement et son utilisation. Il peut être utilisé pour pulvériser des produits phytosanitaires ou des engrais sur les plantes et les cultures.

Einhell – Pulvérisateur à pression sans fil GE-WS 18/75

Ce pulvérisateur électrique est également proposé par la marque Einhell. Il est équipé d’un réservoir de 7,5 litres et fonctionne avec une batterie lithium-ion 18V. Il dispose d’une lance télescopique et d’une buse à jet réglable. Le Einhell Pulvérisateur à pression sans fil GE-WS 18/75 Li-Solo peut être utilisé pour pulvériser des produits phytosanitaires ou des engrais sur les plantes et les cultures, mais sa capacité de réservoir est plus adaptée aux petites surfaces.

Tableau récapitulatif des 7 modèles de pulvérisateurs électriques

ModèleCapacité
réservoir
BatterieLanceBuse jet réglablePrix
Powerjet 210 litres12VOuiOui€€€
RYOBI – Pulvérisateur à Dos 18V ONE+15 litres18VOuiOui€€€
Forum Equipement – Pulvérisateur Électrique PRO SPRAYER28 litresRechargeableOuiOui€€€€
Einhell Pulvérisateur à pression sans fil GE-WS 18/15015 litres18VOuiOui€€€€
Pulvérisateur à batterie Lithium VITO16 litres12V/6AHOuiOui€€€€
RIBILAND Pulvérisateur PILA16 litres12VOuiOui€€€
Einhell Pulvérisateur à pression sans fil GE-WS 18/757,5 litres18VOuiOui€€

A noter que le niveau de prix varie en fonction de la qualité des matériaux, de la puissance et des fonctionnalités supplémentaires de chaque modèle de pulvérisateur électrique.

FAQ

Un pulvérisateur électrique pour votre toiture

Si vous cherchez un pulvérisateur électrique pour toiture, vous avez plusieurs options à considérer. Tout d’abord, il est important de considérer la taille de votre toiture et la hauteur à laquelle vous devrez travailler. Certains pulvérisateurs ont des tuyaux plus longs qui peuvent atteindre des hauteurs plus élevées, tandis que d’autres conviennent mieux aux toits plus petits. Une autre chose à considérer est la puissance de l’appareil. Un pulvérisateur plus puissant peut aider à éliminer plus facilement la saleté et la moisissure sur votre toiture.

Quel pulvérisateur avec de l’eau de Javel ?

Pour choisir le pulvérisateur adapté à l’eau de Javel, il est recommandé d’opter pour un modèle fabriqué en résistance aux produits chimiques. Il est également préférable de choisir un pulvérisateur munis d’un tube d’aspiration allongé, cela permet d’éviter le contact direct avec la solution et facilite ainsi la tâche en termes de nettoyage lors de l’utilisation. Pour ce qui est de la contenance, il est conseillé d’opter pour un modèle de taille moyenne, ni trop petit ni trop grand, ce qui facilitera davantage la manipulation et le nettoyage. Enfin, il est important de noter que les pulvérisateurs doivent être nettoyés et rincés soigneusement après chaque utilisation afin de prolonger leur durée de vie et d’éviter tout risque de corrosion ou d’encrassement. Choisir un pulvérisateur de qualité garantira un nettoyage efficace et sécurisé de vos surfaces.

🏆 Meilleurs scarificateurs électriques (2023) : Guide et comparatif

Meilleurs scarificateurs électriques (2023) : Guide et comparatif

Avez-vous remarqué que votre pelouse ne pousse pas aussi bien qu’auparavant ? Ou peut-être qu’elle est envahie par la mousse et les mauvaises herbes ? Si c’est le cas, il est temps de prendre soin de votre pelouse avec l’aide d’un scarificateur électrique. Cet outil de jardinage a le pouvoir de redonner vie à la pelouse en éliminant les débris végétaux et en aérant le sol pour favoriser la croissance de l’herbe.

Nous allons dans cet article vous expliquer comment fonctionne un scarificateur électrique et pourquoi il est indispensable pour maintenir une belle pelouse tout au long de l’année. Nous vous donnerons également quelques conseils pour faire votre choix ainsi qu’une sélection des meilleurs scarificateurs électriques disponibles pour votre jardin.

Qu’est-ce qu’un scarificateur électrique ?

Un scarificateur électrique est un outil qui a pour objectif d’entretenir et embellir une pelouse. Il s’agit d’un appareil muni de dents qui griffent le sol afin d’éliminer les déchets végétaux et autres résidus qui s’accumulent sur le gazon et qui empêchent l’air, l’eau et les nutriments de bien pénétrer dans la terre. Il permet d’aérer et de décompacter le sol, favorisant ainsi une meilleure croissance du gazon tout en prévenant l’apparition de mousses, champignons et maladies qui pourraient nuire à la santé de la pelouse.

En utilisant un scarificateur électrique régulièrement, vous aurez un gazon en bonne santé qui continue de pousser de façon optimale. Cet outil est indispensable si vous voulez maintenir une belle pelouse à l’année.

Quels sont les avantages d’un scarificateur électrique ?

Le scarificateur électrique offre de nombreux avantages par rapport à son homologue thermique. Tout d’abord, il est plus respectueux de l’environnement car il ne nécessite pas de carburant fossile pour fonctionner. Comme il est moins bruyant et moins polluant que son homologue thermique, il devient donc l’outil idéal pour les quartiers résidentiels.

Le scarificateur électrique est aussi plus facile à utiliser, car il ne nécessite pas d’allumage ni de mise en marche. Cet outil permet d’obtenir un gazon plus sain et plus dense, en éliminant les débris et les mousses qui étouffent la croissance de l’herbe.

Comment choisir son scarificateur électrique ?

Avant de choisir son scarificateur électrique, il est nécessaire de déterminer la superficie à entretenir. Pour une petite pelouse, les modèles les plus simples avec une puissance de 600 W et des lames en acier suffiront.

Pour les grandes pelouses, il faudra opter pour des modèles plus puissants. Les lames sont également importantes, car elles doivent pouvoir pénétrer dans le végétal pour une bonne scarification. Certains modèles intègrent une fonction aérateur pour une meilleure oxygénation des racines. Le guidon est un autre critère de choix, car il autorise une prise en main facile et confortable.

Les scarificateurs thermiques sont réservés aux surfaces très grandes, pour lesquelles les modèles électriques seraient insuffisants. Enfin, certains modèles sont dotés de rouleaux qui permettent de récolter les mousses au fur et à mesure de la scarification.

Quelles sont les caractéristiques du scarificateur électrique ?

Les scarificateurs électriques ont de nombreuses caractéristiques intéressantes. Premièrement, ils sont très faciles à utiliser, car ils ne nécessitent pas de carburant et sont très légers. Ensuite, il y a de multiples modèles commercialisés qui répondent aux différentes tailles de pelouse et de jardins.

La scarification est un travail nécessaire pour maintenir une pelouse saine et le scarificateur électrique peut le faire de manière efficace. Le rapport qualité/prix des scarificateurs électriques est suffisamment bon, car ils sont moins chers que les modèles thermiques, tout en offrant des résultats similaires.

Enfin, ils sont silencieux et ne nécessitent aucun entretien, à l’exception de ranger une rallonge si nécessaire.

Les marques de scarificateur électrique

Bosch reste l’une des marques les plus appréciée en raison de leur qualité de fabrication et de leur durabilité. Leur gamme de scarificateurs électriques est très variée, proposant une large sélection de modèles.

Il existe également d’autres marques comme Einhell, Brast, Ryobi, Greenworks, Ikra et Al-Ko qui fabriquent d’excellents scarificateurs électriques. Ces marques possèdent également des caractéristiques variées et des designs uniques pour répondre à une gamme complète de besoins de jardinage.

Les meilleurs scarificateurs électriques – comparatif 2023

La rédaction propose une sélection des meilleurs scarificateurs 7 modèles à découvrir classés par largeur de travail et puissance. Les principales caractéristiques sont mises en valeur afin que vous puissiez faire le bon choix. Les prix varient entre 120 et 350 euros. Toutes les motobineuses sont disponibles en ligne chez notre partenaire Amazon.

🥇 IKRA – scarificateur aérateur électrique IEVL 1840

Ce modèle de scarificateur électrique dispose d’une puissance de 1800W et est équipé de 18 lames en acier qui permettent de scarifier efficacement la pelouse. Il est également doté de 24 griffes qui aèrent le sol pour favoriser la croissance de l’herbe. Avec un poids de 13,5 kg, il est facile à manœuvrer et dispose d’un bac de ramassage d’une capacité de 55 litres pour collecter les débris végétaux. Le prix de ce scarificateur électrique est dans la tranche des 250€.

🥈 Einhell – Scarificateur électrique RG-SA 1433

Ce scarificateur électrique dispose d’une puissance de 1400W et est équipé de 20 lames en acier inoxydable pour scarifier la pelouse. Il est également doté de 48 griffes en acier qui aèrent le sol pour favoriser la croissance de l’herbe. Ce modèle dispose d’un réglage centralisé de la profondeur de travail et d’un bac de ramassage de 28 litres. Avec un poids de 9,3 kg, il est facile à manœuvrer. Le prix de ce scarificateur électrique est dans la tranche des 170€.

🥉 BRAST – scarificateur électrique – 1800W

Ce modèle de scarificateur électrique dispose d’une puissance de 1800W et est équipé de 20 lames en acier pour scarifier efficacement la pelouse. Il est également doté de 48 griffes en acier qui aèrent le sol pour favoriser la croissance de l’herbe. Ce scarificateur électrique dispose d’un bac de ramassage de 55 litres et d’un réglage de la profondeur de travail sur 6 niveaux différents. Avec un poids de 15 kg, il est facile à manœuvrer. Le prix de ce scarificateur électrique est dans la tranche des 170€.

🥉 Greenworks – râteau scarificateur aérateur Gazon GD40SC36

Ce modèle de scarificateur électrique sans fil dispose d’une puissance de 40V et est équipé de 2 ensembles de lames en acier pour scarifier et aérer efficacement la pelouse. Il dispose également d’un réglage de la profondeur de travail sur 5 niveaux différents et d’un bac de ramassage de 45 litres. Avec un poids de 14,3 kg, il est facile à manœuvrer. Le prix de ce scarificateur électrique est dans la tranche des 230€.

AL-KO – Scarificateur thermique AL-KO Combi Care 38 E

Le Scarificateur AL-KO Combi Care 38 E Comfort est un modèle de scarificateur électrique puissant qui est équipé de 14 lames en acier. Il est doté de 32 griffes en acier qui aèrent le sol pour favoriser la croissance de l’herbe. Ce modèle dispose d’un bac de ramassage de 55 litres et d’un réglage de la profondeur de travail sur 5 niveaux différents. Il est facile à manœuvrer grâce à ses roues larges et son guidon pliable, et son poids de 17 kg lui confère une grande stabilité. Le prix de ce scarificateur électrique est dans la tranche des 170€.,

Bosch – scarificateur électrique – UniversalVerticut 1100

Ce scarificateur électrique dispose d’une puissance de 1100W et est équipé de 14 lames en acier pour scarifier efficacement la pelouse. Il est également doté de 10 griffes en acier qui aèrent le sol pour favoriser la croissance de l’herbe. Ce modèle dispose d’un bac de ramassage de 50 litres et d’un réglage de la profondeur de travail sur 5 niveaux différents. Avec un poids de 12,6 kg, son prix est dans la tranche des 230€.

RYOBI – Scarificateur/Aérateur 1400 W

Ce modèle de scarificateur électrique dispose d’une puissance de 1400W et est équipé de 20 lames en acier pour scarifier la pelouse. Il est également doté de 24 griffes en acier qui aèrent le sol pour favoriser la croissance de l’herbe. Ce modèle dispose d’un bac de ramassage de 45 litres et d’un réglage de la profondeur de travail sur 5 niveaux différents. Avec un poids de 14 kg, il est facile à manœuvrer et son prix est dans la tranche des 200€.

Tableau récapitulatif des 7 modèles de scarificateurs électriques

ModèlePuissance (W)Nombre de lamesNombre de griffesCapacité bac (L)Poids (kg)Prix (€)
IKRA IEVL 1840180018245513,5€€€
Einhell RG-SA 143314002048289,3€€
BRAST 1800W180020485515€€
Greenworks GD40SC3640V2N/A4514,3€€€
AL-KO Combi Care 38 E Comfort130014245514,3€€
Bosch UniversalVerticut 1100110014105012,6€€
RYOBI Scarificateur/Aérateur140020244514€€

Comment entretenir un scarificateur électrique ?

Pour garantir son bon fonctionnement, il est essentiel de le nettoyer et de l’entretenir régulièrement. Tout d’abord, il faut nettoyer régulièrement le carter pour enlever les débris et les résidus d’herbe qui s’accumulent pendant l’utilisation.

Ensuite, il est important de vérifier les lames pour s’assurer qu’elles sont aiguisées et qu’elles ne présentent pas de dommages. Il est également recommandé de vérifier et de nettoyer le filtre à air pour éviter l’accumulation de saleté.

Enfin, il est nécessaire de lubrifier les parties mobiles et de stocker l’outil dans un endroit sec et à l’abri des intempéries. En suivant ces étapes simples, vous pouvez prolonger la durée de vie de votre scarificateur électrique et garantir une pelouse saine et belle.

FAQ / Questions et Réponses

Quelle puissance pour un scarificateur électrique

Un scarificateur électrique est une machine qui permet de retirer le feutrage et la mousse qui s’accumulent sur les pelouses. La puissance de cet outil dépend de la taille de la surface à traiter et de la densité de la mousse et du feutrage. Pour une pelouse de petite taille et peu dense, une puissance de 1000 à 1200 watts est suffisante. Cependant, pour une pelouse plus grande et plus dense, il est préférable d’opter pour un scarificateur électrique avec une puissance allant de 1300 à 1800 watts. Il est important de rappeler que la puissance est un critère important dans le choix du scarificateur. Cependant, il ne faut pas négliger les autres critères tels que la profondeur de travail, la largeur de la lame, la capacité de collecte des déchets et la facilité d’utilisation.

Comment passer le scarificateur électrique

Passer le scarificateur électrique est une tâche importante pour maintenir la santé de votre pelouse. Tout d’abord, assurez-vous que la pelouse est sèche avant de commencer. Ensuite, ajustez la profondeur de la lame en fonction de l’état de votre pelouse. Plus la pelouse est dense, plus la lame doit être profonde. Passez ensuite le scarificateur sur la pelouse en effectuant des mouvements croisés pour obtenir un résultat uniforme. Il est important de ramasser les déchets de l’herbe coupée après le passage du scarificateur pour éviter qu’ils n’étouffent votre pelouse. Enfin, n’hésitez pas à arroser votre pelouse après la tonte pour aider à la récupération. En suivant ces étapes simples, vous pouvez aider à améliorer la santé de votre pelouse grâce au scarificateur électrique.

Comment fonctionne un scarificateur électrique

Un scarificateur électrique fonctionne grâce à une série de lames rotatives qui pénètrent dans le sol pour retirer la mousse, les débris et les racines superficielles du gazon. Le moteur électrique du scarificateur est généralement alimenté par une prise électrique, ce qui permet une utilisation facile et sans effort. Le scarificateur est généralement muni d’un sac de récupération qui permet de collecter les particules indésirables pour que vous puissiez les jeter après utilisation. La profondeur des lames peut être réglée en fonction de l’état de votre pelouse, afin que vous puissiez l’utiliser de manière optimale pour obtenir les meilleurs résultats. Les scarificateurs électriques sont des outils qui peuvent donner des résultats professionnels pour n’importe quel jardinier. Ils sont faciles à utiliser et leur conception ergonomique permet une manipulation pratique dans toutes les situations.

Quand passer le scarificateur sur la pelouse ?

Le scarificateur est un outil très utile pour garder une pelouse saine et dense. Il élimine les couches de chaume et de mousse qui étouffent la pelouse en permettant à l’eau, à l’air et aux nutriments d’atteindre les racines. Mais, il est important de savoir quand passer le scarificateur pour ne pas endommager la pelouse. En général, le meilleur moment pour scarifier la pelouse est en début de printemps ou en automne, lorsque la croissance de la pelouse est la plus active. Cependant, cela dépend également des conditions météorologiques et de l’état de la pelouse. Si la pelouse est très dense, ou si elle présente des taches de mousse ou d’herbe morte, il peut être nécessaire de scarifier plusieurs fois par an. En revanche, si la pelouse est en bonne santé, une seule scarification annuelle suffit. Il est donc important de surveiller régulièrement l’état de la pelouse et de passer le scarificateur au bon moment pour maintenir une pelouse saine et dense.

🏆Meilleures motobineuses électriques (2023) : guide et comparatif

Meilleures motobineuses électriques (2023) : guide et comparatif

Alors que le printemps arrive à grand pas, l’on a très envie de redonner vie à son jardin ou à son potager. Et pour y parvenir efficacement, l’utilisation d’une motobineuse électrique devient incontournable. Toutefois, choisir le meilleur engin peut s’avérer être un véritable casse-tête. Entre la puissance, les fonctionnalités et le budget, il y a beaucoup de critères à prendre en compte pour trouver l’appareil qui conviendra. 

Dans cet article, nous vous donnerons les clés pour choisir votre motobineuse électrique.

Par ailleurs, afin de faciliter ce choix, la rédaction a pris le temps de rechercher différentes motobineuses électriques et d’en évaluer leurs caractéristiques. Nous avons sélectionné les 8 meilleures motobineuses électriques du moment en prenant en compte la qualité, la performance et le prix.

Quel engin pour retourner la terre ?

 Si vous êtes un(e) fervent(e) adepte de jardinage et que vous souhaitez cultiver votre potager, vous savez qu’il est important de bien préparer la terre avant de planter. Pour se faire, il est nécessaire de retourner la terre. Mais quel engin utiliser pour le faire ? Tout dépend de la taille de votre jardin. Si vous avez un petit potager, vous pouvez opter pour une bêche ou une fourche. Si vous avez un grand terrain à cultiver, vous vous vous tournerez plutôt vers une motobineuse ou un motoculteur. Le choix de l’outil dépendra également de la qualité de votre sol : s’il est lourd et argileux, une machine sera plus efficace pour retourner la terre. En revanche, s’il est léger et bien aéré, une bêche pourra suffire.

Motobineuse et motoculteur : différences

La distinction entre une motobineuse et un motoculteur est avant tout liée à leur performance. En effet, la motobineuse est un outil conçu pour travailler sur des petites surfaces ou plate-bande, souvent inférieures à 500 m². Elle est équipée de fraises qui pénètrent le sol pour désherber et aérer la terre en profondeur afin de faciliter la plantation de légumes ou de fleurs. 

Le motoculteur, quant à lui, est destiné à des surfaces plus importantes et doté d’un module de labourage qu’il utilise pour retourner la terre et la préparer à la plantation. Pour pouvoir travailler sur des terrains plus accidentés ou de creuser plus profondément dans le sol, la puissance d’un motoculteur est requise.

La motobineuse est un outil adapté pour les petits travaux de jardinage, tandis que le motoculteur est l’outil pour les jardins ou les champs plus vastes qui nécessitent un travail plus intensif.

Une motobineuse électrique ou thermique ?

Si vous cherchez à retourner le sol de votre jardin afin de planter de nouvelles semences, une motobineuse reste une solution pratique à cet usage. Il existe la motobineuse en 2 versions : électrique et thermique. Si vous voulez une machine respectueuse de l’environnement et à un prix abordable, une motobineuse électrique est certaine la bonne option. Elle est silencieuse, facile à entretenir et à utiliser. 

A contrario, une motobineuse thermique est plus puissante et peut couvrir une surface plus grande, mais elle peut être plus bruyante, plus lourde et plus chère. Si vous devez traiter de grandes zones de terre ou si vous vivez dans une zone rurale où l’électricité est limitée voire inexistante, une motobineuse thermique serait plus appropriée.

À quel moment de l’année faut-il utiliser une motobineuse ?

 L’utilisation d’une motobineuse est essentielle pour préparer son sol avant les cultures. Il est recommandé de l’employer dès la fin de l’hiver et au printemps. C’est le moment idéal pour retourner la terre, éliminer les mauvaises herbes et les racines, aérer le sol et le fertiliser. Le sol est encore mou et l’humidité du printemps assure une meilleure germination des graines.

De plus, l’utilisation de la motobineuse en début de saison permet de gagner du temps et de faciliter les tâches de jardinage ultérieures. Il est également possible d’utiliser une motobineuse à l’automne pour préparer le sol avant l’hiver. Cependant, il ne faut pas l’employer lorsque le sol est trop sec ou lorsque les températures sont trop chaudes, car cela peut endommager le sol et les cultures.

Quelle motobineuse électrique choisir ?

Lorsqu’il s’agit de choisir sa motobineuse électrique, la prise en compte de plusieurs facteurs est essentielle. Tout d’abord, il vous faudra évaluer au préalable la taille du jardin ou du potager, afin de choisir une motobineuse électrique qui convient aux dimensions du terrain.

Ensuite, il est recommandé de se tourner vers des marques reconnues pour leur fiabilité et leur durabilité, telles que Einhell, Masko, Ryobi, Deltafox, Costway, Ikra ou encore Bosch.

Il faut aussi faire attention à la largeur et à la profondeur de travail de la motobineuse électrique, afin de s’assurer qu’elle sera capable de répondre à vos besoins spécifiques en matière de jardinage. La largeur de travail est un élément vital car elle permet de définir la surface de terrain que vous pourrez utiliser. La profondeur de travail définit quant à elle la capacité de la motobineuse à travailler la terre en pénétration. 

Le poids et la maniabilité de l’engin sont des critères importants pour les jardiners qui souhaitent un outil simple et facile à utiliser. Les interrupteurs et le guidon doivent être facilement réglables. Certains modèles sont dotés de caractéristiques supplémentaires, (poignée ergonomique, guidon orientable) et la plupart sont pliables pour faciliter le rangement.

Quelle puissance choisir pour être efficace ?

La puissance d’une motobineuse électrique dépend principalement de la nature et de l’état du sol à travailler. Pour un terrain léger ou moyen, une motobineuse électrique d’une puissance comprise entre 750 et 1500 watts peut suffire à la tâche.

En revanche, pour un sol plus lourd ou dur, il est recommandé d’utiliser une motobineuse électrique plus puissante, avec une puissance allant jusqu’à 2000 watts. La puissance de la machine influe également sur la largeur de travail, car une motobineuse plus puissante pourra travailler sur une plus grande surface en une seule passe. Dans tous les cas, il est important de choisir une motobineuse électrique qui répond aux besoins spécifiques de son jardin ou de sa zone cultivée.

Les meilleures motobineuses électriques – comparatif 2023

La rédaction propose une sélection des meilleures motobineuses avec 8 modèles à découvrir classés par largeur de travail et puissance. Les principales caractéristiques sont mises en valeur afin que vous puissiez faire le bon choix. Les prix varient entre 140 et 250 euros. Toutes les motobineuses sont disponibles en ligne chez notre partenaire Amazon.

Motobineuse électrique 750 W, Largeur 36,5 cm ( DELTAFOX )

La bineuse électrique DELTAFOX est équipée d’un moteur de 750 watts et peut être réglée sur deux largeurs de travail : 19 cm et 36,5 cm. Elle est légère et maniable, avec seulement 8,5 kg environ, et dispose d’une transmission sans entretien et d’un moteur électrique robuste. Le longeron rabattable avec arceau-poignée permet un rangement peu encombrant et un travail qui ménage le dos, tandis que le cache de protection en acier, l’interrupteur de sécurité et le clip de ceinture fournissent une sécurité maximale lors de l’utilisation de la bineuse.

Motobineuse électrique 18 V, Largeur 20 cm ( RYOBI )

Ce produit de bineuse RYOBI est conçu pour ameublir et éliminer les mauvaises herbes des plates-bandes et des parterres de jardin. Il dispose de 4 fraises en métal de 12 dents pour une largeur de travail de 20 cm et une profondeur de travail de 10 cm. Il offre également 3 vitesses de travail pour s’adapter aux différents types de sols. La bineuse dispose également de poignées intelligentes et d’un système de démarrage sécurisé pour une utilisation plus confortable et plus sûre. Le produit est livré avec une garantie de 2 ans, avec une extension d’un an si le produit est enregistré dans les 30 jours suivant l’achat.

Motobineuse électrique 18 V, Largeur 20 cm ( BOSCH )

La motobineuse sans fil TL 1820 de Bosch est légère (3,8 kg avec batterie), maniable et pratique pour l’émiettement, le desserrage et le désherbage. Elle dispose de lames en métal d’une largeur de travail de 20 cm et d’un diamètre de lame de 15 cm, ainsi qu’un indicateur de niveau de batterie intégré dans la poignée.

🥈 Motobineuse électrique 1400 W, Largeur 40 cm ( Einhell )

La motobineuse électrique GC-RT 1440 M est puissante, légère et facile à manier, avec une largeur de travail de 40 cm et une profondeur optimale de 20 cm. La sécurité est primordiale avec un double interrupteur de sécurité et un système anti-arrachement du câble. La maniabilité est optimale grâce à son guidon ergonomique et ses roues réglables en hauteur pour faciliter le déplacement. Enfin, Einhell propose une qualité allemande et une garantie de durabilité pour répondre aux besoins de jardinage jusqu’à 150m².

🥉 Motobineuse électrique 1500 W, Largeur 40 cm ( MASKO )

Cette motobineuse électrique dispose d’un moteur puissant de 1500 watts conçu pour les travaux difficiles sur sol argileux. Les roues de transport permettent un déplacement facile et les poignées ergonomiques assurent un travail sans effort. Les 24 lames rotatives assurent une grande efficacité. Le rangement est facile grâce à son armature robuste et repliable. La motobineuse dispose également de plusieurs dispositifs de sécurité, tels qu’un interrupteur de sécurité et un garde-boue en acier pour éviter les projections de pierres et de terre.

Motobineuse électrique 1500 W, Largeur 43 cm ( Costway )

Cette motobineuse dispose d’un moteur développant 13,5 ampères avec une vitesse maximale de 400 tr/min pour ameublir rapidement les sols les plus durs tout en offrant une bonne stabilité. Il est équipé d’une commande marche/arrêt et un bouton de sécurité ainsi qu’un bouclier pour prévenir les projections. La zone de travail est de 43 cm en largeur et 22 cm de profondeur. Elle est équipée de 6 lames pour creuser des tranchées et installer profondément des plantations. Elle peut être rangé grâce à des boutons rotatifs sur deux positions du châssis et les roulettes peuvent être abaissées.

🥇 Motobineuse électrique 1500 W, Largeur 45 cm ( Einhell )

La motobineuse électrique GC-RT 1545 M Einhell reste un outil léger et maniable d’une puissance de 1500 Watts pour ameublir efficacement les sols. Elle est entraînée par un puissant moteur et 6 fraises de binage qui travaillent la terre jusqu’à 22 cm de profondeur, même dans des sols secs, durs et rocailleux. L’interrupteur de sécurité 2 points arrête les fraises de binage dès qu’on le relâche pour assurer une sécurité optimale. Les roues réglables en hauteur se déplient pour le transport et se rétractent lorsque l’outil est en fonctionnement. Le guidon ergonomique et repliable permet de travailler en tout confort et de ranger la motobineuse avec un faible encombrement.

Motobineuse électrique 1500 W, Largeur 45 cm ( IKRA )

Idéal pour assouplir le sol et pour préparer le lit de semences. La tourbe, les engrais et le compost peuvent être facilement introduits dans le sol avec l’appareil doté de 3 largeurs de travail différentes : 17cm, 30cm et 45cm. La profondeur de travail est de 23 cm. Les 6 fraises dotées chacune de 4 lames démontables pour différentes largeurs de travail. Le moteur de 1500 watts est suffisamment puissant et silencieux.

FAQ / Questions et Réponses

Faut-il désherber avant de passer la motobineuse ?

Il est recommandé de désherber avant de passer la motobineuse car cela permet de faciliter le travail du sol. En effet, les mauvaises herbes peuvent gêner l’action de la motobineuse et provoquer des irrégularités dans le sol, ce qui peut nuire à la croissance des plantes. En enlevant les mauvaises herbes avant de passer la motobineuse, on peut aussi éliminer les racines en profondeur et éviter qu’elles ne repoussent par la suite. De plus, cela permet d’aérer le sol et de le rendre plus fertile. Cependant, il est important de choisir le moment opportun pour désherber afin de ne pas perturber la croissance des plantes déjà en place. Il est recommandé de désherber après les périodes de pluie pour faciliter l’arrachage des mauvaises herbes et de le faire à la main ou à l’aide d’un outil adapté pour éviter d’abîmer les plantes voisines.

Pourquoi opter pour une petite motobineuse ?

Opter pour une petite motobineuse peut être une excellente option si vous avez un petit jardin ou un potager à cultiver. Non seulement ces machines sont moins chères, mais elles sont également plus compactes et plus faciles à manœuvrer. Elles sont idéales pour travailler la terre en vue de la préparation d’un lit de semences ou pour la plantation de petits plants. En outre, leur petite taille permet de travailler dans des endroits difficiles d’accès, tels que les allées étroites ou les coins du jardin. De plus, elles sont plus économiques en termes de consommation de carburant et d’entretien.

Quel est le poids d’une motobineuse électrique ?

Le poids d’une motobineuse électrique varie en fonction du modèle et de la capacité du moteur électrique. En général, les motobineuses électriques sont plus légères que les versions à essence, car elles ne nécessitent pas de réservoir de carburant ou d’autres composants lourds. Le poids de la plupart des motobineuses électriques oscille entre 10 et 20 kg. Le poids de la machine est également influencé par la largeur de travail de la motobineuse, ainsi que par les caractéristiques de la terre à travailler. Les motobineuses électriques sont de plus en plus appréciées pour leur légèreté, leur facilité d’utilisation et leur faible impact environnemental, offrant ainsi une solution pratique et durable pour le travail du sol dans les jardins, les potagers ou les petites exploitations agricoles.

Vous souhaitez créer un gazon ?

Si vous souhaitez créer un gazon, il est important de commencer par préparer le sol. Enlevez toutes les racines, pierres, débris et autres éléments qui pourraient empêcher la croissance de l’herbe. Ensuite, ajoutez un peu de compost ou de terreau pour aider à améliorer la qualité du sol. Il est essentiel de bien arroser le sol avant de semer les graines afin de permettre une bonne germination. Une fois les graines semées, il est important de maintenir le sol humide pour que les graines puissent germer et pousser correctement. N’oubliez pas de tondre régulièrement le gazon une fois qu’il a un peu poussé pour encourager une croissance saine. En suivant ces étapes, vous pouvez créer un beau gazon pour votre maison ou votre jardin.

Un catalyseur pour capturer le CO2 de l’air et le transformer

Un catalyseur pour capturer le CO2 de l'air et le transformer

Les scientifiques et les ingénieurs travaillent sans relâche pour trouver des solutions innovantes et durables. Une équipe de chercheurs de l’Institut de technologie de Géorgie (Georgia Tech) a récemment mis au point un procédé prometteur qui pourrait révolutionner la capture directe du dioxyde de carbone (CO2) dans l’air et sa transformation en matière première utilisable.

Un catalyseur et un réacteur électrochimique novateurs

Les ingénieurs de Georgia Tech ont conçu un nouveau type de catalyseur et de réacteur électrochimique qui peut être facilement intégré aux systèmes de capture directe du CO2 existants. Cette approche réduit considérablement le coût et l’énergie nécessaires à ces systèmes, améliorant ainsi l’économie d’un processus que les chercheurs considèrent comme essentiel pour lutter contre le changement climatique.

Le catalyseur à base de nickel, associé à un assemblage d’électrodes à membrane bipolaire, permet d’extraire le CO2 des bicarbonates directement à côté du catalyseur, qui le convertit ensuite en monoxyde de carbone (CO) gazeux. Cette manœuvre combine deux étapes en une seule, ce qui permet d’économiser environ 90% de l’énergie nécessaire au processus de capture et environ 50% du coût en capital.

Une efficacité d’utilisation du CO2 doublée

Le système conçu par l’équipe de Marta Hatzell est extrêmement efficace pour utiliser tout le CO2 qui traverse le réacteur. Selon Hakhyeon Song, chercheur postdoctoral, leur configuration est deux fois plus efficace que les systèmes à base de gaz, avec une efficacité d’utilisation du CO2 de près de 70%, contre 35% pour les systèmes à base de gaz.

Credit: Georgia Institute of Technology

De plus, le catalyseur fonctionne bien dans un environnement acide, ce qui était une limitation des systèmes existants utilisant des membranes bipolaires. Le nouveau catalyseur à base de nickel supprime les interférences liées à la réaction d’évolution de l’hydrogène qui entre en concurrence avec la réaction de réduction du CO2 en CO.

Le monoxyde de carbone, une base pour de nombreux produits chimiques

La production de monoxyde de carbone à partir du CO2 capturé dans l’air est un processus complexe et intensif. Cependant, si elle est réalisée de manière économique, la matière première obtenue pourrait être intégrée aux processus chimiques existants et transformée en nouveaux produits utiles.

Selon Carlos Fernández, doctorant, le CO a été choisi car il constitue une bonne base pour presque tous les produits chimiques à base de carbone. À partir du CO, il est possible de produire des plastiques, des produits chimiques industriels importants comme l’éthylène, et peut-être même du carburant pour avions à l’avenir, grâce à des processus thermochimiques.

L’équipe de chercheurs travaille désormais sur l’établissement de ces connexions entre le CO produit et les processus industriels existants, afin de concrétiser le potentiel de cette technologie innovante dans la lutte contre le changement climatique.

Légende illustration : Le dispositif expérimental utilisé par les chercheurs du laboratoire de Marta Hatzell pour tester leur nouveau réacteur électrochimique pour la capture du carbone. Crédit : Candler Hobbs

Hakhyeon Song et al, Integrated carbon capture and CO production from bicarbonates through bipolar membrane electrolysis, Energy & Environmental Science (2024). DOI: 10.1039/D4EE00048J

La corrosion des matériaux enfin visible dans les systèmes de sel fondu

La corrosion des matériaux enfin visible dans les systèmes de sel fondu

Des chercheurs américains ont mis au point une nouvelle technique permettant, pour la première fois, d’observer directement la corrosion des matériaux dans un système de sel fondu à haute température. Cette avancée permettrait l’acquisition de données pour la conception de systèmes énergétiques durables, comme les réacteurs nucléaires de nouvelle génération, le stockage d’énergie thermique et les centrales solaires à concentration.

L’équipe de chercheurs, dirigée par Adrien Couet, professeur associé en ingénierie nucléaire et physique de l’ingénierie à l’Université du Wisconsin-Madison, a détaillé sa méthode dans un article publié dans la revue Nature Communications.

La technique exposée repose sur la spectrométrie gamma pour suivre précisément la corrosion et le transport des matériaux dans un système complexe de sel fondu en écoulement, sans être affecté par les défis liés à la surveillance d’un environnement dynamique à haute température.

Le sel fondu, ou liquide, présente un grand intérêt pour l’énergie solaire en raison de sa capacité à stocker la chaleur du soleil pour une utilisation ultérieure. Les réacteurs nucléaires avancés pourraient également utiliser le sel fondu comme réfrigérant, ce qui les rendrait potentiellement plus petits, plus sûrs et plus économiques que les centrales nucléaires actuelles. Cependant, le sel fondu est hautement corrosif, ce qui entraîne une usure des métaux en contact avec lui.

Grâce à leur technique, les chercheurs ont pu mesurer le taux de récession de l’acier inoxydable et ont également découvert que le matériau se corrodait principalement d’une manière inattendue par rapport aux études de corrosion classiques sans traceurs in-situ. Ces données sont essentielles pour aider les concepteurs à planifier des systèmes énergétiques utilisant du sel fondu qui peuvent s’adapter à la corrosion des matériaux, ainsi que pour concevoir et tester des matériaux qui se corrodent moins.

Adrien Couet souligne l’importance du travail d’équipe parmi les collaborateurs pour surmonter les défis logistiques posés par ce projet. Les chercheurs ont dû réaliser diverses étapes du processus dans plusieurs installations du campus de l’UW-Madison, y compris dans des laboratoires équipés des blindages anti-radiation nécessaires, et tout cela en moins d’une semaine pour garantir la détection des rayons gamma pendant une durée utile.

Légende illustration : Le co-auteur de l’article, Cody Falconer (MSMSE ’20, PhDMSE ’22), qui travaille maintenant chez TerraPower, un collaborateur industriel de ce projet, est photographié avec la boucle de sel fondu dans le laboratoire avec les détecteurs de rayons gamma. Photo avec l’aimable autorisation d’Adrien Couet.

L’équipe a détaillé sa méthode dans un article publié le 10 avril 2024 dans la revue Nature Communications.

Assurance auto électrique : les clés pour dénicher la meilleure offre

Assurance auto électrique : les clés pour dénicher la meilleure offre

L’essor des véhicules électriques en France s’accompagne également d’une évolution des offres d’assurance automobile. Les assureurs adaptent en effet leurs contrats pour répondre aux spécificités de ces nouveaux modèles, tout en proposant des tarifs attractifs et des garanties sur mesure.

Un marché en pleine croissance

Les ventes de voitures électriques ont atteint un niveau record en France en 2023, représentant désormais plus d’un quart des nouvelles immatriculations *. Cette tendance s’explique par plusieurs facteurs, notamment la prise de conscience écologique des consommateurs, les incitations fiscales et les progrès technologiques réalisés par les constructeurs automobiles.

Si l’assurance automobile est obligatoire pour tous les véhicules en France, y compris les modèles électriques, les contrats proposés par les compagnies d’assurance ( comme l’ Offre MAIF ) tiennent compte des particularités de ces derniers.

Des tarifs souvent plus avantageux

Contrairement aux idées reçues, l’assurance d’un véhicule électrique est souvent moins chère que celle d’un modèle thermique équivalent. La différence s’explique principalement par un taux de sinistralité plus faible, lié à une utilisation majoritairement urbaine et à des distances parcourues plus courtes en raison de l’autonomie limitée des batteries.

Par ailleurs, certains assureurs proposent des réductions spécifiques pouvant aller jusqu’à 25% pour récompenser les conducteurs ayant fait le choix de la mobilité durable.

Des garanties spécifiques à prendre en compte

Au-delà des garanties classiques comme la responsabilité civile et la protection du conducteur, l’assurance d’un véhicule électrique doit prendre en compte certains éléments propres à cette motorisation. Parmi les points d’attention figurent notamment :

– La couverture de la batterie, élément coûteux dont le remplacement peut s’avérer onéreux en cas de panne ou d’accident.
– L’assistance 0 km, indispensable en cas de panne d’énergie à proximité du domicile.
– La prise en charge des dommages liés à un problème électrique lors de la recharge du véhicule.

Il est donc essentiel de bien étudier les différentes formules proposées par les assureurs et de choisir celle qui correspond le mieux à ses besoins et à son profil de conducteur.

Les critères de choix d’une assurance adaptée

Avec la prolifération des offres d’assurance pour les véhicules électriques, il est parfois complexe de naviguer parmi les différentes options et de prendre la décision la plus judicieuse. Voici quelques éléments clés à considérer pour choisir l’assurance qui correspondra le mieux à votre véhicule électrique et à vos besoins spécifiques.

Comme pour un véhicule thermique, il existe différents niveaux de couverture allant de la simple responsabilité civile (assurance au tiers) à l’assurance tous risques. Le choix dépendra notamment de l’âge et de la valeur du véhicule, ainsi que des besoins spécifiques du conducteur. Pour un modèle récent et coûteux, il est généralement recommandé d’opter pour une formule étendue incluant un maximum de garanties.

Au-delà des garanties classiques, certains assureurs proposent des services d’assistance spécifiques aux véhicules électriques. Il peut s’agir par exemple d’un remorquage vers la borne de recharge la plus proche en cas de panne de batterie, ou encore du prêt d’un véhicule thermique lors d’un trajet dépassant l’autonomie du modèle électrique. Ces prestations peuvent s’avérer très utiles au quotidien et méritent d’être prises en compte dans le choix de son contrat.

* Données fournies par l’organisme Filière Automobiles & Mobilités (PFA)

Controverses autour de l’hydroélectricité : UNITe – HYDROWATT répond

Controverses autour de l'hydroélectricité : UNITe - HYDROWATT répond

L’hydroélectricité, cette énergie renouvelable méconnue, occupe une place de choix dans le paysage énergétique français. Avec une puissance installée de 25,7 GW en France métropolitaine, soit environ 20% de la puissance électrique totale du pays, l’hydroélectricité se positionne comme la deuxième source de production électrique derrière le nucléaire et la première source d’électricité renouvelable.

Le groupe UNITe – HYDROWATT, avec près de 40 ans d’expérience dans les domaines de l’hydroélectricité, de l’éolien et du photovoltaïque, constitue un acteur majeur de la production d’électricité renouvelable en France. Cependant, l’énergie hydroélectrique fait parfois l’objet de critiques, souvent dogmatiques et erronées.

Alexandre Albanel et Stéphane Maureau, respectivement expert en hydroélectricité depuis plus de 15 ans et dirigeant du Groupe UNITe – HYDROWATT, ont décidé de rétablir quelques vérités au sujet des petits aménagements hydroélectriques. Leur objectif : faire mieux connaître, comprendre et apprécier cette précieuse énergie renouvelable.

À propos de l’utilité de l’hydroélectricité

« L’hydraulique, à part les grandes installations de pointe, ça ne représente pas grand-chose en France » … FAUX

L’hydroélectricité est la première source d’électricité renouvelable en France et la deuxième source d’électricité française après le nucléaire, elle couvre environ 10 % de l’électricité consommée. Le parc hydraulique français compte plus de 2 500 installations, dont plus de 90 % sont des aménagements au fil de l’eau2. Environ 2 300 de ces installations sont des petites centrales, ancrées dans les territoires, détenues notamment par des producteurs privés. La production générée par ces petites installations est équivalente à celle d’un réacteur nucléaire, soit l’alimentation électrique de 1,3 millions de foyers ! Les petits ruisseaux font des grandes rivières, et chaque kWh renouvelable compte pour notre indépendance énergétique.

La production hydraulique des petites installations est une source d’énergie importante en France.

« L’hydraulique a un rôle marginal dans la transition écologique énergétique » … FAUX

L’évolution de nouvelles capacités en hydraulique est certes moins rapide que des énergies plus nouvelles comme le photovoltaïque, mais l’hydroélectricité conservera une place essentielle au sein du mix énergétique du futur. De plus, en termes de mix énergétique, l’hydroélectricité apporte une stabilité nécessaire pour permettre l’absorption des autres énergies électriques intermittentes.

L’hydroélectricité apporte une contribution importante à l’objectif français de production d’électricité renouvelable.

« Maintenant que les réseaux sont interconnectés, il n’est plus pertinent de produire de l’électricité en fond de vallées » … FAUX

Quand nous produisons de l’énergie de façon centralisée, notamment grâce au nucléaire, nous subissons de fortes pertes d’énergie sur les réseaux électriques de transport et de distribution. C’est un équivalent de plus de deux millions de foyers en électricité qui est perdu. Ces pertes sont réduites quand on rapproche les lieux de production et de consommation, ce qui est le cas avec la production décentralisée des petites installations réparties sur le territoire. De plus, la régulation dispatchée de l’énergie réactive produite en différents points du réseau permet de maintenir une meilleure stabilité du réseau national.

L’énergie décentralisée des centrales est bonne pour l’efficacité du réseau électrique

À propos de la compatibilité de l’hydroélectricité et du respect de l’environnement

« Compte-tenu des atouts des énergies éolienne et photovoltaïque, il n’est pas intéressant de développer une énergie ancienne comme l’hydroélectricité » … FAUX

C’est vrai que l’énergie hydraulique est très ancienne. Ceci est un atout, car cette technique bénéficie d’un très grand retour d’expérience ; cela ne réduit en rien le fait que c’est une des énergies renouvelables d’avenir. La production d’une centrale hydroélectrique a une forte prévisibilité, ce qui est très appréciable pour la bonne gestion de l’équilibre du réseau électrique et pour la stabilité du marché de l’électricité. Par ailleurs, les métiers liés à la préservation du parc existant et au développement régulier de nouveaux aménagements permettent de conserver le véritable savoir-faire français en maintenance industrielle et en génie hydraulique, mécanique et électrique. Ces métiers, ancrés dans les territoires des petits exploitants, participent au maintien de ces compétences en France qui sont aussi transmises aux générations futures. Enfin, le besoin d’énergie décarbonée sera tellement important à l’avenir qu’il est nécessaire de développer toutes les sources disponibles !

En plus des autres nouvelles énergies renouvelables, il est essentiel de conserver notre parc de centrales hydroélectriques existant et de le développer.

« L’eau prise par les turbines nuit au fonctionnement naturel des ruisseaux » … FAUX

La plus grande majorité des aménagements fonctionnent au fil de l’eau et restituent intégralement l’eau à la rivière, avec une qualité physico chimique identique, en temps réel. À l’échelle de la rivière, la continuité des flux d’eau est donc assurée. De nombreuses installations hydroélectriques fonctionnent depuis longtemps, sur des sites où l’eau est aujourd’hui évaluée comme étant en « bon ou très bon état écologique » (au sens de la DCE – Directive Cadre européenne sur l’Eau). Le principal facteur de dégradation de la qualité de l’eau constatée en France n’est pas dû aux sites hydroélectriques, mais à des pollutions chimiques. La cause se trouve donc ailleurs.

Sur le tronçon de rivière sur lequel une partie de l’eau prélevée pour être turbinée, un débit réservé minimum est laissé à la rivière. Il est suffisant pour minimiser les incidences sur les milieux aquatiques et permet le respect des autres usages de la rivière (loisirs, raft, canoë, soutien d’irrigation, soutien d’étiage en été, dilution de rejet de station d’épuration). Les différentes analyses, études d’incidences et mesures de suivi produites par le bureau d’études missionné par le producteur, puis vérifiées par l’Administration, le garantissent. Les règles spécifiques pour chaque installation sont consignées dans un Arrêté Préfectoral public qui est revu régulièrement au cours de la durée de vie de cette dernière.

Il a même été remarqué que sur des aménagements de hautes chutes, la présence de centrales hydroélectriques a un effet très protecteur, car le fait d’écrêter les crues sur les linéaires de rivières (dont une partie du débit est dérivé) permet de limiter positivement l’effet « chasse d’eau » des crues, dévastateur pour le bon état naturel de la rivière.
L’eau prélevée et rendue aux rivières par les installations hydroélectriques est compatible avec une vie équilibrée de la rivière.

« Les turbines transforment les poissons en sushi » … FAUX

Les technologies ont réalisé d’énormes progrès durant les dernières décennies. Le renouvellement régulier des Droit d’eau sur les aménagements existants et pour l’autorisation de tous les nouveaux sites a permis d’équiper de grilles toutes les prises d’eau afin d’éviter que les poissons rentrent dans les turbines. Cette législation intervient également sur les plus gros aménagements fluviaux, lors des périodes où les poissons migrateurs dévalent les rivières (pendant les crues principalement) à travers des modalités spécifiques de turbinage appliquées avec efficacité pour préserver les poissons. Par ailleurs, pour les installations de basses chutes, de nouvelles turbines à vitesse de rotation lente existent et laissent passer les poissons entre leurs pales.

Les centrales hydroélectrique modernes préservent les poissons dévalant les rivières.

« L’eau dérivée par les centrales nuit aux milieux aquatiques et à la vie piscicole » … FAUX

Une étude d’incidences environnementale complète est systématiquement réalisée afin d’identifier les sujets à traiter pour une bonne maitrise de l’impact environnemental, en appliquant la méthode ERC (Eviter, Réduire, Compenser). Ce principe permet d’éviter au mieux les atteintes à la biodiversité et aux services qu’elle fournit et, à défaut, d’en réduire la portée. Il permet aussi de compenser les atteintes qui n’ont pu être évitées ni réduites, en tenant compte des espèces, des habitats naturels et des fonctions écologiques affectées.

Eviter : Les mesures envisagées peuvent concerner des choix fondamentaux liés au projet (évitement géographique ou technique). Il peut s’agir par exemple de modifier le tracé d’une conduite d’eau ou d’un canal pour éviter une zone Natura 2000 ou des zones d’habitat d’espèces protégées.

Réduire : Des mesures sont prises pour réduire les incidences (débits réservés à la rivière, grilles fines, implantation des ouvrages, …) pour favoriser l’intégration de l’aménagement dans son environnement. Pour mesurer l’efficacité dans le temps des mesures prises, il est pratiqué un suivi environnemental régulier pour voir les évolutions. Il est aussi important de constater que l’aménagement du territoire par l’homme, quand il est bien inspiré, engendre des bénéfices pour la préservation de notre environnement ; l’été dernier, très sec, les petites retenues d’eau associées aux barrages ont constitué des refuges favorables à la préservation des différentes espèces aquatiques présentes dans la rivière.

Compenser : S’il existe une incidence résiduelle, une compensation peut être initiée sur site ou sur une autre zone plus propice avec plus de résultat/bénéfice attendu (création d’une zone humide favorable à une plus grande biodiversité par exemple).

Les aménagements hydroélectriques d’aujourd’hui sont compatibles avec leur environnement naturel.

« C’est à cause de l’hydroélectricité que certains de nos cours d’eau sont en mauvais état » … FAUX

Dans nos rivières, il est déplorable de constater qu’il y a une grande quantité de poissons atteints de maladies ou de malformations, que des espèces migratrices sont en voie de disparition, et que l’on assiste à un recul de la biodiversité. Les petites installations hydroélectriques multi centenaires n’avaient jamais connu cette situation autour d’elles dans leur histoire. Elles sont des cibles faciles, car elles sont visibles, mais attention à ne pas se tromper de combat ; il est important d’identifier les vraies causes insidieuses, à commencer par la pollution des rivières (qualité de l’eau, résidus médicamenteux, engrais nocifs, rejets chimiques, déchets), le réchauffement naturel des cours d’eau, les nouvelles espèces invasives ou prédatrices dévastatrices (oiseaux et poissons carnassiers), le phénomène de surpêche et les prélèvements d’eau. Notons par ailleurs qu’un certains nombres d’aménagements hydroélectriques ont l’avantage de permettre de retirer les gros déchets flottants des rivières.

C’est à cause de certaines dérives de nos modes de vie que nos cours d’eau sont en mauvais état, et non pas à cause des centrales hydroélectriques.

« Avec le réchauffement climatique, l’hydro a moins d’intérêt, car la production va baisser » … FAUX

Les installations au fil de l’eau produisent historiquement le plus sur certaines saisons ; fontes de neiges pour celles en montagnes et pluies pour celles de plaines. Ces dernières années, sur l’ensemble du territoire, nous avons constaté une disparité des périodes saisonnières usuelles et de brusques intensités de production du fait de la météo, mais nous ne constatons pas de diminution globale du flux d’eau. Afin de s’adapter, les hydroélectriciens pourront changer les calibres des turbines pour optimiser la production dans les nouvelles conditions climatiques, par exemple en ajoutant de plus petites turbines pour capter les petits débits des étiages plus longs, ou de plus grosses turbines pour profiter du fort volume rapide des fortes eaux.

Les centrales hydroélectriques sont capables de s’adapter aux changements climatiques.

« Les tuyaux d’eau qui transportent l’eau en montagne, c’est très moche » … OUI MAIS

Les anciennes conduites forcées, qui ont émergé lors de l’essor industriel de nos vallées, sont encore visibles pour un certain nombre d’aménagements historiques. Aujourd’hui, pour les nouveaux sites et pour la rénovation des anciens sites, les tuyaux sont quasi systématiquement invisibles car enterrés.

Les sondages sur les énergies renouvelables (IFOP d’octobre 2021) montrent que 9 Français sur 10 ont une bonne image de l’hydroélectricité3. 92% des Français jugent « souhaitable » d’en faire (Ipsos-Sopra Steria pour France Télévisions).

« Le retour à l’état des rivières sauvages d’origine, sans traces de l’homme est souhaitable » … FAUX

De quel état originel parle-t-on ? Notre espace naturel, tout comme les rivières et les écosystèmes, a évolué au fil du temps et il n’y a pas de référentiel utopique idéal. L’homme a interagi avec son environnement pour ses besoins légitimes (alimentation en eau, pêche, navigation, énergie, agriculture, protection contre inondations) et cette symbiose naturelle est pérenne si nous conservons cet équilibre en respectant la nature. Nos amis castors bâtisseurs de retenues l’ont aussi expérimenté (!).

Des centrales conçues en synergie avec leur environnement sont bonnes pour le bien commun.

À propos de la compétitivité de l’hydroélectricité

« L’hydroélectricité est une énergie chère à produire » … FAUX

Avec le maintien ou le renouvellement de notre parc nucléaire et ses coûts induits, les prix des marchés de l’électricité montrent que les énergies renouvelables sont désormais compétitives. De plus, dans le cas de l’hydroélectricité, la durée de vie des infrastructures est très longue, si bien que lorsque l’on considère la production à long terme, le réel prix moyen actualisé de l’énergie produite (LCoE) est très compétitif.

L’hydroélectricité est une énergie locale, durable et compétitive.

« Les petits aménagements appartiennent à des privés, qui utilisent le bien commun qu’est l’eau pour leurs profits » … FAUX

Les tarifs d’achat de l’électricité aux producteurs sont fixés par l’Etat, sous le contrôle de la Commission de Régulation de l’Energie (CRE), de façon à garantir une rémunération normale des capitaux investis. Il n’y a donc pas d’effet d’aubaine. Lorsque les prix de marché de l’électricité sont élevés, c’est l’Etat qui bénéficie des survaleurs, tandis que les producteurs privés conservent le revenu suffisant pour une bonne exploitation normale de leurs investissements. De plus, quand on additionne les taxes, les longs remboursements d’investissements, les emplois générés de façon directe ou indirecte, les charges financières … il apparait que l’Etat est bien le premier bénéficiaire de la création de valeur.

La création de valeur engendrée par les installations hydroélectriques privées profitent bien à tous.

« Cela coûte cher en subventions et aides publiques » … FAUX

À l’époque où les coûts de l’énergie étaient bas en France, de l’argent public a été nécessaire pour entretenir les centrales et maintenir le savoir-faire de la filière. Cela a eu pour effet de favoriser la rénovation, la modernisation et la construction neuve d’aménagements hydroélectriques. Aujourd’hui, ce sont les énergies renouvelables qui sont compétitives sur le marché et apportent des recettes à l’Etat, non l’inverse. Les montants sont très importants : la Commission de Régulation de l’Energie (CRE) indique que, dans les conditions actuelles, toutes les filières d’énergies renouvelables en métropole continentale ont généré des recettes pour le budget de l’Etat à hauteur de plus de 30 Milliards d’euros au titre des années 2022 et 2023. Les filières contributives sont : l’éolien terrestre, le photovoltaïque, l’hydroélectricité et le biométhane. Fin 2024, les EnR auront rapporté plus à l’Etat qu’elles n’ont coûté depuis qu’elles sont soutenues !

Les énergies renouvelables sont compétitives et rapportent de l’argent à l’Etat.

« Les communes ne gagnent rien » … FAUX

La production d’électricité hydroélectrique est soumise à l’IFER, qui est un impôt prélevé au profit des collectivités territoriales. Une partie de cet IFER est reversée directement aux communes sur lesquelles se situent les installations. De plus, plusieurs sites paient des redevances aux communes, car ils sont implantés en partie sur du foncier communal, ce qui peut représenter une part importante du budget annuel d’une Mairie. Par ailleurs, un maintien local du savoir-faire de maintenance technique est aussi apprécié.

Les communes où sont implantées des centrales hydroélectriques y trouvent leur intérêt.

L’hydroélectricité, une technologie d’avenir ?

« Il n’y a plus de potentiel hydroélectrique en France, les sites propices existants non développés ne sont pas rentables, car les meilleurs sont déjà équipés » … FAUX

L’étude de potentiel 2022 mis en ligne par le Ministère fait état d’un potentiel hydroélectrique restant en France de 650 MW en sites vierges et de 370 MW sur les barrages existants non équipés. Ce qui est très important. Malheureusement, plus de 75% de ce potentiel est non accessible à ce jour car sanctuarisé de façon conservative en prévention sur la biodiversité. C’est pourquoi les industriels du secteur proposent de faire évoluer la réglementation en faisant des études pragmatiques au cas par cas afin de n’équiper que les sites propices sur lesquels la compatibilité avec le respect de l’environnement est satisfaisante. Les nouvelles technologies employées permettent ce développement équilibré. Un projet met entre 7 à 10 ans à se développer aujourd’hui en France, ce qui fait partie des records européens peu glorieux …

Il reste un important potentiel hydroélectrique inexploité en France ; il serait pertinent de construire de nouveaux sites.

« Il vaut mieux optimiser l’existant que créer des nouveaux sites » … FAUX

Les deux mon capitaine ! Optimiser les sites existants est nécessaire pour améliorer ce qui peut l’être, de façon plus simple, mais créer de nouveaux sites est devenu incontournable pour faire face à nos besoins croissants d’énergie décarbonée. Les prévisions indiquent une hausse de +30% des besoins en électricité d’ici 2025 : quelle énergie veut-on pour le futur ?

Il faut non seulement optimiser les sites hydroélectriques existants mais aussi créer de nouveaux sites.

« Il vaut mieux supprimer les barrages non équipés que faire des centrales» … FAUX

Les barrages permettent de limiter la propagation des maladies et des espèces invasives dans la rivière. Les retenues associées permettent l’épuration des nitrates et d’éviter la diffusion d’éventuels anciens sédiments contaminés. Nous notons également l’augmentation de la biodiversité (libellules, amphibiens, oiseaux migrateurs) quand la rivière est ponctuée de retenues. Détruire un ouvrage construit utilement par nos anciens est un coût pour la collectivité. Alors qu’y adjoindre une centrale est un investissement pour le futur. Cela permet aussi la préservation de notre autonomie énergétique dans le temps, alors préservons notre potentiel !

Avec la montée croissante du coût de l’énergie, nous constatons que nombre de sites non rentables auparavant deviennent intéressants. Les Agences de l’Eau subventionnent de façon privilégiée les destructions de retenues avec des subventions accordées de l’ordre de 80% alors qu’une passe à poissons n’est supportée qu’à 50%.

Équiper les ouvrages existants avec des aménagements hydroélectriques est une bonne vision industrielle pour la pérennité de notre avenir énergétique.

Pour conclure

Le développement des énergies renouvelables contribue à « satisfaire le besoin croissant d’énergie de l’humanité » et de « respecter de l’environnement pour les générations futures ». Ce double enjeu est la raison d’être d’UNITe : évacuons les arguments faux ou surannés et les polémiques stériles. La maitrise des énergies renouvelables, dont l’hydroélectricité, est l’une des plus belles raisons d’être solidaires et optimistes face aux défis actuels.

Légende illustration : Une vue panoramique du barrage Hoover (USA) depuis l’Arizona montrant les tours d’entrée d’eau et l’entrée du déversoir du côté du Nevada. Crédit : Wikipedia

Recyclage solaire simplifié : la promesse des soudures laser

Recyclage solaire simplifié : la promesse des soudures laser

Les chercheurs du Laboratoire national des énergies renouvelables (NREL) du Département de l’Énergie des États-Unis ont mené une étude de preuve de concept révélant que l’utilisation de lasers femtosecondes pour former des soudures verre-verre dans les modules solaires faciliterait leur recyclage.

Élimination des feuilles de polymère plastique

Actuellement, les modules solaires sont fabriqués en laminant des feuilles de polymère plastique entre les cellules solaires et les plaques de verre. Bien que ces polymères assurent la cohésion de l’ensemble, ils compliquent considérablement le processus de recyclage. Les soudures au laser femtoseconde permettraient de se passer complètement de ces polymères.

Comme l’explique David Young, scientifique principal et responsable du groupe Photovoltaïque Cristallin à Haut Rendement du département Chimie et Nanosciences du NREL, « la plupart des recycleurs confirmeront que les polymères sont le principal obstacle au recyclage ».

Un recyclage facilité en fin de vie

Grâce aux soudures laser, les modules solaires en fin de vie pourront simplement être brisés. Le verre et les fils métalliques traversant les cellules solaires seront alors aisément recyclables, tandis que le silicium pourra être réutilisé.

La technique est applicable à tout type de technologie solaire, qu’il s’agisse de silicium, de pérovskites ou de tellurure de cadmium. En effet, la chaleur de la soudure reste confinée à quelques millimètres du point focal du laser, préservant ainsi l’intégrité des matériaux semi-conducteurs.

Des soudures aussi résistantes que le verre

Les recherches du NREL ont démontré que les soudures verre-verre réalisées au laser femtoseconde sont essentiellement aussi solides que le verre lui-même. « Tant que le verre ne se brise pas, la soudure ne cédera pas », affirme Young.

Toutefois, l’absence de polymères entre les plaques de verre nécessite des modules soudés beaucoup plus rigides. L’étude a montré qu’avec un montage approprié et une modification des caractéristiques en relief du verre laminé, un module soudé pouvait être suffisamment rigide pour réussir les tests de charge statique.

Une première dans l’industrie solaire

Les travaux du NREL constituent la première utilisation d’un laser femtoseconde pour former des soudures verre-verre destinées à un module solaire. Par le passé, un autre type de scellement des bords utilisant des lasers nanosecondes et un matériau de remplissage en fritte de verre avait été testé, mais les soudures s’étaient avérées trop fragiles pour être utilisées dans des conceptions de modules d’extérieur.

Les soudures au laser femtoseconde offrent quant à elles une résistance supérieure avec une étanchéité hermétique, le tout à un coût intéressant. Bien que qualifiée de «risquée mais à fort potentiel» par Young, cette recherche ouvre la voie à de futures avancées visant à prolonger la durée de vie des modules solaires au-delà de 50 ans et à faciliter leur recyclage.

David L. Young et al, Towards Polymer-Free, Femto-Second Laser-Welded Glass/Glass Solar Modules, IEEE Journal of Photovoltaics (2024). DOI: 10.1109/JPHOTOV.2024.3364823

Leads panneaux solaires photovoltaïques : optimisez votre acquisition client

Énergie : comment maximiser votre ROI grâce au marketing digital ?

Face à des marchés en pleine mutation et à une concurrence accrue, les entreprises doivent redoubler d’efforts pour attirer et fidéliser une nouvelle clientèle. La génération de prospects (ou leads) qualifiés devient par conséquent un enjeu majeur pour optimiser leur efforts commerciaux et assurer un retour sur investissement maximal.

Au-delà des différents leviers classiques déjà existants, les entreprises ont maintenant la possibilité de s’appuyer sur des solutions innovantes afin d’optimiser leur génération de prospects. C’est notamment le cas de Conversociads©, développée par la société hipto.com, qui s’impose comme l’une des références sur le marché en accompagnant plus de 100 clients.

Des taux de conversion supérieurs à la moyenne du marché

Conversociads© combine en effet la puissance des audiences des réseaux sociaux avec des technologies conversationnelles de pointe pour collecter un maximum de données pertinentes tout au long du parcours de vente.

La solution s’articule autour de trois piliers : les publicités sociales pour capter les bons prospects, la conversation pour comprendre leurs besoins et attentes, et la conversion pour fournir des leads prêts à être transformés.

Grâce à Conversociads©, les clients de hipto, issus de divers secteurs comme l’assurance, la télécommunication, l’immobilier, le BTP, la formation, etc. bénéficient de prospects exclusifs, ultra qualifiés et conformes au RGPD.

Ils profitent également de taux de conversion supérieurs à la moyenne du marché et peuvent se concentrer sur de véritables opportunités commerciales.

Miser sur une approche multicanale pour générer des leads

Une approche multicanale reste une nécessité pour les entreprises qui souhaitent booster la génération de leads. Ainsi, plusieurs leviers digitaux offrent des opportunités intéressantes dans le but de capter les bons prospects au bon moment :

Le social ads permet de diffuser des publicités ultra-ciblées et engageantes sur les réseaux sociaux, devenus incontournables pour rechercher des informations sur les marques. Ces plateformes proposent de cibler précisément les utilisateurs en fonction de leurs intérêts, de leur localisation, de leur âge, etc. Les formats publicitaires sont adaptés à chaque réseau social et peuvent inclure des publications sponsorisées, des stories, des vidéos ou des bannières.

Avantages :

  • Ciblage précis basé sur les données des utilisateurs
  • Grande portée potentielle grâce au nombre élevé d’utilisateurs actifs
  • Possibilité d’engager directement avec le public cible

Le Search Engine Advertising (SEA) assure une visibilité sur les pages de résultats des moteurs de recherche, là où les internautes expriment un besoin ou une intention d’achat. Les annonceurs enchérissent sur des mots-clés pertinents pour leur activité afin d’apparaître en haut des résultats de recherche. Ils ne paient que lorsqu’un utilisateur clique sur leur annonce (modèle au coût par clic).

Avantages :

  • Attirer des visiteurs qualifiés qui recherchent activement des produits ou services
  • Contrôle précis des budgets et des enchères
  • Résultats mesurables et optimisables en temps réel

Enfin, le native advertising offre la possibilité de s’intégrer de façon naturelle et non intrusive aux contenus éditoriaux d’un site média pour susciter l’engagement des lecteurs.

Avantages :

  • Meilleure acceptation par les utilisateurs car moins disruptif
  • Association positive à la marque grâce au contexte éditorial
  • Engagement accru et mémorisation de la marque

Le cas emblématique du secteur de l’énergie solaire

Les sociétés inhérentes à l’énergie solaire qui veulent développer leur activité doivent cibler des prospects spécifiques, comme les propriétaires de maisons individuelles, les entreprises ou les fermes agricoles disposant de grandes surfaces de toiture.

Pour atteindre cet objectif, elles ont la possibilité d’adopter une approche marketing innovante et personnalisée. Il ne s’agit plus simplement de promouvoir leurs produits et services de manière générique, mais de créer un véritable dialogue avec leurs prospects pour comprendre leurs besoins, leurs attentes et leurs préoccupations.

Le défi pour les entreprises du secteur de l’énergie est donc de se démarquer dans un marché où les offres se multiplient et où les exigences du consommateur s’accroissent. Une approche centrée sur le client leur permettra non seulement de nouer une relation de confiance mais également de suggérer du “sur-mesure”, augmentant ainsi les chances de conversion.

Nous l’avons vu plus haut, des solutions innovantes comme Conversociads© proposent d’aller dans ce sens, en combinant la puissance des réseaux sociaux et des technologies conversationnelles avec toujours comme objectif principal de maximiser la conversion des prospects en clients. En adoptant ainsi ce type de démarche, elles se donnent enfin les moyens de relever les défis de l’acquisition client et de pérenniser leur croissance.

L’origine de la bioluminescence marine remonte à l’aube de la vie complexe

L'origine de la bioluminescence marine remonte à l'aube de la vie complexe

Les fonds marins regorgent de merveilles encore inconnues, et les récentes découvertes d’une équipe internationale de chercheurs en sont la preuve. Leurs travaux révèlent l’existence de huit organismes marins dotés d’une luminosité jusqu’alors inconnue, remontant à l’ère du Cambrien, il y a environ 540 millions d’années.

Des coraux lumineux dans les profondeurs océaniques

Sous la direction de Danielle DeLeo de l’Institution Smithsonian, les chercheurs ont identifié huit organismes présentant une bioluminescence jusqu’alors inconnue. Si les coraux des eaux peu profondes sont rarement bioluminescents, ceux des profondeurs océaniques peuvent arborer des couleurs vibrantes et des spectacles captivants. Le but de ces fascinants affichages lumineux intrigue depuis longtemps les scientifiques, qui supposent qu’ils pourraient servir à attirer de grands prédateurs pour effrayer les petits organismes marins qui se nourrissent des coraux, ou encore à attirer des proies.

Les recherches génétiques se sont appuyées sur les découvertes de Manabu Bessho-Uehara, chercheur de l’Université de Nagoya, et d’Andrea Quattrini, de l’Institution Smithsonian. Dans une étude précédente, Bessho-Uehara avait identifié plusieurs nouveaux coraux bioluminescents dans les profondeurs marines, le conduisant à soupçonner l’existence de nombreux autres spécimens encore non identifiés.

De nouvelles espèces bioluminescentes découvertes

Bessho-Uehara et Quattrini ont mené des travaux de terrain, des eaux peu profondes jusqu’aux abysses, notamment à la station marine Sugashima de l’Université de Nagoya, près de la ville de Toba au Japon central, afin de trouver davantage de spécimens bioluminescents. Ils ont ainsi découvert une bioluminescence jusqu’alors inconnue chez deux types d’Hexacorallia (coraux mous) et cinq types d’Octocorallia.

«J’étais enthousiaste, car nous étions les premiers à découvrir la bioluminescence au niveau du genre dans cinq genres : les coraux Bullagumminzoanthus, Keratosidinae et Corallizoanthus, ainsi que les plumes de mer Echinoptilum et les éventails de mer profonde Metallogorgia», a déclaré Bessho-Uehara à propos de cette découverte.

Remonter aux origines de la bioluminescence

En utilisant les découvertes de l’équipe sur les organismes modernes, une équipe multidisciplinaire comprenant le Musée national d’histoire naturelle de la Smithsonian, l’Université internationale de Floride, l’Institut de recherche de l’aquarium de Monterey Bay, l’Université de Californie et le Harvey Mudd College, a utilisé les informations génétiques de ces organismes pour construire un arbre phylogénétique permettant de retracer les origines de la bioluminescence chez les anthozoaires, la classe d’organismes marins qui comprend les coraux et les organismes similaires.

Les résultats des chercheurs suggèrent que la bioluminescence est apparue pour la première fois chez un ancêtre commun des coraux Octocorallia. En combinant ces données avec les archives fossiles, l’équipe a découvert que cet ancien corail existait pendant la période du Cambrien, il y a environ 540 millions d’années, ce qui en fait l’organisme bioluminescent le plus ancien connu à ce jour.

Un éclairage nouveau sur l’écologie du Cambrien

Ces découvertes offrent également un aperçu de l’évolution des organismes, qui s’est principalement déroulée dans les océans pendant l’ère du Cambrien. À cette époque, les invertébrés ont développé des yeux dotés de photorécepteurs sensibles à la lumière. Cela suggère la possibilité passionnante d’interactions médiées par la lumière entre les anthozoaires et les organismes dotés de photorécepteurs, jetant ainsi un éclairage nouveau sur l’écologie d’une période cruciale de l’évolution de la vie.

Lorsqu’il a pris connaissance des résultats, la première pensée de Bessho-Uehara a été que «l’océan regorge de merveilles». Il a ajouté : “Je me souviens avoir été tellement émerveillé lorsque nous avons découvert que la bioluminescence était apparue deux fois plus tôt qu’on ne le pensait auparavant”.

Légende illustration : Photo de laboratoire de la bioluminescence de la fougère de mer Funiculina sp. observée sous lumière rouge. (crédit : Manabu Bessho-Uehara © 2020 MBARI)

L’étude, “Evolution of bioluminescence in Anthozoa with emphasis on Octocorallia,” a été publiée dans Proceedings of the Royal Society B  le 24 avril 2024 – DOI: 10.1098/rspb.2023.2626.

Quand les matériaux 2D et 3D s’unissent pour stocker l’énergie

Quand les matériaux 2D et 3D s'unissent pour stocker l'énergie

Les condensateurs électrostatiques sont des composants essentiels dans de nombreux domaines, allant de l’électronique pour les véhicules électriques au stockage des énergies renouvelables, en passant par le spatial et l’électronique portable. Leurs performances sont toutefois limitées par les propriétés des matériaux diélectriques utilisés. Une équipe internationale, comprenant des chercheurs du laboratoire GeorgiaTech-CNRS, a développé une méthode innovante pour résoudre ce problème en combinant des matériaux 2D et 3D.

Les limites des matériaux diélectriques actuels

Les condensateurs électrostatiques sont confrontés à deux problèmes majeurs liés aux matériaux diélectriques utilisés. D’une part, les matériaux classiques ont une faible polarisation maximale, ce qui limite leur capacité à stocker de l’énergie. D’autre part, les matériaux ferroélectriques, comme HfO2, ZrO2 ou BaTiO3, qui peuvent atteindre de plus fortes polarisations, souffrent d’une polarisation rémanente qui réduit la restitution de l’énergie électrique stockée.

Les méthodes existantes pour réduire cette polarisation rémanente ont pour conséquence de diminuer la polarisation maximale du matériau, créant ainsi un dilemme pour les chercheurs.

Une stratégie novatrice combinant matériaux 2D et 3D

Pour résoudre ce problème, l’équipe de recherche internationale, comprenant le professeur Abdallah Ougazzaden, le Dr. Suresh Sundaram et le Dr. Phuong Vuang du laboratoire GeorgiaTech-CNRS, a proposé une stratégie innovante d’intégration de matériaux 2D et 3D. L’objectif est de contrôler le temps de relaxation du matériau ferroélectrique polarisé, sans modifier sa structure, afin de préserver sa polarisation maximale.

La solution consiste à fabriquer une membrane monocristaline de BaTiO3 de 30 nanomètres d’épaisseur, puis à déposer un matériau 2D de chaque côté du matériau ferroélectrique. Plusieurs combinaisons de matériaux 2D, comme le graphène, MoS2 et h-BN, ont été testées.

Des résultats prometteurs pour le stockage et la restitution d’énergie

Les structures hétérogènes ainsi créées, en exploitant les différences de propriétés électriques entre la membrane ferroélectrique et les matériaux 2D, permettent de supprimer la polarisation permanente tout en préservant la polarisation maximale du matériau.

Le large panel de matériaux 2D disponibles ouvre la voie à la conception de condensateurs performants pour le stockage et la restitution d’énergie. Ces résultats, obtenus grâce à une technique innovante d’intégration de matériaux 2D et 3D, ont été publiés dans la revue Science.

Légende illustration : L’intégration d’une nanomembrane de BaTiO3 (en vert) entre deux mono couches atomiques de h-BN (en bleu) donne un matériau doté d’une forte polarisation maximale, permettant le stockage d’énergie à haute densité, tout en éliminant le phénomène de polarisation rémanente qui nuit à la restitution de l’énergie. © Bae Lab

Références

High energy density in artificial heterostructures through relaxation time modulation. Science, 19 avril 2024. https://doi.org/10.1126/science.adl2835

Nokia et A1 atteignent 800 Gbps sur une distance record de 1276 km

Nokia et A1 atteignent 800 Gbps sur une distance record de 1276 km

Les avancées technologiques dans le domaine des communications optiques ouvrent de nouvelles perspectives pour le transfert de données à haute vitesse. Nokia et ses partenaires, A1 Austria et SURF, ont récemment réalisé des essais concluants démontrant la possibilité de transmettre des données à des débits impressionnants sur de longues distances, tout en utilisant les infrastructures existantes.

Une transmission optique à 800 Gbps sur un réseau en direct

Nokia et A1 Austria ont réussi à fournir un service de communication optique à 800 Gbps sur une seule longueur d’onde, couvrant une distance de 1.276 km sur un réseau en direct reliant Francfort à Budapest. Cet essai sur le terrain a été réalisé en utilisant le processeur réseau FP5 de Nokia, basé sur le silicium, et ses optiques de moteur de service photonique super-cohérentes de sixième génération (PSE-6s).

A1 exploite actuellement un réseau IP et optique à l’échelle européenne basé sur le portefeuille de routeurs de service de Nokia, offrant des services aux entreprises et aux utilisateurs finaux des fournisseurs de services de communication. La combinaison d’interfaces de routeur à 800 Gbps et d’un transport optique longue distance à 800 Gbps permettra à A1 de faire évoluer efficacement sa capacité de service IP et de réseau, et de fournir une connectivité de service de gros aux clients.

Les optiques PSE-6s de Nokia ont été déployées dans le transpondeur DMAT6 avec une capacité de 2,4 Tbps, permettant le transport de plusieurs services 800GE tout en réduisant la consommation d’énergie par bit du réseau. De plus, le silicium du processeur réseau FP5 augmentera les performances de peering IP et passera à des ports 800GE, réduisant la consommation d’énergie par bit avec une connectivité IP plus efficace et moins de liens réseau. Les chipsets FP5 de Nokia permettent aux réseaux de fonctionner jusqu’à 50 Tbps et de réduire considérablement les coûts opérationnels et matériels d’A1.

Des communications plus rapides : l’accélérateur LHC. Photo : Maximilien Brice, Julien Ordan/CERN : Maximilien Brice, Julien Ordan/CERN.

Préparer la mise à niveau du Grand collisionneur de hadrons CERN

Dans un développement connexe, Nokia et SURF, une organisation collaborative pour l’informatique dans l’éducation et la recherche néerlandaises, ont réalisé une transmission optique de 800 Gb/s sur un seul canal sur l’infrastructure réseau de recherche et d’éducation transfrontalière multi-fournisseurs existante de SURF.

Cette transmission, basée sur la technologie de moteur de service photonique de Nokia, aidera à accélérer l’échange massif de données entre l’accélérateur de particules du CERN et les installations informatiques de recherche NL Tier-1 (NL T1) de SURF et Nikhef, l’Institut national néerlandais de physique subatomique.

En atteignant 800 Gb/s par canal sur des variétés de fibres plus anciennes, Nokia et SURF ont prouvé que les infrastructures existantes ont encore un potentiel énorme et que les fibres optiques héritées peuvent être utilisées pour répondre aux futures demandes de capacité des énormes flux de données générés par les instruments de recherche scientifique internationaux.

SURF prépare son réseau pour la mise à niveau du LHC du CERN vers le HL-LHC qui deviendra opérationnel en 2029. La découverte du boson de Higgs par le LHC a déjà révolutionné la compréhension de l’univers par le monde. On s’attend à ce que le futur HL-LHC révèle des informations encore plus profondes sur les éléments constitutifs fondamentaux du cosmos.

La mise à niveau fournira non seulement des résultats de recherche plus perspicaces et améliorera le potentiel de découvertes révolutionnaires, mais elle produira également d’énormes quantités de données scientifiques. Le HL-LHC devrait générer des données à un rythme cinq fois supérieur à celui de son prédécesseur. Par conséquent, il dépend des avancées du réseau haute performance de SURF, comme le démontre cet essai, pour permettre un transfert de données rapide et fiable vers le NL T1 pour une exploration scientifique plus approfondie.

Légende illustration : Le processeur de réseau FP5 de Nokia, basé sur le silicium. L’essai est la première démonstration par A1 d’un service de 800 Gbps sur une seule longueur d’onde fonctionnant sur un réseau longue distance : Nokia.

Les robots ne peuvent pas dépasser les animaux. Une étude explique pourquoi

Les robots ne peuvent pas dépasser les animaux. Une étude explique pourquoi

La course à pied entre les robots et les animaux soulève une question fascinante : qui l’emporterait dans une compétition d’endurance et de vitesse ? Une équipe d’ingénieurs américains et canadiens s’est penchée sur cette énigme, analysant des données issues de nombreuses études. Leurs conclusions, publiées dans la revue Science Robotics, révèlent que malgré les progrès technologiques, les organismes biologiques conservent l’avantage sur leurs homologues robotiques.

Une supériorité animale indéniable

Les chercheurs, menés par Samuel Burden de l’Université de Washington et Maxwell Donelan de l’Université Simon Fraser, ont constaté que dans presque tous les cas, les animaux, qu’il s’agisse de guépards, de cafards ou même d’êtres humains, semblent capables de surpasser les robots en termes de vitesse et d’agilité. Kaushik Jayaram, roboticien à l’Université du Colorado à Boulder et co-auteur de l’étude, admet : « En tant qu’ingénieur, c’est assez déconcertant. Malgré plus de 200 ans d’ingénierie intensive, nous avons réussi à envoyer des engins spatiaux sur la Lune et sur Mars, mais nous n’avons pas encore de robots significativement meilleurs que les systèmes biologiques pour se déplacer dans des environnements naturels. »

Le robot mCLARI est en équilibre sur une feuille. Crédit: Heiko Kabutz

Cette conclusion ne serait pas due à des lacunes dans un composant spécifique, comme les batteries ou les actionneurs, mais plutôt à la difficulté de faire fonctionner efficacement ces éléments ensemble. Kaushik Jayaram espère que cette étude inspirera les ingénieurs à concevoir des robots plus adaptables et agiles, à l’image des araignées-loups qu’il étudie dans son laboratoire. Ces prédateurs naturels sont capables de se déplacer à une vitesse incroyable sur des terrains complexes pour capturer leurs proies.

Des ingénieurs de CU Boulder ont conçu un nouveau robot minuscule capable de changer passivement de forme pour se faufiler dans des espaces étroits. La machine, baptisée Compliant Legged Articulated Robotic Insect (CLARI), s’inspire de la souplesse et des nombreuses formes du monde des insectes.

Vers une approche biomimétique

Pour comprendre les défis auxquels sont confrontés les robots, les auteurs ont décomposé ces machines en cinq sous-systèmes : alimentation, structure, actionnement, détection et contrôle. Étonnamment, peu de ces sous-systèmes semblent inférieurs à leurs équivalents animaux. Les batteries lithium-ion de haute qualité, par exemple, peuvent fournir jusqu’à 10 kilowatts de puissance par kilogramme, contre environ un dixième pour les tissus animaux. Les muscles, quant à eux, ne peuvent rivaliser avec le couple absolu de nombreux moteurs.

Cependant, au niveau du système global, les robots ne sont pas aussi performants. Kaushik Jayaram explique : «Nous sommes confrontés à des compromis de conception inhérents. Si nous essayons d’optimiser une chose, comme la vitesse de déplacement, nous risquons de perdre sur autre chose, comme la capacité à tourner.»

Le robot HAMR-Jr pose à côté d’un cafard. Crédit : Kaushik Jayaram

Les animaux, en revanche, ne sont pas divisés en sous-systèmes distincts comme les robots. Les quadriceps, par exemple, propulsent les jambes tout en produisant leur propre énergie et en intégrant des neurones capables de détecter la douleur et la pression.

L’avenir de la robotique : des matériaux robotiques innovants

Pour construire des robots qui, comme les animaux, sont plus que la somme de leurs parties, Kaushik Jayaram suggère le développement de «sous-unités fonctionnelles» intégrant alimentation, moteurs et circuits dans un seul composant. Bien que les ingénieurs soient encore loin d’atteindre cet objectif, certains, comme Jayaram avec son robot CLARI (Compliant Legged Articulated Robotic Insect), progressent dans cette direction. CLARI s’appuie sur une conception modulaire, chaque patte agissant comme un robot autonome avec son propre moteur, ses capteurs et ses circuits de contrôle.

La nature reste une source d’inspiration précieuse pour les ingénieurs. En étudiant les prouesses des animaux, comme les araignées-loups, ils pourront concevoir des robots toujours plus performants et adaptables, capables de se déplacer avec aisance dans des environnements variés et complexes.

Kaushik Jayaram, à droite, et Heiko Kabutz, étudiant diplômé, à gauche, dans le laboratoire de Jayaram sur le campus de CU Boulder. (Crédit : Casey Cass/CU Boulder)

Légende illustration : The mCLARI robot designed by engineers at CU Boulder poses next to a spider. Crédit : Heiko Kabutz

Article : “Why animals can outrun robots” – DOI: 10.1126/scirobotics.adi9754

Un capteur détecte des nanoparticules de seulement 50 nm de diamètre

Un capteur détecte des nanoparticules de seulement 50 nm de diamètre

Les nanoparticules ultrafines, omniprésentes dans notre environnement quotidien, suscitent un intérêt croissant en raison de leur impact potentiel sur la santé. Des chercheurs de l’Université de technologie d’Eindhoven (TU/e) ont mis au point un nouveau capteur à pointe de fibre ultra-sensible capable de détecter des particules uniques d’un diamètre allant jusqu’à 50 nanomètres.

Les nanoparticules ultrafines (UFP), dont le diamètre est inférieur à 100 nanomètres, sont présentes dans de nombreuses sources telles que la fumée, les gaz d’échappement et même les toners d’imprimante. L’exposition à ces particules peut présenter de graves risques pour la santé, en particulier si elles sont directement inhalées. Une fois dans les poumons, les UFP peuvent absorber les toxines présentes dans l’air environnant et les maintenir dans l’organisme.

La détection précise des UFP est essentielle pour surveiller la qualité de l’air intérieur et prévenir les risques sanitaires associés. Cependant, les méthodes actuelles de détection des UFP nécessitent souvent des équipements volumineux et coûteux, ce qui limite leur utilisation à grande échelle.

Un capteur à pointe de fibre innovant

Pour répondre à ce défi, Arthur Hendriks, chercheur au Département de physique appliquée et d’éducation scientifique de la TU/e, et ses collaborateurs ont développé un capteur nanophotonique à pointe de fibre ultra-sensible. Ce capteur est basé sur un cristal photonique, une structure périodique capable de réfléchir la lumière dans toutes les directions. En introduisant un défaut dans le cristal, appelé cavité de cristal photonique (PhCC), la lumière peut être piégée pendant une période prolongée.

Lorsqu’une nanoparticule s’approche de la PhCC, elle perturbe la cavité en modifiant son indice de réfraction, ce qui entraîne un changement de la longueur d’onde de la lumière piégée. Ce changement est mesuré par le capteur, permettant ainsi la détection en temps réel de particules uniques d’un diamètre aussi faible que 50 nanomètres.

Image SEM d’un capteur de pointe à fibre nanophotonique. Source : Arthur Hendriks

Des perspectives prometteuses

Cette nouvelle approche offre une sensibilité sans précédent par rapport aux technologies existantes. Les chercheurs envisagent d’améliorer encore les performances du capteur en suspendant les cavités, ce qui pourrait conduire à des cavités nanophotoniques aux caractéristiques inégalées.

Au-delà de la détection des UFP, cette technologie pourrait trouver des applications dans d’autres domaines, tels que les émetteurs à photon unique, les capteurs nano-optomécaniques et même la détection de molécules biologiques individuelles.

Le capteur d’UFP sera prochainement utilisé dans le cadre du projet européen LEARN, qui vise à contrôler et évaluer la qualité de l’air dans les écoles, en collaboration avec le groupe Microsystèmes de la TU/e. Cette avancée technologique ouvre de nouvelles perspectives pour la surveillance de la qualité de l’air intérieur et la protection de la santé publique.

Le document complet intitulé : “Detecting single nanoparticles using fiber-tip nanophotonics”.

La course aux photovoltaïques organiques transparents s’accélère

La course aux photovoltaïques organiques transparents s'accélère

Les cellules solaires transparentes sont en passe de révolutionner l’apparence des infrastructures en permettant à un plus grand nombre de surfaces de devenir des panneaux solaires. Une équipe internationale menée par la KAUST a démontré que les matériaux appelés accepteurs non fullerènes, capables de générer intrinsèquement des charges lorsqu’ils sont exposés à la lumière du soleil, pourraient faciliter la production de photovoltaïques organiques semi-transparents.

Les photovoltaïques semi-transparents ont la capacité de convertir la lumière du soleil en électricité sans bloquer la lumière visible. Cette caractéristique les rend particulièrement intéressants pour des applications intégrées aux bâtiments, comme les fenêtres, les façades et les serres. Contrairement aux cellules traditionnelles à base de silicium, les photovoltaïques organiques peuvent être flexibles et également adaptés pour être transparents. Cependant, plus la cellule solaire est transparente, moins elle capte de lumière pour produire de l’électricité.

Les cellules solaires organiques reposent généralement sur une couche active appelée hétérojonction en vrac, composée de matériaux donneurs et accepteurs d’électrons, pour capter et convertir la lumière du soleil. Au contact de la lumière solaire, les électrons peuvent être excités vers des états d’énergie plus élevés dans l’hétérojonction, ce qui crée des paires électron-trou, ou excitons, qui se détachent à l’interface donneur-accepteur.

Avec cette séparation de charge, les électrons migrent vers l’accepteur, tandis que les trous chargés positivement se déplacent vers le donneur, générant ainsi de l’électricité. Les hétérojonctions contiennent généralement des quantités égales de matériaux donneurs et accepteurs pour favoriser la collecte et la conversion de la lumière, mais les dispositifs ne sont pas transparents.

Les accepteurs non fullerènes, une piste prometteuse

Au cours des cinq dernières années, les accepteurs non fullerènes ont permis de produire des dispositifs à base d’hétérojonction avec des rendements records, approchant la barre des 20 %. Cependant, des chercheurs ont récemment suggéré que des films à composant unique de l’accepteur non fullerène Y6 pourraient générer des charges sans avoir besoin d’une hétérojonction lorsqu’ils sont exposés à la lumière du soleil.

Inspirée par cette découverte, l’équipe dirigée par Derya Baran et le post-doctorant Anirudh Sharma a étudié la génération de charges dans d’autres accepteurs non fullerènes. Tout comme le Y6, les accepteurs, qui absorbent fortement la lumière proche infrarouge, ont produit des charges sans interface donneur-accepteur. Ils l’ont fait parce que l’exciton s’est scindé spontanément, ce qui a surpris les chercheurs.

Anirudh Sharma explique : « Cela remet en question notre compréhension du fonctionnement de ces dispositifs et incite à réévaluer la situation. »

Des photovoltaïques organiques semi-transparents thermiquement stables

Les chercheurs ont développé des photovoltaïques organiques semi-transparents thermiquement stables en utilisant les accepteurs absorbant le proche infrarouge. Ces derniers sont plus transparents dans la région visible, avec ou sans une quantité minimale de matériaux donneurs absorbant la lumière visible dans une hétérojonction.

En l’absence de matériau donneur, les dispositifs ont obtenu de mauvais résultats en raison d’une séparation de charge limitée. L’ajout de donneurs a amélioré la génération de charges et la migration des trous vers l’anode, améliorant ainsi l’efficacité. « Cela nous a permis de fabriquer des cellules solaires partiellement transparentes, tout en convertissant la lumière du soleil en électricité », explique Anirudh Sharma.

Les modules solaires basés sur des dispositifs semi-transparents ont atteint une efficacité de 5,3 % et une transmittance visible de 82 %, ce qui indique leur haut degré de transparence.

« Nous étudions actuellement les accepteurs non fullerènes de nouvelle génération à un niveau fondamental pour comprendre leur photophysique et l’impact des couches de transport de charge sur les performances globales des dispositifs à homojonction », conclut Anirudh Sharma.

Price, M.B., Hume, P.A., Ilina, A., Wagner, I., Tamming, R. R., Thorn, K. E., Jiao, W., Goldingay, A., Conaghan, P. J., Lakhwani, G., Davis, N. J. L. K., Wang, Y., Xue, P., Lu, H., Chen, K., Zhan, X. & Hodgkiss, J. M. Free charge photogeneration in a single component high photovoltaic efficiency organic semiconductor. Nature Communications 13, 2827 (2022).| Article

Quand la science relève le défi de l’énergie flexible et extensible

Quand la science relève le défi de l'énergie flexible et extensible

Les chercheurs de l’Université des sciences et technologies de Pohang (POSTECH) et de l’Institut coréen de technologie industrielle (KITECH) ont réalisé une avancée majeure dans le développement de dispositifs de stockage d’énergie à petite échelle capables de s’étirer, de se tordre, de se plier et de se froisser.

Un besoin croissant de solutions de stockage d’énergie flexibles

L’essor des technologies portables a mis en évidence la nécessité de développer des solutions de stockage d’énergie capables de suivre la flexibilité et l’extensibilité des appareils électroniques souples.

Les micro-supercondensateurs (MSC) se sont révélés être des candidats prometteurs pour le stockage d’énergie déformable, en raison de leur haute densité de puissance, de leur charge rapide et de leur longue durée de vie. Cependant, la fabrication de motifs d’électrodes interdigitales capables de maintenir les performances de stockage d’énergie sous étirement et torsion répétés restait un défi majeur.

Les matériaux fragiles comme l’or (Au) ont été couramment utilisés comme électrodes, mais ils ne sont pas adaptés aux dispositifs flexibles. D’autre part, bien que le métal liquide eutectique gallium-indium (EGaIn) présente une conductivité et une déformabilité élevées, une structuration fine de l’EGaIn est extrêmement difficile en raison de sa très haute tension superficielle.

Une percée technologique grâce à la structuration au laser

L’équipe de recherche a réussi à fabriquer une structuration fine, par laser, des couches d’EGaIn et de graphène (servant de matériau actif) sur un substrat extensible en copolymère polystyrène-bloc-poly(éthylène-co-butylène)-bloc-polystyrène (SEBS). Lors de l’ablation au laser des couches d’EGaIn et de graphène, le substrat SEBS extensible sous-jacent n’a pas été endommagé, ce qui a permis de maintenir la flexibilité du dispositif MSC.

La capacité surfacique du MSC résultant conserve sa valeur d’origine même après un étirement jusqu’à 1 000 cycles. De plus, les MSC fabriqués fonctionnent de manière stable sous diverses déformations mécaniques, notamment l’étirement, le pliage, la torsion et le froissement.

Des perspectives prometteuses pour les technologies portables

Le professeur Jin Kon Kim de POSTECH a indiqué : « L’utilisation d’électrodes en métal liquide structurées au laser représente une avancée significative dans le développement de solutions de stockage d’énergie véritablement déformables. À mesure que les technologies portables continuent de progresser, des innovations comme celles-ci joueront un rôle essentiel pour garantir que nos appareils puissent s’adapter aux exigences de nos modes de vie dynamiques. »

* Micro-supercondensateur : Dispositif qui stocke l’électricité et peut fournir une puissance électrique instantanée en cas de besoin, permettant un stockage et une décharge stables de l’énergie, même dans de petits volumes.

DOI: https://doi.org/10.1038/s41528-024-00306-2

Cette recherche a bénéficié de ressources financières (Programme national d’initiative de recherche créative) du ministère de l’Économie et des Finances de la République de Corée, et a été soutenue par le projet de développement de la technologie de production de base de l’industrie de l’Institut coréen de technologie industrielle.

Une start-up défie le plastique avec un papier high-tech recyclable

Une start-up défie le plastique avec un papier high-tech recyclable

Dans un contexte où la réduction de l’impact environnemental des emballages est devenue un enjeu majeur, la start-up française Cilkoa se distingue par sa technologie innovante. En conférant au papier des propriétés de résistance à l’eau et à l’oxygène tout en préservant sa recyclabilité, Cilkoa ouvre de nouvelles perspectives pour l’industrie de l’emballage.

Une technologie issue de la recherche scientifique

Créée en juin 2022 par Frédéric Mercier, Erwan Gicquel, Olivier Muquet et Romain Lécot, Cilkoa s’appuie sur une technologie brevetée née des travaux de recherche de deux laboratoires grenoblois sous tutelle du CNRS et de l’Université Grenoble Alpes. Le procédé, adapté de la microélectronique, repose sur une réaction chimique de surface appelée estérification. Grâce à l’ajout séquentiel de triméthylaluminium (TMA) et de vapeur d’eau dans un four, une fine couche d’alumine de quelques dizaines de nanomètres est créée sur la cellulose, conférant au papier une résistance à l’eau et à l’oxydation.

Malgré la faible proportion d’alumine (moins de 1% pour 99% de cellulose), l’efficacité du procédé est remarquable. Cette technologie suscite l’intérêt des industriels de l’agro-alimentaire et des cosmétiques, qui représentent déjà deux tiers des clients de Cilkoa. Comme le souligne Olivier Muquet, co-fondateur de la start-up, l’objectif est d’« amener le papier dans l’emballage là où il n’y est pas encore ».

Des emballages éco-responsables et performants

La technologie développée par Cilkoa permet de créer des emballages papier biodégradables, compostables et recyclables. La start-up s’engage à ce que son procédé n’entrave pas la réutilisation des fibres de papier, qui peuvent être utilisées environ 7 fois sans altération de la qualité.

Cilkoa vise à concurrencer le plastique dans le domaine de l’emballage « haute performance », en proposant des solutions adaptées à l’emballage d’aliments sensibles au changement de goût et de couleur, pour des durées de conservation variables. La fine couche d’alumine ne perturbe pas le processus mécanique du recyclage, permettant ainsi la réutilisation des emballages.

Credit : Cilkoa 

La start-up compte également se positionner sur le marché de la cellulose moulée, en proposant des alternatives sans fluor aux boîtes à œufs, dont l’utilisation dans les emballages alimentaires est controversée pour ses potentiels effets sur la santé.

Vers une industrialisation de la technologie

Depuis sa création et sa participation au programme RISE du CNRS, Cilkoa a franchi rapidement les étapes de son développement. Avant la fin de l’année 2024, la start-up prévoit de concrétiser sa technologie en entamant sa phase industrielle avec la mise en place d’une « mini-usine » dans la région grenobloise.

Une récente levée de fonds a permis à Cilkoa de financer le passage du prototype en laboratoire au réacteur à l’échelle industrielle. L’équipe, qui compte désormais une dizaine de personnes, se fraie une place dans le monde de l’emballage et du papier, forte de sa technologie haute performance qui suscite déjà l’intérêt de plus de 200 industriels en France et à l’international.

Crédit image : Cilkoa

Article adapté à partir du contenu de l’auteure Margaux Mercier

Schott produit un verre optique plus “vert” avec 100 % d’hydrogène

Schott produit un verre optique plus "vert" avec 100 % d'hydrogène

Dans un contexte où la transition énergétique est au cœur des préoccupations, les entreprises du secteur de la technologie redoublent d’efforts pour réduire leur empreinte carbone et adopter des pratiques plus durables. Deux acteurs majeurs, Schott et Coherent, ont récemment franchi des étapes significatives dans leur quête d’une production respectueuse de l’environnement, ouvrant ainsi la voie à un avenir plus vert pour l’industrie.

Le groupe technologique Schott, spécialisé dans la fabrication de verre de spécialité, a réalisé un exploit en produisant du verre optique dans un four chauffé exclusivement à l’hydrogène pendant trois jours, sans recourir au gaz naturel. Bien que l’hydrogène vert ne soit pas encore disponible en quantité suffisante, cette expérience à grande échelle a été couronnée de succès, la qualité du verre étant actuellement en cours d’analyse.

Dr. Lenka Deneke, chef de projet chez Schott, souligne le caractère pionnier de ce test pour l’industrie du verre de spécialité, tout en insistant sur la nécessité de poursuivre les recherches pour mieux comprendre l’impact de l’hydrogène sur les processus complexes de fusion et la qualité des différents produits.

Si le verre répond aux exigences élevées du produit, il sera envoyé au client, confirmant ainsi que l’utilisation de l’hydrogène à 100% au lieu des combustibles fossiles offre la même qualité dans des conditions industrielles. Un passage définitif nécessiterait cependant des tests à long terme et un approvisionnement continu via un pipeline d’hydrogène.

Coherent s’engage dans les énergies renouvelables

De son côté, le géant des lasers Coherent a annoncé que l’entreprise couvre désormais environ 70% de ses besoins mondiaux en électricité à partir de sources d’énergie renouvelables, représentant plus de 500 millions de kWh d’électricité verte par an et évitant ainsi plus de 250 000 tonnes métriques d’émissions de CO2 chaque année.

Bob Daly, vice-président de la transformation Lean mondiale chez Coherent, souligne l’importance de la participation de chacun des 25 000 employés à la réduction de l’empreinte carbone de l’entreprise, notamment grâce à des initiatives visant à éliminer le gaspillage sous toutes ses formes.

Depuis son lancement en 2023, le système Lean de Coherent a permis de réaliser des économies d’énergie annuelles de 2,5 millions de kWh. L’entreprise s’efforce également d’éliminer l’utilisation de combustibles fossiles dans ses installations, comme en témoigne l’installation d’une pompe à chaleur dans son usine de Highyag à Kleinmachnow, en Allemagne, visant à réduire les émissions de gaz de 65% en 2024.

Légende illustration :Essai réussi à grande échelle : Schott a produit pour la première fois un verre optique contenant 100 % d’hydrogène. Photos : Schott.

Pneus intelligents et durables : le défi relevé par LIST et Goodyear

Pneus intelligents et durables : le défi relevé par LIST et Goodyear

Le Luxembourg Institute of Science and Technology (LIST) et The Goodyear Tire & Rubber Company ont annoncé le lancement de la deuxième phase de leur collaboration stratégique. Cette nouvelle étape vise non seulement à tirer parti des réalisations précédentes, mais aussi à explorer de nouvelles pistes technologiques, avec un accent particulier sur la numérisation et la durabilité dans l’industrie du pneumatique.

Depuis 2017, LIST et Goodyear travaillent ensemble pour obtenir des résultats novateurs dans les domaines de la recherche sur les matériaux, de la compréhension des relations structure-propriété et de la science des données. Leurs efforts conjoints ont positionné le Luxembourg comme un pôle d’innovation disruptive dans le secteur de la mobilité, en particulier dans les domaines des pneumatiques et des technologies associées.

Lors du LIST Tech Day de l’année dernière, les deux entités avaient scellé l’accord pour une deuxième phase de leur partenariat, capitalisant sur l’expertise, les infrastructures et les compétences de Goodyear et de LIST pour stimuler l’innovation et la technologie vers un nouveau domaine d’application.

Des programmes stratégiques axés sur la durabilité et la numérisation

Le nouveau contrat comprend des programmes stratégiques composés de plus de 30 projets. D’une durée de six ans, ce nouveau contrat met l’accent sur l’avancement des efforts en matière de durabilité et de numérisation dans l’industrie du pneumatique.

En termes de durabilité, l’accent sera mis sur le développement de produits pneumatiques à base de matériaux biosourcés et recyclables. Quant à la numérisation, les projecteurs seront braqués sur la science des données et son application pour accélérer le calendrier et l’efficacité du prototypage des capteurs.

Le partenariat se concentrera également sur le développement de capteurs capables de surveiller en temps réel l’usure des pneus, dans le but d’améliorer la sécurité et de faciliter les procédures de maintenance. De plus, des efforts seront consacrés à la recherche et au développement dans le domaine de la récupération et du stockage d’énergie pour les capteurs sans fil, garantissant ainsi leur durabilité et leur efficacité dans le temps.

Programmes de recherche

Science des données pour les applications pneumatiques

À l’avant-garde de la transition numérique, ce programme vise à s’inscrire dans l’objectif de développement “first time right” de Goodyear. Le programme Data aidera les ingénieurs de Goodyear à développer, tester et valider des modèles de pneus dès le début du cycle de développement, dans le but d’identifier les pneus les plus performants avant la construction du premier prototype.

Technologie des capteurs de pneus

Ce programme contribuera au développement d’une technologie de détection basée sur les matériaux afin d’aider Goodyear à intégrer des capteurs pour la surveillance continue des pneus.

Pneus en fin de vie

Ce programme vise l’exploration et le développement potentiel de nouveaux matériaux et de nouvelles technologies de traitement afin d’améliorer la réutilisation des pneus en fin de vie.

Matériaux durables

Les programmes de développement de matériaux sont conçus pour étudier de nouvelles matières premières qui pourraient être utilisées dans toutes sortes d’architectures de pneus.

Relations structure-processus-propriétés

Ce programme fournira de nouveaux outils pour mieux comprendre les corrélations complexes entre les résultats de la caractérisation et les performances des matériaux.

Soutenue par le ministère de l’Économie et l’initiative Industrial Partnership Block Grants (IPBG) du Fonds national de la recherche du Luxembourg (FNR), cette deuxième phase du partenariat devrait démarrer d’ici la fin du mois d’avril.

Damien Lenoble, directeur du département des matériaux au LIST, a déclaré : « La collaboration stratégique en cours et renforcée avec une entreprise mondiale et multinationale telle que Goodyear témoigne de la haute qualité de la recherche menée ici au LIST. Nous sommes honorés et heureux que Goodyear ait étendu notre partenariat de confiance. Ensemble, nous nous engageons à développer des pneus non seulement plus performants et plus intelligents, mais aussi plus durables pour les utilisateurs et la planète. »

Romain Hansen, vice-président du développement des produits EMEA chez Goodyear, a ajouté : « Je suis ravi de voir cette deuxième phase du partenariat prendre vie. Travailler avec des organisations influentes comme LIST est essentiel pour que Goodyear respecte son engagement à permettre la mobilité aujourd’hui et demain. »

Des LED pour visualiser l’activité cérébrale pendant une opération

Des LED pour visualiser l'activité cérébrale pendant une opération

Les neurochirurgiens sont constamment à la recherche de nouvelles technologies pour améliorer la précision et l’efficacité des interventions chirurgicales sur le cerveau. Une équipe de chercheurs de l’Université de Californie à San Diego et du Massachusetts General Hospital (MGH) a développé un dispositif innovant combinant une grille d’électrodes et des LED sur un film mince, permettant de suivre et de visualiser l’activité cérébrale en temps réel pendant une opération.

Un outil visuel pour guider les neurochirurgiens

Chaque LED du dispositif reflète l’activité de quelques milliers de neurones. Lors d’une série d’expériences de preuve de concept menées sur des rongeurs et de grands mammifères non primates, les chercheurs ont démontré que le dispositif peut efficacement suivre et afficher l’activité neuronale du cerveau correspondant à différentes zones du corps.

Dans ce cas précis, les LED développées par l’équipe s’allument en rouge dans les zones devant être retirées par le chirurgien, tandis que les zones environnantes contrôlant des fonctions essentielles et devant être évitées apparaissent en vert.

Visualiser et traiter l’épilepsie

L’étude a également montré que le dispositif peut visualiser le début et cartographier la propagation d’une crise d’épilepsie à la surface du cerveau. Cela permettrait aux médecins d’isoler les «nœuds» du cerveau impliqués dans l’épilepsie et de fournir le traitement nécessaire en retirant les tissus ou en utilisant des impulsions électriques pour stimuler le cerveau.

Selon Daniel Cleary, l’un des coauteurs de l’étude, neurochirurgien et professeur assistant à l’Oregon Health and Science University, « les neurochirurgiens pourraient voir et arrêter une crise avant qu’elle ne se propage, visualiser les zones cérébrales impliquées dans différents processus cognitifs et visualiser l’étendue fonctionnelle de la propagation d’une tumeur ».

Ces diodes font partie d’une grille de 5 millimètres carrés. L’écran de cette petite version comprend 1048 diodes électroluminescentes. M. Dayeh et son équipe ont mis à profit leur expertise dans le domaine du nitrure de gallium pour mettre au point une technique de fabrication de DEL à haut rendement qui ne chauffent pas lorsqu’elles s’allument et n’endommagent pas les tissus cérébraux. Crédit : UC San Diego

Une communication plus efficace pendant les interventions

Actuellement, les neurochirurgiens travaillent avec une équipe d’électrophysiologistes pendant l’intervention, mais cette équipe et son équipement de surveillance se trouvent dans une autre partie de la salle d’opération. Les zones cérébrales à protéger et celles à opérer sont soit marquées par les électrophysiologistes sur un papier remis au chirurgien, soit communiquées verbalement à ce dernier, qui place ensuite des papiers stériles sur la surface du cerveau pour marquer ces régions.

Le Dr Angelique Paulk du MGH, coauteur et co-inventeur de la technologie, souligne que « ces deux méthodes sont des moyens inefficaces de communiquer des informations critiques pendant une intervention et pourraient avoir un impact sur ses résultats ».

Une précision accrue grâce à la technologie LED

De plus, les électrodes actuellement utilisées pour surveiller l’activité cérébrale pendant une intervention chirurgicale ne produisent pas de données détaillées et précises. Les chirurgiens doivent donc conserver une zone tampon, appelée marge de résection, de 5 à 7 millimètres autour de la zone qu’ils retirent à l’intérieur du cerveau, ce qui signifie qu’ils pourraient laisser des tissus nocifs.

Le nouveau dispositif fournit un niveau de détail qui permettrait de réduire cette zone tampon à moins d’un millimètre. Shadi Dayeh, auteur correspondant de l’article et professeur au département de génie électrique et informatique de l’UC San Diego, explique : « Nous avons inventé le micro-écran cérébral pour afficher avec précision les limites corticales critiques et guider la neurochirurgie dans un dispositif rentable qui simplifie et réduit le temps des procédures de cartographie cérébrale ».

L’équipe de M. Dayeh, de l’UC San Diego, a réussi à intégrer des milliers de DEL dans des films souples et à les détacher du substrat sous la forme d’un panneau d’affichage flexible. Les chercheurs ont ensuite utilisé l’impression à jet d’encre pour déposer des encres à points quantiques sur la surface des DEL afin de convertir leur lumière bleue en de multiples autres couleurs. Crédit : UC San Diego

Une technologie innovante et prometteuse

Les chercheurs ont installé les LED sur une autre innovation du laboratoire Dayeh, la grille d’électrodes en nanotige de platine (PtNRGrid). Depuis 2019, l’équipe de Dayeh est pionnière dans la cartographie du cerveau et de la moelle épinière humaine avec des milliers de canaux pour surveiller l’activité neuronale du cerveau.

Le PtNRGrid comprend également des perforations, qui permettent aux médecins d’insérer des sondes pour stimuler le cerveau avec des signaux électriques, à la fois pour la cartographie et pour la thérapie.

L’équipe de Dayeh à l’UC San Diego a pu intégrer des milliers de LED dans des films flexibles et les libérer du substrat sous la forme d’un panneau d’affichage flexible. Les chercheurs ont ensuite utilisé l’impression par jet d’encre pour déposer des encres à points quantiques sur la surface des LED afin de convertir leur lumière bleue en plusieurs autres couleurs.

Perspectives d’avenir

L’équipe de Dayeh travaille actuellement sur un micro-écran qui comprendra 100 000 LED, avec une résolution équivalente à celle d’un écran de smartphone. Chaque LED de ces écrans refléterait l’activité de quelques centaines de neurones. Ces micro-écrans cérébraux coûteront une fraction du prix d’un smartphone haut de gamme.

Ce micro-écran cérébral comprendra également une partie pliable, permettant aux chirurgiens d’opérer à l’intérieur de cette partie tout en surveillant l’impact de la procédure, tandis que l’autre partie dépliée du micro-écran montrera l’état du cerveau en temps réel.

Les chercheurs travaillent également sur une limitation de l’étude. La proximité des capteurs LED et des PtNRGrids a entraîné une légère interférence et du bruit dans les données. L’équipe prévoit de construire un matériel personnalisé pour modifier la fréquence des impulsions qui allument les LED afin de faciliter le filtrage de ce signal, qui n’est pas pertinent pour l’activité électrique du cerveau.

Légende illustration : “Chaque LED du dispositif reflète l’activité de quelques milliers de neurones. Lors d’une série d’expériences de validation du concept menées sur des rongeurs et de grands mammifères non primates, les chercheurs ont montré que le dispositif peut effectivement suivre et afficher l’activité neuronale dans le cerveau correspondant à différentes zones du corps. Dans ce cas, les diodes électroluminescentes mises au point par l’équipe s’allument en rouge dans les zones qui doivent être retirées par le chirurgien. Les zones environnantes qui contrôlent des fonctions critiques et doivent être évitées s’affichent en vert.”

Article : “An electroencephalogram microdisplay to visualize neuronal activity on the brain surface” – 10.1126/scitranslmed.adj7257

L’évaporation de l’eau révèle un mystère longtemps caché par la science

L'évaporation de l'eau révèle un mystère longtemps caché par la science

L’évaporation de l’eau est un processus fondamental qui se produit partout autour de nous, des océans aux lacs en passant par les étangs salés. Bien que ce phénomène soit observé et utilisé depuis des millénaires, une équipe de chercheurs du MIT vient de découvrir un aspect jusqu’alors inconnu de ce processus. Leurs travaux révèlent que la lumière, et pas seulement la chaleur, peut provoquer l’évaporation de l’eau.

Les chercheurs du MIT ont démontré, à travers une série d’expériences minutieuses, que la lumière frappant la surface de l’eau peut briser les molécules d’eau et les faire s’évaporer, et ce, en l’absence de toute source de chaleur. Cette découverte, baptisée «effet photomoléculaire», pourrait avoir de nombreuses implications dans divers domaines.

Les résultats de cette étude, publiés dans la revue PNAS, suggèrent que cet effet devrait se produire de manière généralisée dans la nature, des nuages aux brouillards en passant par les surfaces des océans, des sols et des plantes.

Pour prouver l’existence de ce phénomène, l’équipe a réalisé 14 types de tests et de mesures différents. L’un des indicateurs clés, qui s’est manifesté de manière cohérente dans quatre types d’expériences différentes, était le refroidissement de la température de l’air mesurée au-dessus de la surface de l’eau lorsque celle-ci commençait à s’évaporer sous l’effet de la lumière visible, démontrant ainsi que l’énergie thermique n’était pas le moteur de cet effet.

D’autres indicateurs importants ont également été observés, comme la variation de l’effet d’évaporation en fonction de l’angle de la lumière, de sa couleur exacte et de sa polarisation, des caractéristiques qui ne devraient pas se produire si la chaleur était le seul mécanisme en jeu.

“Nous explorons toutes ces directions différentes”, explique Chen. “Et bien sûr, cela affecte aussi la science fondamentale, comme les effets des nuages sur le climat, car les nuages sont l’aspect le plus incertain des modèles climatiques”. Crédit :Bryce Vickmark

Cette découverte pourrait résoudre une énigme vieille de 80 ans dans le domaine de la science du climat. En effet, les mesures de l’absorption de la lumière du soleil par les nuages ont souvent montré qu’ils absorbaient plus de lumière que ce que la physique conventionnelle ne le permettait. L’évaporation supplémentaire causée par cet effet pourrait expliquer cette divergence de longue date, qui fait l’objet de débats depuis des décennies.

Les chercheurs estiment que cette découverte pourrait conduire à de nouvelles applications pratiques, notamment dans les domaines de la production d’énergie et d’eau potable. Des entreprises ont déjà approché l’équipe dans l’espoir d’exploiter cet effet, par exemple pour évaporer du sirop ou sécher du papier dans une papeterie.

Cependant, les chercheurs soulignent que cette découverte n’est que le début et que de nombreuses variables restent à étudier, de la compréhension de l’eau elle-même à l’extension à d’autres matériaux, liquides et même solides. Les expériences nécessaires pour démontrer et quantifier cet effet sont très chronophages, mais ouvrent de nouvelles perspectives passionnantes pour la recherche et l’industrie.

Article: “Photomolecular effect: visible light interaction with air-water interface” – DOI: 10.1073/pnas.2320844121

Des chercheurs du MIT ont découvert un nouveau phénomène : la lumière peut provoquer l’évaporation de l’eau de sa surface sans qu’il y ait besoin de chaleur. La photo montre un appareil de laboratoire conçu pour mesurer l'”effet photomoléculaire” à l’aide de faisceaux laser. Crédit : Bryce Vickmark

25-32°C : la température idéale pour une vanille sous ombrière solaire

25-32°C : la température idéale pour une vanille sous ombrière solaire

Dans un contexte où l’autonomie énergétique est un enjeu majeur pour les territoires insulaires, la production d’énergie solaire se présente comme une solution prometteuse. À La Réunion, un projet innovant d’ombrières photovoltaïques spécialement conçues pour la culture de la vanille est en train de voir le jour, fruit d’une collaboration entre Corsica Sole et ProVanille, la coopérative des producteurs de vanille de l’île.

Une approche concertée pour favoriser la transition écologique

Paul Antoniotti, président et co-fondateur de Corsica Sole, souligne l’importance de trouver des solutions adaptées aux spécificités des territoires insulaires : « Contrairement à l’Europe Continentale, La Réunion n’est pas un territoire interconnecté où l’énergie circule par-delà les frontières. Nous souhaitons apporter des solutions pour aider à tendre vers toujours plus d’autonomie énergétique. Nous pensons que la transition écologique doit se faire dans une approche concertée avec les territoires, en favorisant les acteurs régionaux et le dialogue avec les experts locaux. »

C’est dans cette perspective que Corsica Sole s’est rapproché de ProVanille pour le développement de ce projet d’ombrières spécialement conçues pour le développement optimal des plants de vanille.

Des spécificités techniques pour optimiser la production de vanille

L’installation des serres équipées de panneaux photovoltaïques a été pensée pour recréer au mieux les conditions de luminosité et d’humidité d’un sous-bois, l’environnement idéal pour la croissance des plants de vanille. Avec un taux d’ombrage de 75% sous l’ombrière, seuls 25% de la lumière filtre à travers les panneaux. La température est maintenue entre 25 et 32 degrés, tandis qu’une irrigation régulière est assurée grâce à la récupération de l’eau de pluie.

Willy Boyer, président de PRO VANILLE, souligne les avantages de cette collaboration : « Cette collaboration est intéressante car elle permet aux agriculteurs d’étendre leur zone de culture, habituellement réservée à des espaces en sous-bois. De plus, la récupération des eaux de pluie et la réduction de la présence des insectes nuisibles dans les serres sous ombrières sont des atouts pour nos plantations ».

En effet, les filets en place sur les côtés des serres et les ombrières placées sur le dessus forment une barrière physique autour des plants de vanille, réduisant ainsi la présence d’insectes nuisibles et, par conséquent, l’utilisation de pesticides.

Une conception résistante aux conditions météorologiques extrêmes

Les ombrières ont été conçues pour résister aux conditions météorologiques extrêmes que les populations peuvent vivre sur l’île, telles que les cyclones, les fortes pluies, les vents violents et les températures élevées. Lors du passage du cyclone Belal en janvier dernier, de nombreux plants de vanille sur l’île ont été endommagés ou détruits. En revanche, aucune ombrière n’a subi de dommages et tous les plants de vanille situés en dessous sont restés intacts.

Six ombrières ont été installées à La Réunion sur ce modèle : 3 à Ste Rose, 1 à Bras Panon, 1 à St André et 1 à Ste Suzanne. Sur le site de Bellevue à Bras Panon, les 222 panneaux photovoltaïques délivrent une production d’électricité de 100 kWc.

Le stockage de l’énergie, un équipement complémentaire essentiel

Pour éviter que la production d’énergie renouvelable ne soit perdue si elle n’est pas consommée immédiatement, Corsica Sole a également implanté à La Réunion une unité de stockage. Cette installation permet de stocker l’électricité verte produite chaque jour par les énergies renouvelables.

L’électricité ainsi stockée est réinjectée dans le réseau électrique local par les équipes d’EDF SEI. Elle contribue à fournir l’électricité pendant les pics de consommation du soir et aide à pallier les variations, les surtensions ou encore à fournir en quantité suffisante l’électricité nécessaire à la population grandissante de l’île. Cette installation participe ainsi à la régulation du réseau électrique de La Réunion.

CP/ Corsica Sole

Un nouveau matériau pour des circuits imprimés infiniment recyclables

Un nouveau matériau pour des circuits imprimés infiniment recyclables

Les déchets électroniques représentent un défi environnemental majeur, avec une augmentation de 82% entre 2010 et 2022 selon un récent rapport des Nations Unies. Les circuits imprimés, présents dans presque tous les appareils électroniques, sont particulièrement problématiques en raison de leur composition complexe qui rend leur recyclage difficile. Une équipe de chercheurs de l’Université de Washington a par conséquent développé une solution prometteuse pour résoudre ce problème.

Les chercheurs ont mis au point un nouveau type de circuit imprimé utilisant un matériau appelé vitrimère. Ce polymère de pointe peut être transformé en une substance gélatineuse à l’aide d’un solvant, sans endommager ses composants. Cette propriété permet de récupérer facilement les éléments électroniques pour leur réutilisation ou leur recyclage.

Les «vPCB» (circuits imprimés en vitrimère) peuvent être recyclés à plusieurs reprises, contrairement aux plastiques conventionnels qui se dégradent significativement à chaque recyclage. Lors des tests, les chercheurs ont pu récupérer 98% du vitrimère, 100% de la fibre de verre et 91% du solvant utilisé pour le recyclage.

Des performances comparables aux matériaux traditionnels

L’équipe a testé les propriétés mécaniques et électriques des vPCB et a constaté qu’ils offraient des performances comparables au matériau le plus couramment utilisé pour les circuits imprimés, le FR-4. De plus, la production de vPCB ne nécessiterait pas de changements majeurs dans les processus de fabrication existants.

Vikram Iyer, professeur assistant à l’Université de Washington et co-auteur principal de l’étude, souligne l’importance de cette découverte : « Nous avons créé une nouvelle formulation de matériau qui possède des propriétés électriques comparables aux circuits imprimés conventionnels, ainsi qu’un processus permettant de les recycler à plusieurs reprises. »

Un impact environnemental réduit

L’analyse de l’impact environnemental des vPCB a révélé une réduction potentielle de 48% du potentiel de réchauffement climatique et de 81% des émissions cancérigènes par rapport aux circuits imprimés traditionnels. Cependant, les chercheurs soulignent que pour recycler les vPCB à grande échelle, il faudra mettre en place des systèmes et des incitations pour collecter les déchets électroniques.

Bichlien H. Nguyen, chercheuse principale chez Microsoft Research et professeure affiliée à l’Université de Washington, insiste sur l’importance de la réglementation : « Pour une mise en œuvre réelle de ces systèmes, il faut une parité des coûts et une réglementation gouvernementale forte. À l’avenir, nous devons concevoir et optimiser les matériaux en tenant compte de la durabilité comme principe de base. »

Cette découverte pourrait permettre de développer un avenir plus durable pour l’industrie électronique, en offrant une solution concrète pour réduire l’impact environnemental des déchets électroniques.

Légende illustration : Une équipe dirigée par des chercheurs de l’université de Washington a mis au point un nouveau circuit imprimé dont les performances sont comparables à celles des matériaux traditionnels et qui peut être recyclé à plusieurs reprises avec une perte de matériau négligeable. Les chercheurs ont utilisé un solvant qui transforme un type de vitrimère – une classe de polymères de pointe – en une substance gélatineuse sans dommage, ce qui permet d’extraire les composants solides pour les réutiliser ou les recycler. Voici, de gauche à droite, un circuit imprimé à base de vitrimère, une feuille de fibres de verre, du vitrimère qui a été gonflé et retiré d’un circuit, et des composants électriques tels qu’une puce d’ordinateur. Crédit : Mark Stone/University of Washington

Article : “Recyclable vitrimer-based printed circuit boards for sustainable electronics” – DOI: 10.1038/s41893-024-01333-7

La supraconductivité 1D ouvre de nouvelles portes en physique quantique

La supraconductivité 1D ouvre de nouvelles portes en physique quantique

Dans le domaine de la supraconductivité, une équipe de chercheurs de l’Université de Manchester a réalisé une avancée majeure en obtenant une supraconductivité robuste sous des champs magnétiques élevés grâce à un nouveau système unidimensionnel (1D). Cette découverte ouvre des perspectives pour atteindre la supraconductivité dans le régime de l’effet Hall quantique, un défi de longue date en physique de la matière condensée.

Les chercheurs de Manchester, dirigés par le professeur Andre Geim, le Dr Julien Barrier et le Dr Na Xin, ont d’abord suivi l’approche conventionnelle consistant à rapprocher des états de bord à propagation opposée. Cependant, cette méthode s’est avérée limitée. L’équipe a alors exploré une nouvelle stratégie inspirée de leurs travaux antérieurs démontrant que les frontières entre les domaines dans le graphène pouvaient être hautement conductrices.

En plaçant ces parois de domaine entre deux supraconducteurs, ils ont obtenu la proximité ultime souhaitée entre les états de bord à propagation opposée tout en minimisant les effets du désordre. Le Dr Barrier, auteur principal de l’article, se souvient : « Nous avons été encouragés d’observer de grands supercourants à des températures relativement ‘douces’ jusqu’à un kelvin dans chaque dispositif que nous avons fabriqué. »

Des états électroniques 1D à l’origine de la supraconductivité de proximité

Des recherches approfondies ont révélé que la supraconductivité de proximité ne provenait pas des états de bord de l’effet Hall quantique se propageant le long des parois de domaine, mais plutôt des états électroniques strictement 1D existant à l’intérieur même des parois de domaine. Ces états 1D, dont l’existence a été prouvée par le groupe de théorie du professeur Vladimir Fal’ko au National Graphene Institute, ont montré une plus grande capacité à s’hybrider avec la supraconductivité par rapport aux états de bord de l’effet Hall quantique.

La nature intrinsèquement unidimensionnelle des états intérieurs serait responsable des supercourants robustes observés sous des champs magnétiques élevés. Cette découverte de la supraconductivité 1D à mode unique ouvre des perspectives passionnantes pour de futures recherches.

Un système pour la physique fondamentale et les technologies quantiques

Le Dr Barrier explique : « Dans nos dispositifs, les électrons se propagent dans deux directions opposées dans le même espace nanométrique et sans diffusion. De tels systèmes 1D sont exceptionnellement rares et promettent de résoudre un large éventail de problèmes en physique fondamentale. »

L’équipe a déjà démontré la capacité de manipuler ces états électroniques à l’aide d’une tension de grille et d’observer des ondes électroniques stationnaires qui modulaient les propriétés supraconductrices. Le Dr Xin conclut : « Il est fascinant de penser à ce que ce nouveau système peut nous apporter à l’avenir. La supraconductivité 1D présente une voie alternative vers la réalisation de quasi-particules topologiques combinant l’effet Hall quantique et la supraconductivité. »

Vingt ans après l’avènement du premier matériau 2D, le graphène, cette recherche de l’Université de Manchester représente une nouvelle étape dans le domaine de la supraconductivité. Le développement de ce nouveau supraconducteur 1D devrait ouvrir des portes pour les avancées des technologies quantiques et ouvrir la voie à l’exploration de nouvelles physiques, suscitant l’intérêt de diverses communautés scientifiques.

Article : “One-dimensional proximity superconductivity in the quantum Hall regime” – DOI: 10.1038/s41586-024-07271-w

Quand les atomes imitent les oiseaux : une découverte surprenante

Quand les atomes imitent les oiseaux : une découverte surprenante

Des chercheurs japonais ont démontré que le ferromagnétisme, un état ordonné des atomes, peut être induit en augmentant la motilité des particules et que les forces répulsives entre les atomes sont suffisantes pour le maintenir. Cette découverte étend non seulement le concept de matière active aux systèmes quantiques, mais contribue également au développement de nouvelles technologies qui reposent sur les propriétés magnétiques des particules, telles que la mémoire magnétique et l’informatique quantique.

Des exemples de matière active à différentes échelles

Les oiseaux qui volent en groupe, les bactéries qui essaiment, les flux cellulaires sont tous des exemples de matière active, un état dans lequel des agents individuels, tels que des oiseaux, des bactéries ou des cellules, s’auto-organisent. Les agents passent d’un état désordonné à un état ordonné dans ce que l’on appelle une «transition de phase». En conséquence, ils se déplacent ensemble de manière organisée sans contrôleur externe.

Selon Kazuaki Takasan de l’Université de Tokyo, premier auteur de l’étude, des recherches antérieures ont montré que le concept de matière active peut s’appliquer à une large gamme d’échelles, des nanomètres (biomolécules) aux mètres (animaux). Cependant, on ne savait pas si la physique de la matière active pouvait être appliquée de manière utile dans le régime quantique. Les chercheurs ont voulu combler cette lacune.

Un modèle théorique inspiré du comportement des oiseaux

Pour combler cette lacune, les chercheurs devaient démontrer un mécanisme possible qui pourrait induire et maintenir un état ordonné dans un système quantique. Il s’agissait d’un travail collaboratif entre la physique et la biophysique. Les chercheurs se sont inspirés des phénomènes d’oiseaux qui volent en groupe, car, en raison de l’activité de chaque agent, l’état ordonné est plus facilement atteint que dans d’autres types de matière active.

Ils ont créé un modèle théorique dans lequel les atomes imitaient essentiellement le comportement des oiseaux. Dans ce modèle, lorsqu’ils ont augmenté la motilité des atomes, les forces répulsives entre les atomes les ont réarrangés dans un état ordonné appelé ferromagnétisme. Dans l’état ferromagnétique, les spins, le moment angulaire des particules subatomiques et des noyaux, s’alignent dans une direction, tout comme les oiseaux qui volent en groupe font face à la même direction pendant leur vol.

Une découverte surprenante et validée par plusieurs approches

Kazuaki Takasan a été surpris de constater que l’ordre pouvait apparaître sans interactions élaborées entre les agents dans le modèle quantique, ce qui était différent de ce qui était attendu sur la base des modèles biophysiques.

Les chercheurs ont adopté une approche à multiples facettes pour s’assurer que leur découverte n’était pas un hasard. Heureusement, les résultats des simulations informatiques, de la théorie du champ moyen, une théorie statistique des particules, et des preuves mathématiques basées sur l’algèbre linéaire étaient tous cohérents. Cela a renforcé la fiabilité de leur découverte, première étape d’une nouvelle ligne de recherche.

Perspectives futures pour la matière active quantique

Comme le souligne Kazuaki Takasan, l’extension de la matière active au monde quantique n’a commencé que récemment et de nombreux aspects restent encore ouverts. Les chercheurs souhaitent développer davantage la théorie de la matière active quantique et révéler ses propriétés universelles.

Cette étude, publiée dans la revue Physical Review Research, ouvre de nouvelles perspectives pour la compréhension et l’exploitation des propriétés magnétiques des particules à l’échelle quantique, avec des applications potentielles dans des domaines tels que la mémoire magnétique et l’informatique quantique.

Article : “Activity-induced ferromagnetism in one-dimensional quantum many-body systems” – DOI: 10.1103/PhysRevResearch.6.023096

Légende illustration : Image schématique du ferromagnétisme induit par l’activité dans la matière active quantique. Ici, des atomes mobiles avec des spins présentent l’ordre ferromagnétique (c’est-à-dire qu’ils s’alignent dans une direction) comme une volée d’oiseaux décrite ci-dessus. Crédit : Takasan et al 2024

Des scientifiques captent les rayons X d’un éclair positif ascendant

Des scientifiques captent les rayons X d'un éclair positif ascendant

Les chercheurs de l’EPFL ont réussi, pour la première fois, à mesurer directement un phénomène insaisissable qui explique en grande partie la naissance d’un éclair : le rayonnement X. Cette découverte offre des informations précieuses sur la formation de la foudre, en particulier sur les éclairs ascendants, et pourrait contribuer à réduire les risques liés à ce phénomène naturel dévastateur.

La foudre, un phénomène dévastateur

À l’échelle mondiale, la foudre est responsable de plus de 4 000 décès et de milliards de dollars de dégâts chaque année. La Suisse, à elle seule, subit jusqu’à 150 000 impacts de foudre par an. Comprendre exactement comment la foudre se forme est essentiel pour réduire les risques, mais en raison de la rapidité des phénomènes liés à la foudre, qui se produisent en quelques millisecondes, il est extrêmement difficile d’obtenir des mesures directes.

Les chercheurs du Laboratoire de compatibilité électromagnétique de l’EPFL, dirigé par Farhad Rachidi, ont enregistré des impacts de foudre sur la tour Säntis, dans le nord-est de la Suisse, identifiant les rayons X associés au début des éclairs ascendants positifs. Ces éclairs commencent par des filaments chargés négativement (leaders) qui montent par étapes depuis un objet situé en altitude, avant de se connecter à un nuage orageux, transférant une charge positive au sol.

Les éclairs ascendants, potentiellement plus dévastateurs

Toma Oregel-Chaumont, doctorant au Laboratoire de compatibilité électromagnétique, explique : « Au niveau de la mer, les éclairs ascendants sont rares, mais ils pourraient devenir le type dominant à haute altitude. Ils ont également le potentiel d’être plus dévastateurs, car lors d’un éclair ascendant, la foudre reste en contact avec une structure plus longtemps que lors d’un éclair descendant, lui laissant plus de temps pour transférer la charge électrique. »

Bien que des émissions de rayons X aient déjà été observées pour d’autres types de foudre, c’est la première fois qu’elles sont capturées à partir d’éclairs ascendants positifs. Oregel-Chaumont, premier auteur d’un récent article paru dans Nature Scientific Reports décrivant ces observations, affirme qu’elles offrent des informations précieuses sur la formation de la foudre, et en particulier de la foudre ascendante.

Image d’un éclair positif vers le haut prise par une caméra à grande vitesse © EMC EPFL CC BY SA

La tour Säntis, un site d’observation unique

Il n’est peut-être pas surprenant que ces nouvelles observations aient été réalisées en Suisse, car la tour Säntis offre des conditions de mesure uniques et idéales. La tour de 124 mètres est perchée au sommet d’un haut sommet des Alpes d’Appenzell, ce qui en fait une cible privilégiée pour la foudre. Il y a une ligne de vue dégagée depuis les pics voisins, et le vaste centre de recherche est équipé de caméras ultra-rapides, de détecteurs de rayons X, de capteurs de champ électrique et de dispositifs de mesure du courant.

La vitesse et la sensibilité de cet équipement ont permis à l’équipe de voir une différence entre les étapes des leaders négatifs qui émettaient des rayons X et celles qui n’en émettaient pas, soutenant une théorie de la formation de la foudre connue sous le nom de modèle d’électrons froids en fuite. En résumé, l’association des rayons X à des changements très rapides du champ électrique de l’air a conforté la théorie selon laquelle des augmentations soudaines du champ électrique de l’air provoquent la «fuite» des électrons ambiants et leur transformation en plasma : la foudre.

Implications pour la sécurité des structures en altitude

Oregel-Chaumont souligne l’importance de ces informations non seulement d’un point de vue théorique, mais aussi d’un point de vue pratique : « De plus en plus de structures en altitude, comme les éoliennes et les avions, sont construites en matériaux composites. Ces derniers sont moins conducteurs que les métaux comme l’aluminium, ils chauffent donc davantage, ce qui les rend vulnérables aux dégâts causés par la foudre ascendante. »

Les observations à Säntis, qui reçoit plus de 100 impacts de foudre chaque année, se poursuivent. Les scientifiques prévoient d’ajouter un capteur de micro-ondes à l’arsenal d’équipements de la tour, ce qui pourrait aider à déterminer si le modèle d’électrons froids en fuite s’applique également à la foudre descendante, car contrairement aux rayons X, les micro-ondes peuvent être mesurées à partir des nuages.

Références

Oregel-Chaumont, T., Šunjerga, A., Hettiarachchi, P. et al. Direct observations of X-rays produced by upward positive lightning. Sci Rep 14, 8083 (2024). 10.1038/s41598-024-58520-x

Légende illustration : La tour du Säntis dans le nord-est de la Suisse © EMC EPFL CC BY SA

Un catalyseur multiplie par 10 la production d’hydrogène vert

Un catalyseur multiplie par 10 la production d'hydrogène vert

La production d’hydrogène durable et respectueuse de l’environnement est un enjeu majeur pour répondre aux besoins énergétiques croissants de notre société. Les chercheurs du RIKEN Center for Sustainable Resource Science (CSRS) au Japon, dirigés par Ryuhei Nakamura, ont fait un pas de plus vers cet objectif en améliorant leur méthode d’extraction de l’hydrogène à partir de l’eau, grâce à un catalyseur sur mesure pour la réaction chimique.

Une avancée significative dans l’électrolyse de l’eau

Publiée dans la revue Nature Catalysis, l’étude détaille comment les chercheurs ont manipulé la structure 3D du catalyseur, ce qui a permis d’améliorer sa stabilité et d’augmenter sa durée de vie de près de 4 000%. Ces résultats ont un impact sur la capacité à atteindre une économie énergétique durable basée sur l’hydrogène.

L’électrolyse de l’eau utilisant des membranes échangeuses de protons est un processus électrochimique vert permettant de diviser l’eau en oxygène et en hydrogène. L’hydrogène ainsi produit peut ensuite être stocké et utilisé ultérieurement, par exemple pour alimenter une voiture électrique lorsqu’il est combiné à une pile à combustible à membrane échangeuse de protons (PEM).

Les défis de l’électrolyse PEM à grande échelle

Cependant, l’électrolyse PEM présente encore des limites qui empêchent son utilisation industrielle à grande échelle, notamment dans les centrales électriques. En particulier, les réactions chimiques nécessaires se produisent dans un environnement très acide, et les meilleurs catalyseurs pour ces réactions sont des métaux de terres rares extrêmement rares, comme l’iridium.

Comme l’explique Ryuhei Nakamura, « le passage à l’échelle térawatt de l’électrolyse PEM nécessiterait 40 ans de production d’iridium, ce qui est certainement peu pratique et très peu durable. »

Un catalyseur abondant et durable

Il y a près de deux ans, Ryuhei Nakamura et son équipe ont mis au point un processus révolutionnaire permettant l’électrolyse de l’eau acide sans recourir aux métaux de terres rares. En insérant du manganèse dans un réseau d’oxyde de cobalt, ils ont créé un processus qui ne reposait que sur des métaux communs et durables.

Malgré ce succès, le processus n’était pas encore aussi stable qu’il devrait l’être dans un électrolyseur PEM. Aujourd’hui, les chercheurs ont développé un catalyseur abondant et durable qui dure plus longtemps.

La clé : modifier la structure du réseau du catalyseur

Le nouveau catalyseur est une forme d’oxyde de manganèse (MnO2). La découverte clé a été que la stabilité de la réaction pouvait être augmentée de plus de 40 fois en modifiant la structure du réseau du catalyseur.

L’oxygène dans la structure 3D en réseau de l’oxyde de manganèse se présente sous deux configurations, planaire et pyramidale. La version planaire forme des liaisons plus fortes avec le manganèse, et les chercheurs ont découvert que l’augmentation de la quantité d’oxygène planaire dans le réseau améliorait considérablement la stabilité catalytique.

Des résultats prometteurs pour l’avenir

Lorsqu’il a été testé dans un électrolyseur PEM, l’électrolyse de l’eau a pu être maintenue pendant environ 6 semaines à 200 mA/cm2. La quantité totale d’eau électrolysée pendant cette période, et donc la quantité d’hydrogène produite, était 10 fois supérieure à ce qui avait été obtenu jusqu’à présent avec d’autres catalyseurs non rares.

« De manière surprenante », déclare Shuang Kong, co-premier auteur, « l’amélioration de la stabilité ne s’est pas faite au détriment de l’activité, ce qui est généralement le cas. Un électrolyseur d’eau PEM qui génère de l’hydrogène avec un catalyseur abondant à un taux de 200 mA/cm2 est très efficace. »

Il reste encore du travail à faire. Les applications industrielles nécessitent généralement une densité de courant stable de 1000 mA/cm2 qui dure plusieurs années, plutôt qu’un mois. Néanmoins, les chercheurs pensent que des applications tangibles et réelles seront finalement possibles et contribueront à la neutralité carbone.

« Nous continuerons à modifier la structure du catalyseur pour augmenter à la fois la densité de courant et la durée de vie du catalyseur », ajoute Ryuhei Nakamura. « À long terme, nos efforts devraient contribuer à atteindre l’objectif ultime de toutes les parties prenantes : conduire l’électrolyse de l’eau PEM sans utiliser d’iridium. »

En attendant, les chercheurs espèrent que leurs découvertes susciteront un intérêt public accru pour la production d’hydrogène durable en tant que solution réaliste pour ralentir le changement climatique lié aux combustibles fossiles.

Légende illustration : Electrolyseur d’eau à membrane d’échange de protons (PEM) utilisant de l’oxyde de manganèse. Crédit : RIKEN

Article : “Acid-stable manganese oxides for proton exchange membrane water electrolysis” – DOI: 10.1038/s41929-023-01091-3

LASIT, une Révolution dans le Marquage Laser pour les Appareils Électroménagers

LASIT, une Révolution dans le Marquage Laser pour les Appareils Électroménagers

Dans l’univers concurrentiel des appareils électroménagers, l’innovation technologique demeure un moteur essentiel de développement et de différenciation. Parmi les technologies émergentes, le marquage laser, championné par LASIT, se distingue par sa capacité à rehausser l’esthétique et la fonctionnalité des produits. Avec une expérience de plus de trente ans, LASIT innove constamment pour proposer des solutions adaptées aux exigences spécifiques de chaque client.

La Précision Avancée du Marquage Laser

Le marquage laser est reconnu pour sa précision exceptionnelle. Capable de graver des motifs extrêmement complexes avec une netteté parfaite, cette technologie est idéale pour l’industrie des appareils électroménagers où la finesse du détail est non seulement une question de fonction, mais aussi de style. Les marquages réalisés sont non seulement esthétiques mais aussi durables, résistant à des conditions telles que l’abrasion, la chaleur et divers produits chimiques.

Efficacité et Productivité Accrues

L’un des atouts majeurs du marquage laser réside dans sa vitesse d’exécution. Cette rapidité permet une production plus efficace, réduisant ainsi les temps d’arrêt en usine et augmentant la productivité globale. Cette efficience est particulièrement cruciale dans un secteur où la capacité à accélérer la mise sur le marché peut constituer un avantage compétitif déterminant.

Technologies Spécifiques pour le Plastique

Concernant le marquage sur les plastiques, fréquemment utilisés dans la fabrication d’appareils électroménagers, LASIT a perfectionné des méthodes telles que la carbonisation, le changement de couleur et l’ablation sélective. Grâce à des outils avancés tels que les lasers UV, FlyPeak et MOPA, ces techniques assurent un marquage de haute qualité adapté aux propriétés uniques des différents plastiques.

Un Partenariat Continu

Au-delà de la fourniture d’équipements, LASIT se positionne en partenaire stratégique pour ses clients. En offrant un soutien technique continu et des conseils expert, LASIT aide ses clients à maximiser l’efficacité et l’impact de leurs solutions de marquage.

Vers un Avenir Innovant

Toujours à l’avant-garde de la technologie, LASIT explore continuellement de nouveaux horizons pour enrichir ses offres et répondre aux défis d’un marché en constante évolution. En intégrant des solutions de marquage laser, les fabricants d’appareils électroménagers peuvent non seulement améliorer l’aspect visuel de leurs produits mais aussi en garantir la traçabilité et la durabilité.

Pour plus d’informations sur les solutions innovantes de LASIT, visitez leur site. Pour en savoir plus sur les innovations dans le domaine de l’énergie solaire et d’autres technologies renouvelables, cliquez ici.

Ce développement continue de cimenter la réputation de LASIT en tant que leader dans le domaine du marquage laser, offrant des solutions personnalisées qui font avancer toute l’industrie.

L’ivoire illégal démasqué par la science : une nouvelle arme contre le trafic

L'ivoire illégal démasqué par la science : une nouvelle arme contre le trafic

La lutte contre le commerce illégal de l’ivoire d’éléphant est un enjeu majeur pour la préservation de cette espèce menacée. Les scientifiques des universités de Bristol et de Lancaster ont développé une nouvelle méthode basée sur la spectroscopie Raman, qui pourrait permettre aux douanes du monde entier de distinguer rapidement l’ivoire d’éléphant illégal de l’ivoire de défense de mammouth légal.

Malgré l’interdiction du commerce international de l’ivoire par la Convention sur le commerce international des espèces de faune et de flore sauvages menacées d’extinction (CITES), le braconnage lié à son commerce illégal n’a pas empêché la souffrance des éléphants. On estime que ce trafic est responsable d’une perte de 8% de la population mondiale d’éléphants chaque année. Selon le recensement de la base de données sur les éléphants d’Afrique de 2016, il ne resterait plus que 410 000 éléphants sur le continent, soit une diminution d’environ 90 000 individus par rapport au rapport précédent de 2013.

Si le commerce de l’ivoire d’éléphant est illégal, il n’est pas interdit de vendre de l’ivoire provenant d’espèces éteintes, comme les défenses de mammouth conservées. Cette source légale d’ivoire fait désormais partie d’une industrie lucrative et en pleine expansion, celle des «chasseurs de mammouths». Cela pose également un problème de temps et d’application pour les équipes douanières, car l’ivoire de ces deux types de défenses est globalement similaire, ce qui rend difficile la distinction entre les deux, surtout une fois que les spécimens ont été travaillés ou sculptés.

Le Dr Rebecca Shepherd avec des échantillons d’ivoire de mammouth provenant du musée d’histoire naturelle. À l’arrière-plan, on peut voir le spectromètre Raman de table.

La spectroscopie Raman, une méthode pour distinguer les ivoires

Dans cette nouvelle étude, des scientifiques de l’École d’anatomie de Bristol et de la Lancaster Medical School ont cherché à établir si la spectroscopie Raman, déjà utilisée dans l’étude de la chimie des os et des minéraux, pouvait être modifiée pour détecter avec précision les différences de composition chimique entre l’ivoire de mammouth et d’éléphant.

Les chercheurs ont scanné des échantillons de défenses de mammouth et d’éléphant provenant du Natural History Museum de Londres à l’aide de la méthode basée sur le laser, la spectroscopie Raman. Les résultats de l’expérience ont montré que cette technologie permettait une identification précise, rapide et non destructive des espèces.

Un objet en ivoire, supposé provenir d’un éléphant d’Asie, sous le microscope d’un microspectromètre Raman Renishaw in Via.

Comme l’explique le Dr Rebecca Shepherd, anciennement de la Lancaster Medical School et maintenant à l’École d’anatomie de l’Université de Bristol :

«La méthode d’identification de référence recommandée par l’Office des Nations unies contre la drogue et le crime pour évaluer la légalité de l’ivoire est principalement coûteuse, destructrice et chronophage. La spectroscopie Raman peut fournir des résultats rapidement (un seul scan ne prend que quelques minutes) et est plus facile à utiliser que les méthodes actuelles, ce qui facilite la distinction entre l’ivoire d’éléphant illégal et l’ivoire de défense de mammouth légal. Une surveillance et un contrôle accrus des échantillons passant par les douanes du monde entier à l’aide de la spectroscopie Raman pourraient dissuader les braconniers de s’en prendre aux espèces d’éléphants en danger et en danger critique d’extinction.»

Une méthode prometteuse pour lutter contre le trafic d’ivoire

Le Dr Jemma Kerns de la Lancaster Medical School ajoute :

«L’approche combinée d’une méthode laser non destructive de spectroscopie Raman avec une analyse de données avancée est très prometteuse pour l’identification d’échantillons d’ivoire inconnus, ce qui est particulièrement important, étant donné l’augmentation des défenses de mammouth disponibles et la nécessité d’une identification rapide.»

Pour le professeur Adrian Lister, l’un des coauteurs de l’étude du Natural History Museum :

«L’arrêt du commerce de l’ivoire d’éléphant a été compromis par des objets en ivoire illégaux décrits ou déguisés en ivoire de mammouth (dont le commerce est légal). Une méthode rapide et fiable pour distinguer les deux a longtemps été un objectif, car les autres méthodes (comme la datation au radiocarbone et l’analyse de l’ADN) prennent du temps et sont coûteuses. La démonstration que les deux peuvent être séparés par spectroscopie Raman est donc une avancée significative ; de plus, cette méthode (contrairement aux autres) ne nécessite aucun prélèvement, laissant l’objet en ivoire intact.»

Un objet en ivoire, supposé provenir d’un éléphant d’Asie, sous le microscope à l’intérieur d’un microspectromètre Raman Renishaw in via.

Légende illustration : Le Dr Rebecca Shepherd avec des échantillons d’ivoire de mammouth provenant du musée d’histoire naturelle. À l’arrière-plan, on peut voir le spectromètre Raman de table. Crédit : Dr Rebecca Shepherd

Cette étude, financée par l’Engineering and Physical Sciences Research Council (EPSRC), a impliqué des chercheurs des universités de Lancaster et de Birmingham ainsi que du Natural History Museum. Elle ouvre de nouvelles perspectives dans la lutte contre le commerce illégal de l’ivoire et la préservation des éléphants, une espèce menacée.

Le lidar miniaturisé repousse les limites de la résolution d’image

Le lidar miniaturisé repousse les limites de la résolution d'image

Les chercheurs ont développé un système de lidar aéroporté à photon unique compact et léger, capable d’acquérir des images 3D haute résolution avec un laser de faible puissance. Cette avancée pourrait rendre le lidar à photon unique pratique pour des applications aériennes et spatiales telles que la surveillance de l’environnement, la cartographie 3D du terrain et l’identification d’objets.

Le lidar à photon unique utilise des techniques de détection de photons uniques pour mesurer le temps nécessaire aux impulsions laser pour atteindre les objets et revenir. Il est particulièrement utile pour les applications aéroportées car il permet une cartographie 3D très précise du terrain et des objets, même dans des environnements difficiles tels que la végétation dense ou les zones urbaines.

Selon Feihu Xu, membre de l’équipe de recherche de l’Université des sciences et technologies de Chine, « l’utilisation de la technologie lidar à photon unique sur des drones ou des satellites aux ressources limitées nécessite de réduire l’ensemble du système et de diminuer sa consommation d’énergie ».

Les chercheurs ont réussi à intégrer les développements technologiques récents dans un système qui, par rapport aux autres systèmes lidar aéroportés de pointe, emploie la puissance laser la plus faible et l’ouverture optique la plus petite tout en maintenant de bonnes performances en termes de portée de détection et de résolution d’image.

Performances du système lidar miniaturisé

Dans la revue Optica, les chercheurs montrent que le système a la capacité d’atteindre une résolution d’image qui dépasse la limite de diffraction de la lumière lorsqu’il est utilisé avec un balayage sous-pixel et un nouvel algorithme de déconvolution 3D. Ils démontrent également la capacité du système à capturer des images 3D haute résolution pendant la journée sur de vastes zones à bord d’un petit avion.

« En fin de compte, notre travail a le potentiel d’améliorer notre compréhension du monde qui nous entoure et de contribuer à un avenir plus durable et mieux informé pour tous », a déclaré Feihu Xu. « Par exemple, notre système pourrait être déployé sur des drones ou de petits satellites pour surveiller les changements dans les paysages forestiers, tels que la déforestation ou d’autres impacts sur la santé des forêts. Il pourrait également être utilisé après des tremblements de terre pour générer des cartes 3D du terrain qui pourraient aider à évaluer l’étendue des dommages et guider les équipes de secours, sauvant potentiellement des vies. »

Un nouveau système lidar aéroporté compact et léger à photon unique pourrait rendre le lidar à photon unique pratique pour les applications aériennes et spatiales telles que la cartographie de terrain en 3D. Crédit : Feihu Xu, University of Science and Technology of China

Composants clés du système lidar compact

Pour réduire la taille globale du système, les chercheurs ont utilisé de petits télescopes avec une ouverture optique de 47 mm comme optique de réception. Une partie clé du nouveau système est constituée des miroirs de balayage spéciaux qui effectuent un balayage fin continu, capturant des informations sous-pixel des cibles au sol.

De plus, un nouvel algorithme de calcul efficace en photons extrait ces informations sous-pixel à partir d’un petit nombre de détections de photons bruts, permettant la reconstruction d’images 3D super-résolues malgré les défis posés par les signaux faibles et le bruit solaire important.

Tests au sol et en vol du lidar à photon unique

Les chercheurs ont mené une série de tests pour valider les capacités du nouveau système. Un test au sol avant le vol a confirmé l’efficacité de la technique et a montré que le système était capable d’effectuer une imagerie lidar avec une résolution de 15 cm à une distance de 1,5 km avec les paramètres par défaut. Une fois le balayage sous-pixel et la déconvolution 3D mis en œuvre, les chercheurs ont pu démontrer une résolution effective de 6 cm à la même distance.

Les enquêteurs ont également mené des expériences de jour avec le système à bord d’un petit avion pendant plusieurs semaines dans la ville de Yiwu, province du Zhejiang, en Chine. Ces expériences ont révélé avec succès les caractéristiques détaillées de divers reliefs et objets, confirmant la fonctionnalité et la fiabilité du système dans des scénarios réels.

Perspectives d’amélioration et d’application du lidar compact

L’équipe travaille maintenant à améliorer les performances et l’intégration du système, avec pour objectif à long terme de l’installer sur une plateforme spatiale telle qu’un petit satellite. La stabilité, la durabilité et la rentabilité du système doivent également être améliorées avant qu’il ne puisse être commercialisé.

Légende illustration : Un nouveau système lidar aéroporté compact et léger à photon unique pourrait rendre le lidar à photon unique pratique pour les applications aériennes et spatiales telles que la cartographie de terrain en 3D. Crédit : Feihu Xu, University of Science and Technology of China

Article : “Airborne single-photon LiDAR towards small-size and low-power payload” – DOI: 10.1364/OPTICA.518999

Batteries aqueuses : la clé pour un stockage d’énergie plus sûr ?

Batteries aqueuses : la clé pour un stockage d'énergie plus sûr ?

Les batteries lithium-ion traditionnelles non aqueuses offrent une densité énergétique élevée, mais leur sécurité est compromise en raison de l’utilisation d’électrolytes organiques inflammables. Les chercheurs explorent des alternatives plus sûres, telles que les batteries aqueuses, qui utilisent l’eau comme solvant pour les électrolytes.

Ces batteries présentent généralement une densité énergétique inférieure en raison de la solubilité limitée de l’électrolyte et de la faible tension de la batterie. Une équipe de recherche chinoise a développé une nouvelle approche prometteuse pour surmonter ces limitations et améliorer considérablement la densité énergétique des batteries aqueuses.

Une cathode à transfert multi-électrons basée sur le brome et l’iode

Dans une étude récemment publiée dans Nature Energy, un groupe de recherche dirigé par le professeur LI Xianfeng de l’Institut de chimie physique de Dalian (DICP) de l’Académie chinoise des sciences (CAS), en collaboration avec le groupe du professeur FU Qiang également du DICP, a développé une cathode à transfert multi-électrons basée sur le brome et l’iode. Cette innovation a permis d’atteindre une capacité spécifique de plus de 840 Ah/L et une densité énergétique allant jusqu’à 1200 Wh/L lors des tests de batterie complète basés sur le catholyte.

Pour améliorer la densité énergétique des batteries aqueuses, les chercheurs ont utilisé une solution d’halogène mixte d’ions iodure (I-) et d’ions bromure (Br-) comme électrolyte. Ils ont développé une réaction de transfert multi-électrons, transférant I- en élément iode (I2) puis en iodate (IO3-).

Pendant le processus de charge, les I- sont oxydés en IO3- du côté positif, et les H+ générés sont conduits du côté négatif sous forme d’électrolyte support. Pendant le processus de décharge, les H+ sont conduits du côté positif et les IO3- sont réduits en I-.

Optimisation de la réaction électrochimique grâce au brome

Les chercheurs ont confirmé que le Br- ajouté à l’électrolyte pouvait générer de l’iodure de brome polaire (IBr) pendant le processus de charge, ce qui facilitait la réaction avec H2O pour former IO3-. Pendant la décharge, IO3- pouvait oxyder Br- en Br2 et participer à la réaction électrochimique pour réaliser une décharge réversible et rapide de IO3-.

Par conséquent, l’intermédiaire bromure formé pendant le processus de charge et de décharge a optimisé le processus de réaction, améliorant efficacement la cinétique et la réversibilité de la réaction électrochimique.

Le groupe du professeur FU a prouvé le processus de transfert multi-électrons par microscopie optique in-situ, spectroscopie Raman et d’autres techniques.

Selon le professeur LI, «Cette étude fournit une nouvelle idée pour la conception de batteries aqueuses à haute densité énergétique et pourrait étendre l’application des batteries aqueuses dans le domaine des batteries de puissance.»

Article : “Reversible multielectron transfer I−/IO3− cathode enabled by a hetero-halogen electrolyte for high-energy-density aqueous batteries” – DOI: 10.1038/s41560-024-01515-9

Prédire l’imprévisible : le défi des sillages dans l’éolien offshore

Prédire l'imprévisible : le défi des sillages dans l'éolien offshore

L’énergie éolienne offshore représente une opportunité majeure pour répondre à la demande croissante en électricité aux États-Unis, en particulier pendant les mois d’été où la consommation augmente considérablement. Cependant, prédire avec précision la quantité d’énergie que ces éoliennes en mer peuvent produire reste un défi de taille pour les opérateurs de réseaux électriques.

Une équipe de scientifiques de l’Université du Colorado à Boulder, dirigée par Dave Rosencrans, doctorant, et Julie K. Lundquist, professeure au Département des sciences atmosphériques et océaniques, a publié une étude dans la revue Wind Energy Science. Selon leurs estimations, les éoliennes offshore situées dans la région de l’océan Atlantique, où les États-Unis prévoient de construire de grands parcs éoliens, pourraient réduire le vent disponible pour les autres éoliennes à proximité, diminuant ainsi la production d’énergie des parcs de plus de 30%.

Ce phénomène, appelé «effet de sillage», se produit lorsque le vent traverse les éoliennes situées en amont, qui extraient une partie de l’énergie du vent. En conséquence, le vent ralentit et devient plus turbulent derrière ces éoliennes, ce qui signifie que les éoliennes en aval reçoivent un vent plus lent, entraînant parfois une baisse de la production d’énergie.

Les parcs éoliens offshore pourraient couvrir 60% de la demande en électricité de la Nouvelle-Angleterre

Malgré l’effet de sillage, l’équipe a estimé que les parcs éoliens proposés pourraient tout de même fournir environ 60% de la demande en électricité du réseau de la Nouvelle-Angleterre, qui couvre les États du Connecticut, du Maine, du Massachusetts, du New Hampshire, du Rhode Island et du Vermont.

Julie K. Lundquist souligne l’importance de prédire quand ces sillages seront coûteux et quand ils auront peu d’effet, étant donné que les États-Unis prévoient de construire des milliers d’éoliennes offshore.

Les conditions météorologiques influencent la propagation des sillages

Dave Rosencrans, premier auteur de l’étude, explique que l’effet de sillage est particulièrement important en mer, car il n’y a pas de maisons ou d’arbres pour remuer l’air et aider à dissiper les sillages.

Les simulations informatiques et les données d’observation de l’atmosphère ont permis à l’équipe de calculer que l’effet de sillage réduit la production totale d’énergie de 34% à 38% dans un parc éolien proposé au large de la côte Est. La majeure partie de cette réduction provient des sillages formés entre les éoliennes d’un même parc.

Cependant, dans certaines conditions météorologiques, les sillages peuvent atteindre des éoliennes situées jusqu’à 55 kilomètres sous le vent et affecter d’autres parcs éoliens. Par exemple, pendant les journées chaudes d’été, l’écoulement de l’air au-dessus de la surface fraîche de la mer a tendance à être relativement stable, ce qui fait que les sillages persistent plus longtemps et se propagent sur de plus longues distances.

Un équilibre délicat entre l’offre et la demande d’électricité

L’intégration croissante des énergies renouvelables dans le système électrique représente un défi pour les opérateurs de réseaux, car l’énergie éolienne et solaire est variable, le soleil ne brillant pas toujours et le vent ne soufflant pas en permanence.

Julie K. Lundquist souligne que le réseau électrique est un système complexe qui nécessite un équilibre parfait entre l’offre et la demande en temps réel. Tout déséquilibre peut entraîner des pannes dévastatrices, comme ce qui s’est produit au Texas en 2021, où des coupures de courant ont causé la mort de près de 250 personnes.

Des instruments de mesure pour améliorer les prévisions de production d’énergie éolienne

Pour mieux comprendre comment le vent souffle dans la zone proposée pour le parc éolien, l’équipe a installé une série d’instruments sur les îles au large de la côte de la Nouvelle-Angleterre en décembre dernier, dans le cadre du projet Wind Forecast Improvement Project 3 du Département de l’énergie.

Ces instruments, qui comprennent des moniteurs météorologiques et des capteurs radar, collecteront des données pendant au moins un an. Auparavant, les modèles de prévision de la production d’énergie éolienne offshore s’appuyaient généralement sur des données intermittentes provenant de navires et d’observations satellitaires. L’espoir est qu’avec des données continues directement issues de l’océan, les scientifiques pourront améliorer les modèles de prévision et mieux intégrer l’énergie éolienne offshore dans le réseau.

Un mix énergétique diversifié pour répondre à la demande croissante en électricité

Outre la demande croissante en climatisation et en pompes à chaleur, la consommation d’électricité aux États-Unis a augmenté rapidement ces dernières années en raison de la prévalence croissante des véhicules électriques, des centres de données et des installations de fabrication. Au cours des cinq prochaines années, les analyses prévoient que la demande en électricité aux États-Unis augmentera de près de 5%, une hausse substantielle par rapport au taux de croissance annuel estimé à 0,5% au cours de la dernière décennie.

« Nous avons besoin d’un mix diversifié de sources d’énergie propres pour répondre à la demande et décarboner le réseau. Avec de meilleures prévisions de l’énergie éolienne, nous pouvons parvenir à une plus grande dépendance aux énergies renouvelables. » a conclu Julie K. Lundquist.

Légende illustration : Un LiDAR éolien pour la collecte de données sur l’énergie éolienne, les conditions météorologiques et les mouvements d’air. Crédit : Julie Lundquist/CU Boulder

Article : “Seasonal variability of wake impacts on US mid-Atlantic offshore wind plant power production” – DOI: 10.5194/wes-9-555-2024

Un magnétar détecté hors de notre galaxie : une première cosmique

Un magnétar détecté hors de notre galaxie : une première cosmique

Les magnétars, ces étoiles à neutrons dotées d’un champ magnétique extrêmement puissant, restent encore mystérieux pour les astronomes. Cependant, une récente découverte réalisée grâce aux télescopes spatiaux de l’ESA, INTEGRAL et XMM-Newton, apporte un nouvel éclairage sur ces objets fascinants. Pour la première fois, une éruption géante de magnétar a été détectée en dehors de notre galaxie, dans la galaxie voisine M82.

Une explosion soudaine détectée par INTEGRAL

Le 15 novembre 2023, le satellite INTEGRAL de l’ESA a repéré une explosion soudaine provenant d’un objet rare. Pendant seulement un dixième de seconde, une brève rafale de rayons gamma énergétiques est apparue dans le ciel.

« Les données du satellite ont été reçues au Centre de données scientifiques INTEGRAL (ISDC), basé sur le site Ecogia du Département d’astronomie de l’UNIGE, d’où une alerte de sursaut gamma a été envoyée aux astronomes du monde entier, seulement 13 secondes après sa détection », explique Carlo Ferrigno, chercheur associé principal au Département d’astronomie de la Faculté des sciences de l’UNIGE, PI de l’ISDC et co-auteur de la publication.

Le logiciel IBAS (Integral Burst Alert System) a fourni une localisation automatique coïncidant avec la galaxie M82, située à 12 millions d’années-lumière. Ce système d’alerte a été développé et est exploité par des scientifiques et des ingénieurs de l’UNIGE en collaboration avec des collègues internationaux.

Un signal curieux provenant d’une galaxie voisine

«Nous avons immédiatement réalisé qu’il s’agissait d’une alerte spéciale. Les sursauts gamma proviennent de loin et de n’importe où dans le ciel, mais ce sursaut provenait d’une galaxie brillante proche», explique Sandro Mereghetti de l’Institut national d’astrophysique (INAF-IASF) à Milan, en Italie, auteur principal de la publication et contributeur d’IBAS.

L’équipe a immédiatement demandé au télescope spatial XMM-Newton de l’ESA d’effectuer une observation de suivi de l’emplacement du sursaut dès que possible. S’il s’était agi d’un court sursaut gamma, causé par deux étoiles à neutrons en collision, la collision aurait créé des ondes gravitationnelles et aurait eu une rémanence en rayons X et en lumière visible. Cependant, les observations de XMM-Newton n’ont montré que le gaz chaud et les étoiles de la galaxie.

Les magnétars : des étoiles méga-magnétiques, récemment mortes

«Lorsque des étoiles plus massives que huit fois le Soleil meurent, elles explosent en supernova en laissant derrière elles un trou noir ou une étoile à neutrons. Les étoiles à neutrons sont des restes stellaires très compacts avec plus que la masse du Soleil concentrée dans une sphère de la taille du canton de Genève. Elles tournent rapidement et ont des champs magnétiques puissants», explique Volodymyr Savchenko, chercheur associé principal au Département d’astronomie de la Faculté des sciences de l’UNIGE et co-auteur de la publication.

Certaines jeunes étoiles à neutrons ont des champs magnétiques extrêmement forts, plus de 10 000 fois celui des étoiles à neutrons typiques. Ce sont les magnétars. Ils émettent de l’énergie sous forme d’éruptions, et parfois ces éruptions sont gigantesques.

INTEGRAL, un instrument clé dans une course contre la montre

Les éruptions d’une durée aussi courte ne peuvent être capturées que par hasard lorsqu’un observatoire pointe déjà dans la bonne direction. Cela rend INTEGRAL avec son grand champ de vision, plus de 3000 fois supérieur à la zone du ciel couverte par la Lune, si important pour ces détections.

Carlo Ferrigno explique : «Notre système de traitement automatique des données est très fiable et nous permet d’alerter immédiatement la communauté.»

Lorsque des observations inattendues comme celle-ci sont relevées, INTEGRAL et XMM-Newton peuvent être flexibles dans leurs programmes, ce qui est essentiel pour les découvertes cruciales en termes de temps. Dans ce cas, si les observations avaient été effectuées ne serait-ce qu’un jour plus tard, il n’y aurait pas eu de preuve aussi forte qu’il s’agissait bien d’un magnétar et non d’un sursaut gamma.

Légende illustration : Impression d’artiste d’un magnétar. Les magnétars sont les objets cosmiques dont les champs magnétiques sont les plus puissants jamais mesurés dans l’Univers. © ESA

Article: “A magnetar giant flare in the nearby starburst galaxy M82” – DOI: 10.1038/s41586-024-07285-4

Diamants et réseaux quantiques : le mariage parfait grâce au centre PbV

Diamants et réseaux quantiques : le mariage parfait grâce au centre PbV

Les centres colorés dans le diamant, en particulier le centre plomb-lacune (PbV), ouvrent de nouvelles perspectives pour la construction de réseaux quantiques à grande échelle. Grâce à leurs propriétés optiques uniques, ces centres colorés pourraient devenir des éléments clés pour le transfert d’informations quantiques sur de longues distances, ouvrant ainsi la voie à des avancées majeures dans le domaine de l’informatique quantique.

Tout comme les circuits électriques utilisent des composants pour contrôler les signaux électroniques, les réseaux quantiques s’appuient sur des composants et des nœuds spéciaux pour transférer l’information quantique entre différents points, formant ainsi la base de la construction de systèmes quantiques. Dans le cas des réseaux quantiques, les centres colorés dans le diamant, qui sont des défauts intentionnellement ajoutés à un cristal de diamant, sont cruciaux pour générer et maintenir des états quantiques stables sur de longues distances.

Lorsqu’ils sont stimulés par une lumière externe, ces centres colorés dans le diamant émettent des photons portant des informations sur leurs états électroniques internes, en particulier les états de spin. L’interaction entre les photons émis et les états de spin des centres colorés permet le transfert d’informations quantiques entre différents nœuds des réseaux quantiques.

Un exemple bien connu de centres colorés dans le diamant est le centre azote-lacune (NV), où un atome d’azote est ajouté à côté d’atomes de carbone manquants dans le réseau de diamant. Cependant, les photons émis par les centres colorés NV n’ont pas de fréquences bien définies et sont affectés par les interactions avec l’environnement, ce qui rend difficile le maintien d’un système quantique stable.

Pour résoudre ce problème, un groupe international de chercheurs, dont le professeur associé Takayuki Iwasaki de l’Institut de technologie de Tokyo, a développé un centre plomb-lacune (PbV) chargé négativement dans le diamant, où un atome de plomb est inséré entre des lacunes voisines dans un cristal de diamant. Dans l’étude publiée dans la revue Physical Review Letters, les chercheurs révèlent que le centre PbV émet des photons de fréquences spécifiques qui ne sont pas influencés par l’énergie vibrationnelle du cristal. Ces caractéristiques font des photons des porteurs fiables d’informations quantiques pour les réseaux quantiques à grande échelle.

Pour fabriquer le centre PbV, les chercheurs ont introduit des ions de plomb sous la surface du diamant par implantation ionique. Un processus de recuit a ensuite été effectué pour réparer les dommages causés par l’implantation des ions de plomb. Le centre PbV résultant présente un système de spin 1/2, avec quatre états d’énergie distincts, l’état fondamental et l’état excité étant divisés en deux niveaux d’énergie. Lors de la photoexcitation du centre PbV, les transitions d’électrons entre les niveaux d’énergie ont produit quatre ZPL distinctes, classées par les chercheurs comme A, B, C et D en fonction de l’énergie décroissante des transitions associées. Parmi celles-ci, la transition C s’est avérée avoir une largeur de raie limitée par transformée de Fourier de 36 MHz.

Le centre PbV se distingue par sa capacité à maintenir sa largeur de raie à environ 1,2 fois la limite de transformée à des températures allant jusqu’à 16 K. Ceci est important pour atteindre une visibilité d’environ 80% dans l’interférence à deux photons. En revanche, les centres colorés comme SiV, GeV et SnV doivent être refroidis à des températures beaucoup plus basses (4 K à 6 K) pour des conditions similaires.

En générant des photons bien définis à des températures relativement élevées par rapport à d’autres centres colorés, le centre PbV peut fonctionner comme une interface quantique lumière-matière efficace, ce qui permet à l’information quantique d’être transportée sur de longues distances par des photons via des fibres optiques.

En synthèse

Les résultats de cette étude ouvrent la voie à l’utilisation du centre PbV comme élément de base pour la construction de réseaux quantiques à grande échelle. Grâce à ses propriétés optiques uniques, notamment sa capacité à émettre des photons de fréquences spécifiques non influencés par l’énergie vibrationnelle du cristal, le centre PbV pourrait devenir un composant clé pour le transfert d’informations quantiques sur de longues distances.

Pour une meilleure compréhension

Qu’est-ce qu’un centre coloré dans le diamant ?

Un centre coloré dans le diamant est un défaut intentionnellement ajouté à un cristal de diamant, où un atome d’impureté remplace un atome de carbone ou est inséré entre des lacunes dans le réseau cristallin. Ces centres colorés peuvent émettre des photons portant des informations quantiques lorsqu’ils sont stimulés par une lumière externe.

Qu’est-ce qui distingue le centre PbV des autres centres colorés ?

Le centre PbV se distingue par sa capacité à émettre des photons de fréquences spécifiques qui ne sont pas influencés par l’énergie vibrationnelle du cristal de diamant. De plus, il peut maintenir sa largeur de raie proche de la limite de transformée à des températures relativement élevées par rapport à d’autres centres colorés.

Pourquoi les photons émis sont-ils importants pour les réseaux quantiques ?

Les photons émis par le centre PbV sont des porteurs fiables d’informations quantiques car ils ont des fréquences bien définies et ne sont pas affectés par les interactions avec l’environnement. Cela permet de transférer efficacement des informations quantiques entre différents nœuds d’un réseau quantique sur de longues distances.

Comment le centre PbV est-il fabriqué ?

Le centre PbV est fabriqué en introduisant des ions de plomb sous la surface d’un diamant par implantation ionique. Un processus de recuit est ensuite effectué pour réparer les dommages causés par l’implantation et permettre la formation du centre coloré.

Quelles sont les perspectives d’application dans les réseaux quantiques ?

Le centre PbV pourrait devenir un élément de base pour la construction de réseaux quantiques à grande échelle. Ses propriétés optiques uniques en font un candidat prometteur pour le développement de l’informatique quantique et l’ouverture de nouvelles perspectives d’applications innovantes dans divers domaines.

Références

Article: “Transform-Limited Photon Emission From a Lead-Vacancy Center in Diamond Above 10 K” – DOI: 10.1103/PhysRevLett.132.073601

Des nanocristaux inédits pour dépolluer l’eau efficacement

Des nanocristaux inédits pour dépolluer l'eau efficacement

Les photocatalyseurs à base de semi-conducteurs suscitent un intérêt croissant en raison de leur potentiel pour la dépollution et l’exploitation efficace de l’énergie solaire. Les photocatalyseurs couramment utilisés présentent encore des limites en termes d’activité photocatalytique et de gamme d’opération dans le spectre de la lumière visible.

Une équipe de chercheurs de l’Institut de recherche innovante de l’Institut de technologie de Tokyo, au Japon, a développé de nouveaux nanocristaux de ferrite de bismuth (BiFeO3) décorés de nanoparticules d’or (Au) pour surmonter ces défis.

Les propriétés uniques du ferrite de bismuth (BiFeO3)

Le ferrite de bismuth (BiFeO3) est un photocatalyseur alternatif attrayant en raison de sa bande interdite étroite et de ses propriétés magnétiques. La bande interdite étroite du BiFeO3 permet une utilisation efficace de la lumière dans la région visible pour exciter les électrons de la bande de valence vers la bande de conduction, laissant derrière eux des trous vacants. Les électrons excités et les trous peuvent tous deux induire des réactions chimiques qui conduisent à la dégradation des polluants dans une solution aqueuse.

De plus, la propriété ferromagnétique permet une récupération facile du BiFeO3 de la solution. Cependant, comme les photocatalyseurs courants, le BiFeO3 souffre également d’une recombinaison rapide des paires électron-trou, ce qui limite considérablement son activité photocatalytique.

Les nanocristaux de BiFeO3 décorés de nanoparticules d’or (Au)

Pour résoudre ce problème, l’équipe de chercheurs dirigée par le professeur agrégé Tso-Fu Mark Chang a développé de nouveaux nanocristaux de BiFeO3 décorés de nanoparticules d’or (Au).

L’incorporation de nanostructures d’Au dans le BiFeO3 peut introduire davantage de sites actifs pour les réactions de photodégradation, grâce à la résonance plasmonique de surface localisée unique des nanoparticules d’Au, et le transfert des électrons excités dans le BiFeO3 vers le domaine de l’or supprime la recombinaison des paires électron-trou.

Les chercheurs ont fabriqué les nanocristaux Au-BiFeO3 par une méthode de synthèse hydrothermale et un processus de solution simple pour décorer le BiFeO3 avec différentes quantités d’Au. L’équipe a optimisé l’activité photocatalytique des nanocristaux Au-BiFeO3 en évaluant leur efficacité dans la dégradation du bleu de méthylène (BM), un colorant de denim courant.

Des résultats prometteurs pour la dépollution efficace et durable

Les expériences ont révélé que l’échantillon contenant 1,0% d’Au en poids présentait la meilleure activité, atteignant une efficacité de dégradation impressionnante de 98% sous une lampe au xénon de 500 watts en 120 minutes. De plus, il a également conservé 80% de son activité d’origine après quatre cycles de 120 minutes, démontrant une excellente stabilité.

Les chercheurs ont également étudié les mécanismes par lesquels Au améliore l’activité photocatalytique. Lorsqu’un nanocristal Au-BiFeO3 est éclairé par une lumière à des longueurs d’onde appropriées, les électrons dans le BiFeO3 sont excités vers la bande de conduction. Contrairement à la recombinaison qui se produit dans le BiFeO3 nu, l’introduction d’Au, qui a un niveau de Fermi moins négatif que la bande de conduction du BiFeO3, facilite le transfert des électrons excités de la bande de conduction vers le domaine Au, favorisant ainsi l’accumulation de trous dans le BiFeO3.

Cette étude met en évidence l’activité et la recyclabilité prometteuses de l’Au-BiFeO3, soulignant son potentiel dans la dégradation efficace et durable des polluants environnementaux. Ces résultats ouvrent la voie à la conception et au développement de matériaux nanocristallins avancés pour des applications photocatalytiques.

Article : “Tunable Photocatalytic Properties of Au-Decorated BiFeO3 Nanostructures for Dye Photodegradation” – DOI: 10.1021/acsanm.4c01702

Îles des Caraïbes : les super réseaux, espoir face aux ouragans

Îles des Caraïbes : les super réseaux, espoir face aux ouragans

Les îles des Caraïbes, souvent frappées par des ouragans dévastateurs, explorent de nouvelles solutions pour assurer un approvisionnement en électricité fiable et durable. Les chercheurs du Département de l’Énergie du Laboratoire National d’Oak Ridge ont développé une méthode de modélisation complète pour mieux prédire la baisse de production d’électricité lorsque les nuages d’orage obscurcissent les panneaux solaires. Leur étude explore comment les “super réseaux”, une collection de réseaux interconnectés, pourraient compenser ces pertes d’énergie.

Rodney Itiki, chercheur principal, souligne l’importance de cette planification des infrastructures pour maintenir un accès équitable à l’électricité dans les 12 pays insulaires des Caraïbes et les territoires américains de Porto Rico et des Îles Vierges américaines. Son modèle peut être utilisé pour comprendre l’impact des nuages d’ouragan sur n’importe quel système électrique.

L’équipe de chercheurs a analysé comment un grand ouragan réduirait la puissance des installations solaires connues tout en voyageant sur 10 trajectoires possibles pendant 10 à 14 jours. « C’est l’une des principales contributions de la recherche, car lorsque nous concevons le système électrique, nous devons le faire en considérant tous les cas possibles – surtout, le pire des scénarios », explique Rodney Itiki.

Les super réseaux pour équilibrer le flux d’énergie entre les régions

Les chercheurs ont utilisé des simulations pour comprendre la disponibilité de l’énergie pendant les ouragans si les réseaux électriques étaient connectés via des câbles à haute tension sur le fond de l’océan. Ils ont modélisé quatre combinaisons différentes : un réseau américain autonome, un super réseau caribéen autonome reliant toutes les îles, un super réseau américano-caribéen et un super réseau reliant les États-Unis, les îles des Caraïbes et l’Amérique du Sud.

Le modèle a montré que certaines centrales solaires perdaient jusqu’à 88% de leur capacité de production pendant deux jours lorsqu’elles étaient ombragées par des nuages d’ouragan. Les chercheurs ont constaté que le super réseau américano-caribéen augmente le plus la fiabilité de l’énergie, tandis que le super réseau caribéen autonome s’est avéré le moins utile.

Vers une indépendance énergétique vis-à-vis des combustibles fossiles

Rodney Itiki a l’intention de fusionner ses algorithmes solaires et éoliens pour déterminer comment les super réseaux pourraient améliorer la fiabilité énergétique dans les Caraïbes et sur le continent. Cette recherche a de vastes implications pour l’indépendance énergétique des États-Unis vis-à-vis des combustibles fossiles et pour l’intégration fiable des projets d’énergie renouvelable.

« Je ne pense pas que les gens planifient les centrales photovoltaïques en tenant compte de l’ombrage des ouragans », note Rodney Itiki. « Les services publics choisissent des emplacements avec une exposition maximale au soleil, mais ils doivent également considérer la trajectoire normale des ouragans. »

Bien que des études supplémentaires soient nécessaires pour évaluer la viabilité environnementale et économique de la pose de câbles sous-marins, le modèle d’Itiki fournit un nouvel outil essentiel pour estimer l’énergie solaire pendant les conditions météorologiques extrêmes et planifier des systèmes de transmission pour compenser.

Les services publics pourraient utiliser l’algorithme pour se préparer à l’écart d’énergie solaire pendant les tempêtes, en utilisant des solutions telles que les batteries ou l’hydroélectricité par pompage-turbinage.

Légende illustration : Les chercheurs de l’ORNL ont modélisé l’impact de la couverture nuageuse d’un ouragan sur la production d’énergie solaire alors qu’une tempête suivait 10 trajectoires possibles au-dessus des Caraïbes et du sud des États-Unis.

Quand l’eau salée rencontre l’eau douce : l’électricité coule à flots

Quand l'eau salée rencontre l'eau douce : l'électricité coule à flots

Les estuaires, ces zones où les rivières d’eau douce rencontrent la mer salée, offrent non seulement des lieux privilégiés pour l’observation des oiseaux et le kayak, mais recèlent également un potentiel énergétique considérable. En effet, le mélange des eaux de différentes concentrations en sel dans ces zones pourrait être une source d’énergie osmotique durable et respectueuse de l’environnement.

Des chercheurs ont mis au point une membrane semi-perméable capable de récolter l’énergie osmotique des gradients de salinité et de la convertir en électricité. Lors de démonstrations en laboratoire, ce nouveau dispositif a atteint une densité de puissance de sortie plus de deux fois supérieure à celle des membranes commerciales existantes.

Un potentiel énergétique inexploité

L’énergie osmotique peut être générée partout où des gradients de salinité sont présents, mais les technologies actuelles permettant de capter cette énergie renouvelable présentent encore des marges d’amélioration significatives. L’une des méthodes existantes utilise un ensemble de membranes d’électrodialyse inverse (RED) qui agissent comme une sorte de «batterie au sel», générant de l’électricité à partir des différences de pression causées par le gradient de salinité.

Pour optimiser ce gradient, les ions chargés positivement de l’eau de mer, tels que le sodium, traversent le système jusqu’à l’eau douce, augmentant ainsi la pression sur la membrane. Afin d’accroître encore son potentiel de récolte, la membrane doit également maintenir une faible résistance électrique interne en permettant aux électrons de circuler facilement dans la direction opposée à celle des ions.

Une membrane innovante aux performances prometteuses

Des recherches antérieures suggèrent que l’amélioration simultanée du flux d’ions à travers la membrane RED et de l’efficacité du transport des électrons permettrait d’augmenter la quantité d’électricité captée à partir de l’énergie osmotique. Partant de ce constat, Dongdong Ye, Xingzhen Qin et leurs collègues ont conçu une membrane semi-perméable à partir de matériaux écologiques, dans le but de minimiser la résistance interne et de maximiser la puissance de sortie.

Le prototype de membrane RED des chercheurs contenait des canaux séparés (c’est-à-dire découplés) pour le transport des ions et des électrons. Pour ce faire, ils ont intercalé un hydrogel de cellulose chargé négativement (pour le transport des ions) entre des couches d’un polymère organique électriquement conducteur appelé polyaniline (pour le transport des électrons).

Les premiers tests ont confirmé leur théorie selon laquelle des canaux de transport découplés entraînaient une conductivité ionique plus élevée et une résistivité plus faible par rapport aux membranes homogènes fabriquées à partir des mêmes matériaux. Dans un réservoir d’eau simulant un environnement estuarien, leur prototype a atteint une densité de puissance de sortie 2,34 fois supérieure à celle d’une membrane RED commerciale et a maintenu ses performances pendant 16 jours de fonctionnement ininterrompu, démontrant ainsi ses performances stables à long terme sous l’eau.

Une membrane améliorée (ligne jaune) a permis d’augmenter considérablement la puissance osmotique obtenue à partir de gradients de sel, comme ceux que l’on trouve dans les estuaires où l’eau salée (réservoir de gauche) rencontre l’eau douce (réservoir de droite). Crédit : Adapted from ACS Energy Letters 2024

Des applications concrètes à portée de main

Lors d’un test final, l’équipe a créé une batterie au sel composée de 20 de leurs membranes RED et a généré suffisamment d’électricité pour alimenter individuellement une calculatrice, une lampe LED et un chronomètre. Ces résultats ouvrent la voie à de nombreuses applications pratiques de cette technologie novatrice.

Ye, Qin et les membres de leur équipe affirment que leurs découvertes élargissent la gamme de matériaux écologiques pouvant être utilisés pour fabriquer des membranes RED et améliorent les performances de récolte de l’énergie osmotique, rendant ces systèmes plus adaptés à une utilisation dans le monde réel.

En synthèse

Cette étude met en lumière le potentiel considérable de l’énergie osmotique, une source d’énergie renouvelable et respectueuse de l’environnement, encore peu exploitée à ce jour. Grâce à la mise au point d’une membrane semi-perméable innovante, les chercheurs ont démontré qu’il était possible d’améliorer significativement les performances de récolte de cette énergie, ouvrant ainsi la voie à de nombreuses applications pratiques. Ces travaux prometteurs pourraient contribuer à relever les défis énergétiques auxquels notre société est confrontée, tout en préservant les ressources naturelles de notre planète.

Pour une meilleure compréhension

Qu’est-ce que l’énergie osmotique ?

L’énergie osmotique est une forme d’énergie renouvelable qui peut être générée partout où des gradients de salinité sont présents, comme dans les estuaires où l’eau douce des rivières rencontre l’eau salée de la mer. Elle est produite par les différences de pression causées par le gradient de salinité entre ces deux types d’eau.

Comment fonctionne une membrane d’électrodialyse inverse (RED) ?

Une membrane RED agit comme une «batterie au sel» en générant de l’électricité à partir des différences de pression causées par le gradient de salinité. Les ions chargés positivement de l’eau de mer, tels que le sodium, traversent le système jusqu’à l’eau douce, augmentant ainsi la pression sur la membrane. En parallèle, les électrons circulent dans la direction opposée à celle des ions, créant ainsi un courant électrique.

Quelles sont les innovations apportées par la nouvelle membrane RED ?

Le prototype de membrane RED mis au point par les chercheurs contient des canaux séparés pour le transport des ions et des électrons, ce qui permet d’obtenir une conductivité ionique plus élevée et une résistivité plus faible par rapport aux membranes homogènes classiques. De plus, cette membrane est fabriquée à partir de matériaux écologiques, minimisant ainsi son impact environnemental.

Quelles sont les performances de cette nouvelle membrane RED ?

Lors de tests en laboratoire, le prototype de membrane RED a atteint une densité de puissance de sortie 2,34 fois supérieure à celle d’une membrane RED commerciale et a maintenu ses performances pendant 16 jours de fonctionnement ininterrompu, démontrant ainsi ses performances stables à long terme sous l’eau.

Quelles sont les perspectives d’application de cette technologie ?

Les résultats prometteurs obtenus par les chercheurs ouvrent la voie à de nombreuses applications pratiques de cette technologie novatrice. En améliorant les performances de récolte de l’énergie osmotique, cette membrane RED innovante pourrait contribuer à relever les défis énergétiques auxquels notre société est confrontée, tout en préservant les ressources naturelles de notre planète.

Références

Ye, D., Qin, X., et al. (2024). Decoupled Ion and Electron Transport Channels in Reverse Electrodialysis Membranes for Efficient Osmotic Energy Harvesting. ACS Energy Letters. 10.1021/acsenergylett.4c00320

Traquer les particules à haute énergie : le défi des détecteurs du Surrey

Traquer les particules à haute énergie : le défi des détecteurs du Surrey

Les détecteurs de particules sont des outils essentiels pour comprendre les réactions nucléaires qui se produisent au cœur des étoiles. Ces réactions sont à l’origine de la formation de la plupart des éléments chimiques présents dans l’univers, tels que l’or, l’oxygène et le fer. Pour en savoir plus sur leur origine, les scientifiques ont besoin d’une compréhension approfondie de la façon dont ces réactions se déroulent.

L’Université du Surrey, au Royaume-Uni, travaille actuellement sur le développement de détecteurs capables d’arrêter des particules à très haute énergie et de mesurer la vitesse à laquelle les réactions se produisent à l’intérieur des étoiles. Ce projet, nommé FAUST (Facility for Antiproton and Ion Research in Europe and the US Trap), est financé à hauteur de 3,4 millions de livres sterling par le Science and Technology Facilities Council (STFC) de UK Research and Innovation (UKRI).

Les détecteurs développés dans le cadre de ce projet seront intégrés au nouveau réseau de détection de rayons gamma GRETA, qui fait partie de l’accélérateur de particules FRIB (Facility for Rare Isotope Beams) de l’Université d’État du Michigan, aux États-Unis. Cet accélérateur, d’un coût de 730 millions de dollars, permettra d’étudier les réactions nucléaires avec une précision inégalée.

Un défi technologique de taille

Ralentir des particules se déplaçant à une vitesse proche de celle de la lumière représente un véritable défi technologique. Cependant, le professeur Gavin Lotay, responsable du Research Excellence Framework pour la physique à l’École de mathématiques et de physique de l’Université du Surrey, se montre confiant quant à la capacité de son équipe et de ses partenaires à relever ce défi.

Les résultats de ces recherches pourraient un jour aider à percer les mystères des réactions qui se produisent au cœur des étoiles et qui sont à l’origine de la formation de tous les éléments présents sur Terre et dans l’univers. « Il est incroyable de penser que des réactions impliquant de minuscules noyaux, invisibles à l’œil nu, déterminent la façon dont une étoile explose », souligne le professeur Gavin Lotay.

Une collaboration internationale pour des découvertes majeures

Pour étudier ces réactions, les scientifiques projetteront des faisceaux d’isotopes rares à grande vitesse sur différentes formes de cibles en plastique. .

Les particules seront mesurées par une combinaison de détecteurs au silicium, fournis par Micron Semiconductor Ltd., basée dans le West Sussex, et de cristaux d’iodure de césium, développés par des collègues de l’Université de York. Le laboratoire STFC Daresbury, situé dans le Cheshire, apportera un soutien technique important à ce projet.

La Dr Alexandra Gade, directrice scientifique du FRIB et professeure de physique à l’Université d’État du Michigan, se réjouit d’accueillir le projet FAUST et les recherches associées au sein de l’accélérateur FRIB. «Cette collaboration internationale permettra de répondre à des questions fondamentales sur l’évolution de l’univers et la nature de la force nucléaire», souligne-t-elle.

Un projet à long terme pour des résultats prometteurs

Le dispositif devrait être achevé en 2028 et fonctionner pendant au moins dix ans. Les résultats de ces recherches pourraient avoir des implications majeures pour notre compréhension de l’univers et de la formation des éléments chimiques.

Ce projet ambitieux témoigne de l’engagement de la communauté scientifique internationale à repousser les limites de la connaissance et à explorer les mystères les plus profonds de l’univers. Les détecteurs développés dans le cadre du projet FAUST pourraient bien ouvrir la voie à des découvertes majeures dans les années à venir.

Micro-réseaux : une solution face aux cyberattaques et intempéries ?

Micro-réseaux : une solution face aux cyberattaques et intempéries ?

L’intégration des énergies renouvelables au réseau électrique soulève de nombreuses problématiques liées à l’internet des objets. Les chercheurs de l’Iowa State University, en collaboration avec des partenaires universitaires et industriels, s’attaquent à ces défis en créant un nouveau centre de cybersécurité dédié à la protection des réseaux électriques intégrant des ressources énergétiques distribuées et des micro-réseaux.

Comme le souligne Manimaran Govindarasu, professeur distingué Anson Marston en ingénierie à l’Iowa State University, «tout est connecté» dans le domaine de l’énergie. Les onduleurs solaires et les contrôleurs de parcs éoliens sont reliés à internet, exposant ainsi les ressources énergétiques réparties sur le territoire à de potentielles cyberattaques. Ces dernières pourraient interrompre la transmission d’électricité, voire provoquer des pannes généralisées.

Face à cette menace, le Département de l’Énergie des États-Unis (DOE) a accordé une subvention de 2,5 millions de dollars sur deux ans à un projet dirigé par des ingénieurs de l’Iowa State University. Les partenaires du projet apporteront également 1 million de dollars en financement de contrepartie, comprenant les coûts d’équipement et de main-d’œuvre.

CyDERMS, un centre dédié à la cybersécurité des réseaux électriques

Ce financement permettra de créer un nouveau centre de cybersécurité basé à l’Iowa State University, baptisé CyDERMS (Center for Cybersecurity and Resiliency of DERs and Microgrids-integrated Distribution Systems). Les DER (ressources énergétiques distribuées) désignent les parcs éoliens, les installations solaires ou encore les technologies de stockage d’énergie. Les micro-réseaux sont des systèmes locaux de DER pouvant être connectés ou isolés du réseau principal. La possibilité de fermer ou d’isoler les connexions au réseau peut contribuer à maintenir le service en cas de cyberattaques ou d’intempéries destructrices.

Le DOE a récemment annoncé l’octroi de 15 millions de dollars de subventions pour établir six centres universitaires chargés de répondre aux besoins spécifiques d’une région en matière de cybersécurité et de formation de la main-d’œuvre. Outre l’Iowa State University, les campus principaux des autres centres seront situés dans le Connecticut, en Floride, en Illinois, en Pennsylvanie et au Texas.

Collaboration entre universités, laboratoires nationaux et industriels

Le centre CyDERMS sera dirigé par Manimaran Govindarasu, également professeur Murray J. et Ruth M. Harpole en génie électrique et informatique et scientifique principal au Laboratoire national Ames du DOE. Quatre autres chercheurs de l’Iowa State University seront également affiliés au centre.

L’équipe du projet comprendra en outre des chercheurs de l’Université de l’Illinois à Urbana-Champaign, de l’Université du Minnesota Twin Cities, de la Michigan Technological University, de GE Vernova, du Laboratoire national d’Argonne et du Laboratoire national des énergies renouvelables.

Le conseil consultatif industriel du centre comprend des représentants de la Central Iowa Power Cooperative, de Xcel Energy Inc., de Hubbell Inc., de Hitachi Energy et de MITRE.

2 objectifs majeurs : protéger les réseaux et former la main-d’œuvre

Selon Manimaran Govindarasu, CyDERMS poursuit deux objectifs principaux. Premièrement, les chercheurs du centre protégeront les réseaux électriques contenant des parcs éoliens et solaires ainsi que des micro-réseaux en développant des algorithmes informatiques robustes et d’autres outils permettant de détecter et d’atténuer les cyberattaques et les défaillances du système en temps réel. Ils utiliseront des outils d’intelligence artificielle et d’apprentissage automatique pour aider à détecter les problèmes de réseau et les activités malveillantes.

Deuxièmement, ils renforceront la main-d’œuvre du secteur de la cybersécurité des réseaux en développant des modules de formation, des projets de conception, des concours de cyber-défense ainsi que des ateliers pratiques destinés aux employés de l’industrie et des services publics, y compris dans les zones rurales.

« Il s’agira d’un centre de recherche universitaire sur la cybersécurité des énergies renouvelables sur le réseau de distribution », explique Manimaran Govindarasu. “Nous travaillerons avec l’industrie locale dans l’Iowa, le Minnesota, l’Illinois et le Michigan pour comprendre et répondre aux besoins de l’industrie locale. C’est l’accent mis ici.”

Le défi est de taille, car les ressources renouvelables sont réparties dans les villes, les villages et les zones rurales du Midwest. « Il y a des contrôleurs et des onduleurs partout », souligne Manimaran Govindarasu. « Il y a des parcs éoliens, des installations solaires sur les toits, des centrales solaires communautaires et des centrales solaires de services publics. Les possibilités d’attaque sont énormes par rapport à un réseau conventionnel. »

Légende illustration : Un nouveau centre de cybersécurité basé dans l’État de l’Iowa aidera le secteur de l’électricité à protéger les ressources énergétiques distribuées, telles que les parcs éoliens et solaires, contre les problèmes et les attaques du réseau. Crédit : Christopher Gannon/Iowa State University.

Manipuler la géométrie quantique : le futur de la spintronique ?

Manipuler la géométrie quantique : le futur de la spintronique ?

Les chercheurs de l’Université de Tohoku et de l’Agence japonaise de l’énergie atomique ont développé des expériences et des théories fondamentales pour manipuler la géométrie de “l’univers électronique”, qui décrit la structure des états quantiques électroniques d’une manière mathématiquement similaire à l’univers réel, dans un matériau magnétique dans des conditions ambiantes.

La propriété géométrique étudiée, à savoir la métrique quantique, a été détectée comme un signal électrique distinct de la conduction électrique ordinaire. Cette percée révèle la science quantique fondamentale des électrons et ouvre la voie à la conception de dispositifs spintroniques innovants utilisant la conduction non conventionnelle émergeant de la métrique quantique.

La conduction électrique, cruciale pour de nombreux dispositifs, suit la loi d’Ohm : un courant répond proportionnellement à la tension appliquée. Mais pour réaliser de nouveaux dispositifs, les scientifiques ont dû trouver un moyen d’aller au-delà de cette loi. C’est là qu’intervient la mécanique quantique. Une géométrie quantique unique connue sous le nom de métrique quantique peut générer une conduction non ohmique.

Cette métrique quantique est une propriété inhérente au matériau lui-même, ce qui suggère qu’il s’agit d’une caractéristique fondamentale de la structure quantique du matériau.

Le terme «métrique quantique» s’inspire du concept de “métrique” en relativité générale, qui explique comment la géométrie de l’univers se déforme sous l’influence de forces gravitationnelles intenses, comme celles qui entourent les trous noirs. De même, dans la poursuite de la conception d’une conduction non ohmique dans les matériaux, la compréhension et l’exploitation de la métrique quantique deviennent impératives.

Cette métrique décrit la géométrie de «l’univers électronique», analogue à l’univers physique. Plus précisément, le défi consiste à manipuler la structure de la métrique quantique dans un seul dispositif et à discerner son impact sur la conduction électrique à température ambiante.

La percée des chercheurs révèle la science quantique fondamentale des électrons et ouvre la voie à la conception de dispositifs spintroniques innovants. Crédit: Tohoku University

L’équipe de recherche a rapporté une manipulation réussie de la structure de la métrique quantique à température ambiante dans une hétérostructure en couche mince comprenant un aimant exotique, Mn3Sn, et un métal lourd, Pt. Mn3Sn présente une texture magnétique essentielle lorsqu’il est adjacent à Pt, qui est drastiquement modulée par un champ magnétique appliqué.

Ils ont détecté et contrôlé magnétiquement une conduction non ohmique appelée effet Hall de second ordre, où la tension répond orthogonalement et quadratiquement au courant électrique appliqué. Grâce à une modélisation théorique, ils ont confirmé que les observations peuvent être exclusivement décrites par la métrique quantique.

Jiahao Han, auteur principal de cette étude, a expliqué : «Notre effet Hall de second ordre provient de la structure de la métrique quantique qui se couple avec la texture magnétique spécifique à l’interface Mn3Sn/Pt. Par conséquent, nous pouvons manipuler de manière flexible la métrique quantique en modifiant la structure magnétique du matériau par des approches spintroniques et vérifier cette manipulation dans le contrôle magnétique de l’effet Hall de second ordre.»

Yasufumi Araki, principal contributeur à l’analyse théorique, a ajouté : «Les prédictions théoriques posent la métrique quantique comme un concept fondamental qui relie les propriétés des matériaux mesurées dans les expériences aux structures géométriques étudiées en physique mathématique. Cependant, la confirmation de ses preuves dans les expériences est restée un défi. J’espère que notre approche expérimentale de l’accès à la métrique quantique fera progresser ces études théoriques.»

Le chercheur principal Shunsuke Fukami a conclu : «Jusqu’à présent, on croyait que la métrique quantique était inhérente et incontrôlable, un peu comme l’univers, mais nous devons maintenant changer cette perception. Nos résultats, en particulier le contrôle flexible à température ambiante, peuvent offrir de nouvelles opportunités pour développer des dispositifs fonctionnels tels que des redresseurs et des détecteurs à l’avenir.»

Cette étude ouvre de nouvelles perspectives passionnantes dans le domaine de la spintronique et de la science quantique fondamentale des électrons. La manipulation de la géométrie de «l’univers électronique» pourrait conduire à des avancées significatives dans la conception de dispositifs innovants exploitant les propriétés quantiques de la matière.

Article : “Room-temperature flexible manipulation of the quantum-metric structure in a topological chiral antiferromagnet” – DOI:10.1038/s41567-024-02476-2

L’oxyde de cuivre, le nouveau rival du silicium ?

L'oxyde de cuivre, le nouveau rival du silicium ?

Les chercheurs ont découvert une nouvelle méthode pour optimiser les matériaux utilisés dans la production d’hydrogène vert, un carburant durable et propre. Cette avancée pourrait contribuer à accélérer la transition énergétique et à réduire notre dépendance aux combustibles fossiles.

Des matériaux abondants et non toxiques

L’équipe de recherche, dirigée par l’Université de Cambridge, développe des semi-conducteurs peu coûteux capables de capter la lumière du soleil pour alimenter des dispositifs qui convertissent l’eau en hydrogène. Ces matériaux, appelés oxydes de cuivre, sont abondants et non toxiques, mais leurs performances restent inférieures à celles du silicium, qui domine actuellement le marché des semi-conducteurs.

Cependant, les chercheurs ont découvert qu’en faisant croître les cristaux d’oxyde de cuivre dans une orientation spécifique, permettant aux charges électriques de se déplacer en diagonale, ces dernières se déplacent beaucoup plus rapidement et sur de plus grandes distances, améliorant ainsi considérablement les performances.

Une amélioration significative des performances

Les tests réalisés sur une photocathode à base d’oxyde de cuivre, fabriquée selon cette technique, ont montré une amélioration de 70% par rapport aux photocathodes à base d’oxyde les plus performantes actuellement disponibles, tout en affichant une stabilité nettement améliorée.

Selon les chercheurs, ces résultats démontrent comment des matériaux peu coûteux pourraient être optimisés pour contribuer à la transition vers des carburants propres et durables, pouvant être stockés et utilisés avec les infrastructures énergétiques existantes.

Un défi majeur pour les oxydes de cuivre

Le Dr Linfeng Pan, co-premier auteur de l’étude, explique que l’un des principaux défis des oxydes de cuivre réside dans la différence entre la profondeur d’absorption de la lumière et la distance parcourue par les charges électriques au sein du matériau. Ainsi, une grande partie de l’oxyde situé sous la couche supérieure du matériau est essentiellement inutilisée.

Le professeur Sam Stranks, qui a dirigé la recherche, souligne que contrairement à la plupart des matériaux utilisés dans les cellules solaires, où les défauts de surface réduisent les performances, dans le cas des oxydes de cuivre, c’est l’inverse : la surface est globalement correcte, mais quelque chose dans la structure interne entraîne des pertes. Cela signifie que la façon dont les cristaux sont cultivés est essentielle pour leurs performances.

Une orientation cristalline “magique”

En utilisant des techniques de dépôt en couche mince, les chercheurs ont réussi à faire croître des films d’oxyde de cuivre de haute qualité à pression ambiante et à température ambiante. En contrôlant précisément les taux de croissance et de flux dans la chambre, ils ont pu «orienter» les cristaux dans une direction particulière.

Le Dr Pan explique que ces cristaux sont essentiellement des cubes, et que lorsque les électrons se déplacent à travers le cube en diagonale, plutôt que le long de la face ou de l’arête du cube, ils parcourent une distance dix fois supérieure. Plus les électrons se déplacent loin, meilleures sont les performances.

Le professeur Stranks qualifie cette direction diagonale de «magique» dans ces matériaux, tout en soulignant la nécessité de poursuivre les recherches pour comprendre pleinement ce phénomène et l’optimiser davantage.

Vers un rôle crucial dans la transition énergétique

Bien que de nombreux travaux de recherche et de développement soient encore nécessaires, les chercheurs estiment que cette famille de matériaux et les familles apparentées pourraient jouer un rôle essentiel dans la transition énergétique.

Le professeur Stranks conclut en soulignant que même s’il reste encore un long chemin à parcourir, cette découverte ouvre des perspectives passionnantes. Il est intéressant pour lui de relier la physique de ces matériaux à leur croissance, leur formation et, en fin de compte, leurs performances.

Article : “High carrier mobility along the [111] orientation in Cu2O photoelectrodes” – DOI: 10.1038/s41586-024-07273-8

L’impression 3D transforme la fabrication des pales d’éoliennes

L'impression 3D transforme la fabrication des pales d'éoliennes

L’énergie éolienne est devenue une source d’énergie renouvelable majeure aux États-Unis, dépassant même l’hydroélectricité. Cependant, la fabrication et le transport des pales d’éoliennes posent encore des défis en termes de durabilité et de coûts. Une équipe de chercheurs de Virginia Tech travaille sur des solutions innovantes pour rendre cette source d’énergie encore plus durable et accessible.

Une nouvelle approche de fabrication des pales d’éoliennes

Grâce à une subvention de 2 millions de dollars du Département de l’Énergie, les chercheurs de Virginia Tech développent de nouveaux procédés de fabrication additive, de conception computationnelle et utilisent un matériau thermoplastique recyclable et à haute résistance. L’équipe, dirigée par les professeurs Chris Williams et Michael Bortner, vise à réduire considérablement les déchets, à éliminer les matériaux dangereux et à permettre l’impression 3D de pales d’éoliennes entièrement recyclables.

Pour atteindre cet objectif, l’équipe combine trois innovations clés : l’impression robotisée de grands objets à l’aide d’une nouvelle technologie créée dans le laboratoire DREAMS, l’utilisation de techniques d’optimisation de conception uniques pour améliorer la résistance et l’efficacité des matériaux imprimés, et l’emploi d’un nouveau composite polymère entièrement recyclable, fourni par l’équipe du professeur Bortner.

Des améliorations environnementales pour l’avenir

Actuellement, les pales d’éoliennes sont fabriquées dans des installations de production hors site, nécessitant de longs délais et un transport coûteux. La nouvelle technologie d’impression développée par l’équipe pourrait un jour permettre de produire de grandes pales d’éoliennes à proximité du site d’installation, éliminant ainsi les défis liés à leur transport.

(De gauche à droite) Tadeusz Kosaml et Isaac Rogers examinent les trajectoires de mouvement multi-axes pour l’impression 3D robotisée. Photo de Clark Dehart pour Virginia Tech.

De plus, les matériaux utilisés dans la construction des pales jouent un rôle essentiel dans leurs performances et leur durabilité. Le nouveau procédé éliminera l’utilisation de matériaux dangereux dans la fabrication, rendant les pales réutilisables. Comme l’explique le professeur Bortner, «nous avons une conception de matériau innovante qui, lorsqu’elle est traitée par impression 3D, produit non seulement les propriétés traditionnellement utilisées pour fabriquer les pales d’éoliennes, mais est également entièrement recyclable».

Une collaboration interdisciplinaire pour un succès à grande échelle

L’équipe de recherche collabore avec plusieurs groupes de l’industrie éolienne, notamment le National Renewable Energy Laboratory (NREL) et TPI Composites, pour s’assurer que leur recherche a une pertinence industrielle. Le Stability Wind Tunnel de Virginia Tech sera utilisé pour effectuer des mesures aéroacoustiques des pales d’éoliennes imprimées.

Cette collaboration interdisciplinaire vise à traduire les résultats de la recherche dans les installations des partenaires industriels et à évaluer les matériaux et les trajectoires d’impression robotisée optimisées sur leurs grandes plateformes de fabrication additive robotisée. L’objectif final est de produire des pales d’éoliennes sur site dans les parcs éoliens à travers les États-Unis, rendant ainsi l’énergie éolienne plus durable et accessible.

Légende illustration : Alex Ryan (à gauche) et Cameron Jordan (à droite) travaillent dans le laboratoire DREAMS avec Chris Williams qui explique les multiples aspects d’une grande imprimante 3D à bras robotique multi-axes.

Zap Energy atteint 37 millions de degrés dans son dispositif de fusion FuZE

Zap Energy atteint 37 millions de degrés dans son dispositif de fusion FuZE

La fusion nucléaire, source d’énergie propre et inépuisable, suscite l’intérêt des scientifiques depuis des décennies. Parmi les différentes approches explorées, la technologie développée par Zap Energy se distingue par sa simplicité et son efficacité. Leurs récents résultats, publiés dans la revue Physical Review Letters, marquent une étape cruciale vers la production d’énergie de fusion à l’échelle commerciale.

Un plasma de fusion à des températures record

L’expérience Fusion Z-pinch (FuZE) de Zap Energy a réussi à générer un plasma de fusion avec des températures électroniques comprises entre 11 et 37 millions de degrés Celsius. Cette prouesse a été réalisée dans un dispositif de taille modeste, démontrant ainsi l’efficacité de leur approche unique, connue sous le nom de Z pinch stabilisé par écoulement cisaillé.

Ben Levitt, vice-président de la R&D chez Zap, souligne l’importance de ces résultats : « Ce sont des mesures méticuleuses et sans équivoque, réalisées sur un dispositif d’une échelle incroyablement modeste par rapport aux normes traditionnelles de la fusion. Nous avons encore beaucoup de travail devant nous, mais nos performances à ce jour nous ont permis de nous hisser au niveau des dispositifs de fusion les plus réputés au monde, avec une grande efficacité et à une fraction de la complexité et du coût. »

FuZE est le dispositif le plus simple, le plus petit et le moins coûteux à avoir atteint des températures d’électrons de fusion supérieures à 30 millions de degrés, offrant la possibilité d’un système d’énergie de fusion plus pratique et plus rentable que les autres approches.

Une technologie basée sur le Z pinch

La technologie de Zap Energy repose sur un schéma simple de confinement du plasma appelé Z pinch, où de forts courants électriques sont canalisés à travers un mince filament de plasma. Le plasma conducteur génère ses propres champs électromagnétiques, qui le chauffent et le compriment.

Bien que la fusion par Z pinch ait fait l’objet d’expériences depuis les années 1950, cette approche a longtemps été freinée par la courte durée de vie des plasmas. Zap a résolu ce problème en appliquant un écoulement dynamique à travers le plasma, un processus appelé stabilisation par écoulement cisaillé.

Zap Energy construit une plateforme d’énergie de fusion peu coûteuse, compacte et évolutive qui confine et comprime le plasma sans avoir recours à des bobines magnétiques coûteuses et complexes. La technologie Z-pinch de Zap, stabilisée par un flux cisaillé, offre une économie de fusion convaincante et nécessite des ordres de grandeur de capitaux moindres que les approches conventionnelles. Zap Energy compte plus de cent membres d’équipe dans deux installations près de Seattle et est soutenue par des investisseurs financiers et stratégiques de premier plan.

Uri Shumlak, cofondateur et directeur scientifique de Zap Energy, explique : « Les résultats présentés dans cet article et les tests supplémentaires que nous avons effectués depuis, dressent un tableau positif d’un plasma de fusion avec une marge de progression vers un gain d’énergie. En travaillant à des courants plus élevés, nous constatons toujours que l’écoulement cisaillé prolonge la durée de vie du Z pinch suffisamment longtemps pour produire des températures très élevées et les rendements neutroniques associés que nous prédirions à partir de la modélisation. »

Des mesures de haute précision

Les températures rapportées dans l’article ont été mesurées par une équipe de collaborateurs extérieurs du Lawrence Livermore National Laboratory (LLNL) et de l’Université de Californie à San Diego (UCSD), experts dans une technique de mesure du plasma appelée diffusion Thomson. Pour réaliser cette mesure, les scientifiques utilisent un laser très lumineux et très rapide pour tirer une impulsion de lumière verte dans le plasma, qui se disperse sur les électrons et fournit des informations sur leur température et leur densité.

Ben Levitt souligne l’importance de cette collaboration : « Nous sommes particulièrement reconnaissants à l’équipe de collaboration pour le travail qu’elle a accompli afin de nous aider à recueillir ces données et à affiner une technique de mesure essentielle pour nous. »

Les températures sont mesurées en envoyant une impulsion très rapide et très brillante de lumière laser verte dans le plasma, qui se disperse sur les électrons et fournit des informations sur leur température et leur densité.

Une approche innovante et économique

Contrairement aux deux principales approches de la fusion qui ont fait l’objet de la majorité des recherches ces dernières décennies, la technologie de Zap ne nécessite pas d’aimants supraconducteurs coûteux et complexes, ni de lasers puissants. Benj Conway, PDG et cofondateur de Zap, ajoute : « La technologie de Zap est moins chère et plus rapide à construire que les autres dispositifs, ce qui nous permet d’itérer rapidement et de produire les neutrons de fusion thermique les moins chers du marché. Une économie d’innovation convaincante est essentielle pour lancer un produit de fusion commercial dans un délai qui compte. »

En 2022, au moment où ces résultats de FuZE ont été recueillis, Zap a mis en service son dispositif de nouvelle génération, FuZE-Q. Bien que les premiers résultats de FuZE-Q soient encore à venir, le dispositif dispose d’une banque d’énergie dix fois supérieure à celle de FuZE et d’une capacité à atteindre des températures et des densités beaucoup plus élevées. Parallèlement, le développement des systèmes de centrale électrique est également en cours.

Benj Conway conclut : «Nous avons lancé Zap en sachant que nous avions une technologie unique et en dehors du statu quo. Le fait de franchir définitivement ce seuil de haute température électronique et de voir ces résultats dans une revue de physique de premier plan est une validation majeure. Nous avons certainement de grands défis à relever, mais nous avons tous les ingrédients pour les résoudre.»

Légende illustration : Un flash lumineux provenant d’un plasma FuZE (Fusion Z-pinch Experiment).

Article : “Elevated Electron Temperature Coincident with Observed Fusion Reactions in a Sheared-Flow-Stabilized Z Pinch” – DOI: 10.1103/PhysRevLett.132.155101

E. coli modifiée : la solution pour réduire notre empreinte carbone

E. coli modifiée : la solution pour réduire notre empreinte carbone

Face à l’urgence climatique et à la dépendance de l’industrie chimique aux ressources fossiles, des chercheurs de l’ETH Zurich explorent de nouvelles voies pour produire des composés chimiques de manière plus durable. En s’appuyant sur des bactéries capables de métaboliser le méthanol vert, ils ouvrent la voie à une plateforme de production polyvalente et respectueuse de l’environnement.

Actuellement, l’industrie chimique dépend fortement des ressources fossiles, telles que le pétrole brut, pour produire divers composés comme les plastiques, les colorants ou les arômes artificiels.

Selon Julia Vorholt, professeure à l’Institut de microbiologie de l’ETH Zurich, « l’industrie chimique consomme globalement 500 millions de tonnes de ressources fossiles par an, soit plus d’un million de tonnes par jour ». Ces conversions chimiques étant énergivores, l’empreinte carbone réelle de l’industrie chimique est six à dix fois plus importante, représentant environ 5 % des émissions totales à l’échelle mondiale.

L’équipe de recherche de Julia Vorholt s’attelle à trouver des solutions pour réduire la dépendance de l’industrie chimique aux combustibles fossiles, en se concentrant sur les bactéries méthylotrophes, capables de se nourrir de méthanol vert.

Prélèvement d’un échantillon dans un bioréacteur contenant des bactéries méthylotrophes.

Des bactéries synthétiques optimisées pour métaboliser le méthanol

Bien qu’il existe des méthylotrophes naturels, leur utilisation industrielle reste difficile malgré des efforts de recherche considérables. L’équipe de Vorholt travaille donc avec la bactérie modèle Escherichia coli, bien connue en biotechnologie, dans le but de la doter de la capacité à métaboliser le méthanol.

Après avoir simulé les changements nécessaires à l’aide de modèles informatiques, les chercheurs ont sélectionné deux gènes à supprimer et trois nouveaux gènes à introduire. Grâce à ces modifications, les bactéries ont pu assimiler le méthanol, bien qu’en petites quantités dans un premier temps. En cultivant ces bactéries dans des conditions spéciales pendant plus d’un an, les microbes sont devenus de plus en plus efficaces, doublant leur population toutes les quatre heures en se nourrissant uniquement de méthanol.

Des mutations aléatoires bénéfiques pour optimiser le métabolisme

Plusieurs mutations survenues de manière aléatoire sont responsables de l’efficacité accrue de l’utilisation du méthanol par les bactéries synthétiques. La plupart de ces mutations ont entraîné la perte de fonction de divers gènes, permettant aux cellules d’économiser de l’énergie en abolissant des conversions chimiques superflues et en optimisant le flux métabolique.

Pour explorer le potentiel des méthylotrophes synthétiques dans la production biotechnologique de produits chimiques d’intérêt industriel, l’équipe de Vorholt a équipé les bactéries de gènes supplémentaires pour quatre voies de biosynthèse différentes. Les résultats montrent que les bactéries ont effectivement produit les composés désirés dans tous les cas, prouvant ainsi leur capacité à servir de plateforme de production polyvalente selon le principe « plug-and-play ».

Cycle de production de produits chimiques renouvelables tels que les plastiques par des bactéries utilisant le méthanol. (Graphique : ETH Zurich)

Bien que le rendement et la productivité doivent encore être significativement augmentés pour permettre une utilisation économiquement viable, cette technologie offre une alternative prometteuse aux ressources fossiles sans émettre de CO2 supplémentaire dans l’atmosphère. En utilisant uniquement du méthanol vert comme source de carbone, ces bactéries synthétiques ouvrent la voie à une production de produits chimiques renouvelables et respectueux de l’environnement.

Légende illustration : Des bactéries qui se nourrissent de méthanol et produisent des produits chimiques durables. (crédit : Sean Kilian)

Reiter MA, Bradley T, Büchel LA, Keller P, Hegedis E, Gassler T, Vorholt JA: A synthetic methylotrophic Escherichia coli as a chassis for bioproduction from methanol. Nature Catalysis, 23 April 2024, doi: 10.1038/s41929-​024-01137-0