Les nano- technologies ont 50 ans !

On sait déjà que ces cœurs ne seront pas forcément tous dédiés au calcul. Des cœurs graphiques avec fonctions vectorielles, et d’autres spécialisés dans la cryptographie sont prévus. Ils feront d’ailleurs leur apparition dès la prochaine génération Sandy Bridge de processeurs. Intel entend la lancer vers la fin 2010, avec une gravure intermédiaire de 32 nm. Dès lors, les modèles de processeurs se multiplieront. Le processeur Larrabee aura par exemple un maximum de cœurs graphiques. D’ici là, les processeurs actuels de la génération Nehalem, jusqu’ici gravés en 45 nm, vont également bénéficier de la gravure en 32 nm au début de 2010. Intel compte tirer partie de cette réduction de taille de plusieurs manières. Il s’en servira tantôt pour diminuer les watts, tantôt pour augmenter les gigahetrz des serveurs, des PC et des portables, selon les marchés visés.

Intel vise une gravure de 10 nm avant 2020 et pense que les limites physiques de la gravure seront atteintes autour de 5 nm. Pour atteindre cet objectif, Intel travaille actuellement sur une technologie d’assemblage de puces baptisée Block CoPolymer Litography (BCP), en partenariat avec l’Université de Californie et la Fondation Nationale des Sciences américaine. A cette échelle, les ingénieurs d’Intel pensent que la charge électrique traversera directement le transistor même s’il n’est pas sollicité.

En marge du salon Intel Developer Forum 2009, des chercheurs du fameux MIT (Massachusetts Institute of Technology) américain ont présenté deux nouveaux procédés chimiques pour fabriquer des semi-conducteurs encore plus performants. Le premier procédé sert à fixer des nanotubes de carbone à la surface des wafers (les disques sur lesquels on grave les circuits électroniques) à la place des interconnexions en cuivre.

La découverte de l’équipe du professeur Gilbert D. Nessim a tout d’une recette de cuisine : plutôt que de chercher à coller des nanotubes sur un wafer, on les fait croître dans un four. En l’occurrence, les chercheurs vaporisent sur ce disque du tantale et du fer puis l’aspergent d’éthylène à exactement 475°C. A cette température, le gaz se décompose et ses molécules de carbone se fixent sur les deux métaux précédents d’une manière particulière, créant ainsi un maillage d’interconnexions en nanotubes à la surface du disque.

L’équipe du professeur Tomas Palacios a, quant à elle, réussi à fabriquer un processeur dont les unités de calcul, en nitrure de gallium, vont plus vite que la mémoire cache, en silicium classique. Le nitrure de gallium permet de grimper plus loin dans les gigahertz, mais c’est un matériau moins stable, avec lequel on ne parvient pas à graver un grand nombre de transistors. L’idée consiste donc à le réserver à ceux des unités de calcul. D’une part parce qu’ils sont minoritaires. D’autre part parce que c’est surtout leur vitesse qui conditionne les performances d’un processeur. Grâce à ces innovations on devrait pouvoir concevoir et fabriquer d’ici 10 ans des puces trente fois plus puissantes, à taille égale, qu’aujourd’hui.

Mais à partir de 2020, seule une rupture technologique permettra de poursuivre cette course vers l’infiniment petit et l’infiniment puissant. C’est pourquoi IBM prépare déjà ce grand saut en association avec l’Institut de Technologie de Californie (Caltech). Dans un article publié en septembre dans la revue Nature les chercheurs sont parvenus à utiliser un brin d’ADN (qu’IBM baptise « ADN origami ») pour créer des motifs lithographiques de 6 nanomètres. Comme de nombreuses molécules, l’ADN présente en effet l’avantage d’offrir un modèle répétitif et, surtout, reproductible, y compris, visiblement, à l’échelle industrielle électronique.

Ces motifs d’ADN origami permettent ensuite d’assembler sous forme structurée des nanotubes de carbone mais aussi des fibres de silicium. A travers ces recherches, IBM espère ainsi rélever un triple défi : produire des composants nanométriques moins gourmands en énergie et moins chers à fabriquer que les composants actuels.

Autre voie technologique pour préparer l’après silicium : l’ordinateur quantique. Il y a quelques semaines, des chercheurs de l’université de Bristol ont réalisé un prototype de puce optoélectronique quantique qui leur a permis pour la première fois d’effectuer un calcul mathématique. L’appareil est constitué de minuscules guides d’ondes en silice placés sur une puce de silicium et il exécute l’algorithme de Shor, un algorithme mathématique conçu spécifiquement pour exploiter les propriétés du calcul quantique et factoriser ainsi en nombres premiers.

Les ordinateurs classiques stockent et traitent l’information sous forme de bits, une unité d’information qui ne peut avoir qu’un des deux états 0 ou 1. Un ordinateur quantique, en revanche, exploite le principe de la superposition d’états, c’est-à-dire le fait que les particules quantiques peuvent coexister dans deux états ou plus en même temps.

En 2003, Jeremy O’Brien et ses collègues de l’université du Queensland, en Australie, avaient réussi à réaliser la première porte logique contrôlée (CNOT) à photon unique. Une telle porte CNOT possède deux entrées – “cible” et “contrôle” – et constitue un composant élémentaire fondamental pour parvenir à l’ordinateur quantique. L’équipe de Bristol vient de franchir une étape en effectuant son premier calcul mathématique avec une puce quantique.

En matière de stockage, la prochaine révolution viendra peut-être des nanolasers qui sont capables de générer une énergie équivalente à près de 250 nanowatts, soit la puissance suffisante pour assurer un stockage de dix terabits (10 000 Gbits) de données sur une surface de seulement 2,5 centimètres carrés.

On voit donc se profiler l’ordinateur de demain qui sera optique et dans lequel le photon remplacera l’électron comme vecteur d’information. Sur le plan de sa structure et du fonctionnement, cet ordinateur trouvera son inspiration à la fois dans la molécule d’ADN, support fondamental de l’information biologique et dans la physique quantique, dont les lois étranges régissent le domaine des particules et de l’infiniment petit. Mettre au point ces machines dont la puissance et la rapidité défient l’imagination nécessitera un effort considérable de décloisonnement et d’articulation conceptuel entre les sciences de la matière, les sciences de l’information et les sciences du vivant.

Il y a presque 50 ans jour pour jour, dans son fameux discours donné le 29 décembre 1959 à la Société Américaine de Physique, Richard Feynman, en visionnaire de génie, évoquait les immenses potentialités des nanotechnologies et se disait convaincu qu’on pourrait un jour mettre toute l’Enclypopedia Britannica ans une tête d’épingle.

Ce jour n’est plus très loin et d’ici 10 ans la miniaturisation de l’électronique atteindra les limites vertigineuses de quelques atomes. Mais l’utilisation de nanotechnologies et l’exploration de infiniment petit ne sont pas seulement en train de révolutionner les technologies de l’information mais également le domaine de l’énergie et des sciences du vivant.

Demain, les nanotechnologies seront partout : elles permettront de fabriquer des cellules solaires soules, ultraminces et à haut rendement ; elles pourront piéger l’hydrogène pour le stocker en grande quantité dans nos voitures ; elles iront traquer et détruire les cellules cancéreuses de manière extraordinairement précise ou réparer nos neurones endommagés.

Mais ce « nanomonde », porteur d’immenses espoirs, dont certains sont déjà en train de se concrétiser, est également source de crainte et de méfiance chez certains de nos concitoyens qui n’en perçoivent que les risques et ne sont pas informés de leurs prodigieuses potentialités, notamment en médecine (Voir par exemple l’article sur les nanoparticules d’insuline dans notre rubrique « Médecine&Biologie).

Notre société et la communauté scientifique ne doivent pas ignorer ces interrogations et nous devons y répondre en instaurant un vrai débat démocratique sur l’utilisation de ces nanotechnologies et sur leur impact social et en associant tous nos concitoyens à cette extraordinaire aventure scientifique et humaine.

[ Archive ] – Cet article a été écrit par René Tregouët

0 Commentaires
Commentaires en ligne
Afficher tous les commentaires