<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	
	>
<channel>
	<title>
	Commentaires sur : Le supercalculateur Titan est aussi un géant vert	</title>
	<atom:link href="https://www.enerzine.com/le-supercalculateur-titan-est-aussi-un-geant-vert/14959-2012-11/feed" rel="self" type="application/rss+xml" />
	<link>https://www.enerzine.com/le-supercalculateur-titan-est-aussi-un-geant-vert/14959-2012-11</link>
	<description>L&#039;énergie au quotidien</description>
	<lastBuildDate>Thu, 29 Nov 2012 09:44:01 +0000</lastBuildDate>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>
	<item>
		<title>
		Par : Lionel_fr		</title>
		<link>https://www.enerzine.com/le-supercalculateur-titan-est-aussi-un-geant-vert/14959-2012-11#comment-52057</link>

		<dc:creator><![CDATA[Lionel_fr]]></dc:creator>
		<pubDate>Thu, 29 Nov 2012 09:44:01 +0000</pubDate>
		<guid isPermaLink="false">https://www.enerzine.com/le-supercalculateur-titan-est-aussi-un-geant-vert/14959-2012-11#comment-52057</guid>

					<description><![CDATA[Ben ça alors c&#039;est fort ! Bon 20 peta c&#039;est 10x fois mieux que la génération d&#039;avant sachant qu&#039;une carte graphique haut de gamme approche les 2 tera flops actuellement. L&#039;agencement n&#039;est pas différent d&#039;un datacenter dans le principe et les techniques de cablage. Donc c&#039;est un peu &quot;as usual&quot; : les CPU-GPU ont amélioré leurs perfs , les super-bécanes basées dessus également , c&#039;est assez logique et comme il y aura toujours quelqu&#039;un pour mettre les millions$ sur la table.. Ce que je regrette, c&#039;est qu&#039;on met toujours le focus sur l&#039;aspect matériel alors que le logiciel est depuis longtemps le grand défi de ces super-machines. En effet , pour mériter l&#039;appellation de super-calculateur , il faut faire tourner une application UNIQUE sur toutes ces puces et non pas comme n&#039;importe quel datacenter, autant de programmes que de cartes!! Et c&#039;est là que ça se complique car les applis scientifiques sont souvent écrites en Fortran , language de boeufs dont personne ne veut à part eux. Il faut donc que le compilateur Fortran soit mis à jour pour supporter tous ces cores (2000 par carte au moins..) et le vénérable Fortran n&#039;a pas du tout été conçu pour ça aux âges paléolitiques où il a été inventé.. Plus sérieusement, le calcul parallèle est une discipline pas intuitive du tout dont les fabricants de puces se sont emparés car ils ne parviennent plus à augmenter la puissance des cores mais seulement leur nombre.. Intel (grand absent de ce projet) tient à jour une suite de compilateurs et une base documentaire pour développeurs, sans parler du démarchage téléphonique qu&#039;ils font aux développeurs qui acceptent de s&#039;arracher les cheveux avec ce binz.. Mais pour la faire courte, tous les anciens langages se sont plus ou moins adaptés au multi-core-thread mais les véritables innovations dans ce domaine proviennent de langages spécifiquement conçus pour le capa (calcul parallèle) sur unités de calcul hétérogènes (shaders, tesselation, x86, ...) comme celles qui animent les milliers de cores qui composent un GPU de bonne facture Ces petits nouveaux, s&#039;appellent CUDA, OpenCL et plus généralement GPGPU .. Mais entre ça et le Fortran, il y a deux générations, façons de penser et modèles académiques totalement incompatibles... Bref si le matériel permet d&#039;aligner de jolis chiffres de perfs, le logiciel peut parfaitement annuler toutes ces améliorations en perdant son efficacité au prorata du nombre de cores, bref, à ce prix là , la machine devient juste un très onéreux chauffage électrique. Mais je pense et j&#039;espère que les &quot;chercheurs&quot; on fait le nécessaire... Simplement , ce serait sympa de parler de l&#039;aspect logiciel]]></description>
			<content:encoded><![CDATA[<p>Ben ça alors c&rsquo;est fort ! Bon 20 peta c&rsquo;est 10x fois mieux que la génération d&rsquo;avant sachant qu&rsquo;une carte graphique haut de gamme approche les 2 tera flops actuellement. L&rsquo;agencement n&rsquo;est pas différent d&rsquo;un datacenter dans le principe et les techniques de cablage. Donc c&rsquo;est un peu « as usual » : les CPU-GPU ont amélioré leurs perfs , les super-bécanes basées dessus également , c&rsquo;est assez logique et comme il y aura toujours quelqu&rsquo;un pour mettre les millions$ sur la table.. Ce que je regrette, c&rsquo;est qu&rsquo;on met toujours le focus sur l&rsquo;aspect matériel alors que le logiciel est depuis longtemps le grand défi de ces super-machines. En effet , pour mériter l&rsquo;appellation de super-calculateur , il faut faire tourner une application UNIQUE sur toutes ces puces et non pas comme n&rsquo;importe quel datacenter, autant de programmes que de cartes!! Et c&rsquo;est là que ça se complique car les applis scientifiques sont souvent écrites en Fortran , language de boeufs dont personne ne veut à part eux. Il faut donc que le compilateur Fortran soit mis à jour pour supporter tous ces cores (2000 par carte au moins..) et le vénérable Fortran n&rsquo;a pas du tout été conçu pour ça aux âges paléolitiques où il a été inventé.. Plus sérieusement, le calcul parallèle est une discipline pas intuitive du tout dont les fabricants de puces se sont emparés car ils ne parviennent plus à augmenter la puissance des cores mais seulement leur nombre.. Intel (grand absent de ce projet) tient à jour une suite de compilateurs et une base documentaire pour développeurs, sans parler du démarchage téléphonique qu&rsquo;ils font aux développeurs qui acceptent de s&rsquo;arracher les cheveux avec ce binz.. Mais pour la faire courte, tous les anciens langages se sont plus ou moins adaptés au multi-core-thread mais les véritables innovations dans ce domaine proviennent de langages spécifiquement conçus pour le capa (calcul parallèle) sur unités de calcul hétérogènes (shaders, tesselation, x86, &#8230;) comme celles qui animent les milliers de cores qui composent un GPU de bonne facture Ces petits nouveaux, s&rsquo;appellent CUDA, OpenCL et plus généralement GPGPU .. Mais entre ça et le Fortran, il y a deux générations, façons de penser et modèles académiques totalement incompatibles&#8230; Bref si le matériel permet d&rsquo;aligner de jolis chiffres de perfs, le logiciel peut parfaitement annuler toutes ces améliorations en perdant son efficacité au prorata du nombre de cores, bref, à ce prix là , la machine devient juste un très onéreux chauffage électrique. Mais je pense et j&rsquo;espère que les « chercheurs » on fait le nécessaire&#8230; Simplement , ce serait sympa de parler de l&rsquo;aspect logiciel</p>
]]></content:encoded>
		
			</item>
	</channel>
</rss>
