<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Programmation parallèle &#8211; Smals Research</title>
	<atom:link href="https://www.smalsresearch.be/tag/programmation-parallele/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.smalsresearch.be</link>
	<description></description>
	<lastBuildDate>Thu, 09 Apr 2026 12:04:17 +0000</lastBuildDate>
	<language>en-GB</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://www.smalsresearch.be/wp-content/uploads/2026/01/cropped-cropped-Smals_Research-32x32.png</url>
	<title>Programmation parallèle &#8211; Smals Research</title>
	<link>https://www.smalsresearch.be</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>A propos de la programmation parallèle</title>
		<link>https://www.smalsresearch.be/a-propos-de-la-programmation-parallele/</link>
		
		<dc:creator><![CDATA[Jean-Pierre Latour]]></dc:creator>
		<pubDate>Mon, 11 Jul 2011 06:00:00 +0000</pubDate>
				<category><![CDATA[Blog post]]></category>
		<category><![CDATA[Programmation parallèle]]></category>
		<category><![CDATA[software engineering]]></category>
		<guid isPermaLink="false">http://blogs.smals-mvm.be/research/?p=1678</guid>

					<description><![CDATA[Aujourd&#8217;hui les machines multi-processeurs, demain (en fait déjà aujourd&#8217;hui) le cloud computing, dans le cadre de l&#8217;écriture d&#8217;applications à haute performance, motivent de plus en plus le recours à la programmation parallèle. On associe souvent programmation parallèle et programmation asynchrone. C&#8217;est  en fait plus compliqué&#160;: pour faire (très) court, nous dirons que l&#8217;asynchronisme est à [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Aujourd&#8217;hui les machines multi-processeurs, demain (en fait déjà aujourd&#8217;hui) le cloud computing, dans le cadre de l&#8217;écriture d&#8217;applications à haute performance, motivent de plus en plus le recours à la programmation parallèle.</p>
<p>On associe souvent programmation parallèle et programmation asynchrone. C&#8217;est  en fait plus compliqué&nbsp;: pour faire (très) court, nous dirons que l&#8217;asynchronisme est à voir comme un moyen utilisé dans la  problématique de distribution et de synchronisation des branches de traitement. Nous passerons sur la distinction entre parallèle et concurrent. Un post n&#8217;y suffirait pas.</p>
<p>Un acteur majeur de l&#8217;IT l&#8217;a bien compris&nbsp;: Microsoft est occupé à étoffer ses langages de facilités pour la programmation parallèle.</p>
<p>Mais attention&nbsp;: les difficultés inhérentes à la programmation parallèle rendent cette tâche très complexe et favorable à l’apparition de bugs difficiles à identifier et à corriger. La programmation parallèle n&#8217;est certainement pas à mettre entre toutes les mains&nbsp;!</p>
<p>Il faut donc rendre transparent au développeur l&#8217;utilisation parallèle des processeurs. En implémentant le parallélisme au cœur du langage, son utilisation se fait à moindre coût et moindre risque.</p>
<p>Sur ce sujet des initiatives nombreuses voient le jour&nbsp;:<br />
&#8211; celle de Microsoft déjà citéé, pour ses langages C# et VB, avec la librairie TPL (<a href="https://msdn.microsoft.com/fr-fr/vstudio/async.aspx">https://msdn.microsoft.com/fr-fr/vstudio/async.aspx</a>)<br />
&#8211; le laboratoire Programming Methods Laboratory de l’EPFL, à l’origine de Scala, a  obtenu un financement sur cinq ans de l’union Européenne, afin de soutenir le développement de Scala et notamment son utilisation dans la programmation parallèle.<br />
&#8211; le framework Java JPPF (<a href="https://www.jppf.org">www.jppf.org</a> &#8211; <a href="https://www.parallel-matters.com">www.parallel-matters.com</a>), pour la programmation parallèle distribuée<br />
&#8211; le plugin DPJizer pour Eclipse</p>
<p>Dans le cadre de la problématique de scalabilité, il pourrait être utile d&#8217;évaluer l&#8217;intérêt pour un framework tel que JPPF (à discuter avec la cellule architecture).</p>
<p>Pour conclure, devrons-nous investir sur la programmation parallèle ou, comme par le passé, miser sur les gains de performance des processeurs émanant de la loi de Moore?</p>
<p>Deux éléments de réponse. La loi de Moore ne sera  sans doute pas éternellement valable (aux dires mêmes de son auteur) &#8211; ceci étant dit, le recours aux nanotechnologies <sup>(1)</sup>  [dont l&#8217;horizon d&#8217;industrialisation en micro éléctronique reste difficile à prévoir] pourrait lui donner un second souffle. Plus important les préoccupations liées au Green IT vont demander d&#8217;améliorer la performance énergétique des centres de calcul. Ceci pourrait demander de renoncer à la recherche de puissance par augmentation de la fréquence des processeurs &#8230; en se penchant sur l&#8217;intérêt de la programmation parallèle. Avec peut-être alors un intérêt pour le langage Scala.</p>
<p><sup>(1)</sup> dans lesquelles deux voies sont explorées&nbsp;: l&#8217;approche classique dite top-down, par gravure, et que l&#8217;on continue à tenter de maximiser &#8211; l&#8217;approche nouvelle dite bottom-up, par assemblage de matière (au niveau atomique), et qui va demander à la micro électronique de s&#8217;intéresser bien davantage aux connaissances fondamentales en physique et chimie</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
