<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>sustainability &#8211; Smals Research</title>
	<atom:link href="https://www.smalsresearch.be/tag/sustainability/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.smalsresearch.be</link>
	<description></description>
	<lastBuildDate>Thu, 09 Apr 2026 12:19:52 +0000</lastBuildDate>
	<language>en-GB</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://www.smalsresearch.be/wp-content/uploads/2026/01/cropped-cropped-Smals_Research-32x32.png</url>
	<title>sustainability &#8211; Smals Research</title>
	<link>https://www.smalsresearch.be</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Premier tour d&#8217;horizon de l&#8217;AI Act</title>
		<link>https://www.smalsresearch.be/premier-tour-dhorizon-de-lai-act/</link>
		
		<dc:creator><![CDATA[Joachim Ganseman]]></dc:creator>
		<pubDate>Wed, 17 Jul 2024 15:14:57 +0000</pubDate>
				<category><![CDATA[[FR]]]></category>
		<category><![CDATA[Blog post]]></category>
		<category><![CDATA[Artificial intelligence]]></category>
		<category><![CDATA[audit]]></category>
		<category><![CDATA[chatbot]]></category>
		<category><![CDATA[egov]]></category>
		<category><![CDATA[Security]]></category>
		<category><![CDATA[standards]]></category>
		<category><![CDATA[sustainability]]></category>
		<guid isPermaLink="false">/?p=20917</guid>

					<description><![CDATA[Nous vous en disons plus sur l'AI Act européen, dernière pierre angulaire d'une série d'initiatives législatives à grande échelle destinées à réglementer l'économie numérique en Europe.]]></description>
										<content:encoded><![CDATA[
<p><em>Dit artikel is ook beschikbaar <a href="/een-eerste-kennismaking-met-de-ai-act/">in het Nederlands</a>.</em></p>



<p><em>Note&nbsp;: il s&#8217;agit d&#8217;un article de vulgarisation consacré à une réglementation future, basé sur la </em><a href="https://eur-lex.europa.eu/legal-content/FR/TXT/?uri=OJ%3AL_202401689"><em>publication officielle du 12/07/2024</em></a><em>. Adressez-vous toujours à un·e juriste pour obtenir un avis juridique professionnel.</em></p>



<p>L&#8217;<a href="https://digital-strategy.ec.europa.eu/fr/policies/regulatory-framework-ai">AI Act européen</a> (en français <em>le règlement sur l&#8217;intelligence artificielle</em>) est une des pierres angulaires d&#8217;une série d&#8217;initiatives législatives à grande échelle destinées à réglementer l&#8217;économie numérique en Europe. Il vient ainsi compléter la législation antérieure relative à certains aspects de l&#8217;intelligence artificielle, comme le <a href="https://eur-lex.europa.eu/eli/reg/2016/679/oj">RGPD</a>, le <a href="https://digital-strategy.ec.europa.eu/en/policies/digital-services-act-package">Digital Services Act (DSA) et le Digital Markets Act (DMA)</a>, le <a href="https://digital-strategy.ec.europa.eu/en/policies/data-act">Data Act</a>, le <a href="https://digital-strategy.ec.europa.eu/en/policies/data-governance-act">Data Governance Act</a>, le <a href="https://digital-strategy.ec.europa.eu/en/policies/european-chips-act">CHIPS Act</a> et le <a href="https://digital-strategy.ec.europa.eu/en/policies/cyber-resilience-act">Cyber Resilience Act</a> en cours d&#8217;élaboration. Après de longues négociations, l&#8217;AI Act a été approuvé par le Parlement européen en mars 2024 et par le Conseil européen en mai 2024. La publication au Journal officiel de l&#8217;Union européenne, que l&#8217;on peut appeler Moniteur européen, a eu lieu le <a href="https://eur-lex.europa.eu/legal-content/FR/TXT/?uri=OJ%3AL_202401689">12 juillet 2024</a>. Les premières règles entreront en vigueur début 2025. Vous pouvez également consulter <a href="https://artificialintelligenceact.eu/developments/">cette chronologie</a>.</p>



<h2 class="wp-block-heading">Un RGPD bis&nbsp;?</h2>



<p>Le texte intégral de l&#8217;AI Act, y compris l&#8217;ensemble des préliminaires et annexes, comprend <a href="https://eur-lex.europa.eu/legal-content/FR/TXT/PDF/?uri=OJ:L_202401689">144 pages</a>. Fort heureusement, de <a href="https://artificialintelligenceact.eu/high-level-summary/">bons résumés</a> sont déjà disponibles <a href="https://www.stibbe.com/publications-and-insights/the-eu-artificial-intelligence-act-our-16-key-takeaways">ici et là</a>. Il est ainsi presque deux fois plus long que le <a href="https://eur-lex.europa.eu/legal-content/FR/TXT/PDF/?uri=CELEX:32016R0679">RGPD</a> qui ne fait, lui, &#8220;que&#8221; 88 pages. L&#8217;impact de ce dernier est énorme : toutes les organisations traitant des données à caractère personnel &#8211; il suffit d&#8217;avoir une administration du personnel ou un fichier de clients &#8211; se sont en effet vues confrontées aux exigences relatives aux délégués à la protection des données, aux registres de traitement et aux bases juridiques du traitement des données. Chaque pays a également dû mettre en place une  <a href="https://www.autoriteprotectiondonnees.be/">Autorité de protection des données</a> habilitée à <a href="https://www.dailybits.be/item/overzicht-gdpr-boetes-rechtszaken/#BE">infliger des amendes en cas d&#8217;infraction</a>.</p>



<p>Le RGPD s&#8217;est également accompagné d&#8217;une certaine confusion, notamment par son utilisation fréquente de termes ouverts à l&#8217;interprétation (&#8220;approprié&#8221;, &#8220;adéquat&#8221;, &#8220;adapté&#8221;, &#8220;suffisant&#8221;&#8230;).<br>La nécessité de les concrétiser à nouveau pour chaque cas d&#8217;espèce alimente ce que l&#8217;on peut aujourd&#8217;hui appeler une petite industrie juridique. L&#8217;AI Act vise à fournir un peu plus d&#8217;indications, en revêtant une forme plus technique. Il comporte ainsi une liste d&#8217;annexes avec des énumérations pratiques des attentes en matière de documentation, de conformité, de transparence, etc.</p>



<p>L&#8217;AI Act est parti d&#8217;une proposition plus compacte de <a href="https://eur-lex.europa.eu/legal-content/FR/TXT/?uri=CELEX%3A52021PC0206">125 pages (annexes incluses)</a>. Au cours des négociations cependant, on a assisté à l&#8217;essor fulgurant de l&#8217;IA générative et des grands modèles de langage. Cette nouvelle donne a nécessité la révision et l&#8217;ajout de certains éléments, tels qu&#8217;un nouveau chapitre (5) entièrement consacré aux modèles d&#8217;IA à usage général, parmi lesquels on compte les grands modèles de langage. Quant à certaines sections, on peut se demander ce qu&#8217;elles viennent faire dans l&#8217;AI Act, notamment un système de &#8220;bacs à sable réglementaires de l&#8217;IA&#8221; (article 57) qui doit permettre aux régulateurs de faciliter l&#8217;innovation. Certains articles sont formulés de manière plutôt énigmatique, comme la section dédiée aux &#8220;organismes d’évaluation de la conformité notifiés&#8221; (article 29), qui ne sont <a href="https://www.hiig.de/en/eu-ai-act/">ni plus ni moins que des auditeurs</a>. Des <a href="https://www.euractiv.com/section/digital/news/the-long-and-winding-road-to-implement-the-ai-act/">voix critiques</a> se font donc entendre, craignant que la somme de mesures qui en résulte ne débouche avant tout sur un véritable imbroglio.</p>



<h2 class="wp-block-heading">AI Act &#8211; Fondamentaux</h2>



<p>L&#8217;AI Act s&#8217;adresse aux développeurs et aux fournisseurs d&#8217;IA, et ce uniquement lorsqu&#8217;ils publient des systèmes d&#8217;IA et les mettent à la disposition de tiers. Tous les développements et tests internes préalables sont explicitement exemptés (article 2 §8). L&#8217;AI Act ne s&#8217;applique pas non plus aux activités personnelles auxquelles vous vous adonnez dans un contexte non professionnel (article 2 §10). De même, la recherche scientifique (article 2 §6) et les applications militaires (article 2 §3) ne sont pas concernées. Bien évidemment, cela ne signifie pas que tout est permis dans tous ces cas.<br>Il va de soi que d&#8217;autres législations existantes restent en vigueur. Les droits des citoyens étaient déjà protégés par <a href="https://gdpr-info.eu/art-22-gdpr/">l&#8217;article 22 du RGPD entre autres</a>, tandis que la législation sur les droits d&#8217;auteur continue de protéger les auteurs.</p>



<p>Par ailleurs, la définition de l&#8217;IA utilisée est particulièrement large et empruntée à l&#8217;<a href="https://oecd.ai/en/wonk/ai-system-definition-update">OCDE</a>&nbsp;: en résumé, &#8220;un système IA [&#8230;] déduit, à partir des entrées, la manière de générer des sorties [&#8230;]&#8221; (article 3 + considérant 12). La quasi-totalité de l&#8217;apprentissage automatique entre dans ce cadre. Dans d&#8217;autres définitions, on lit parfois que l&#8217;IA comporte un aspect cognitif (quelque chose doit être &#8220;reconnu&#8221;), mais il n&#8217;en est pas fait mention ici. Il n&#8217;est pas non plus fait mention de techniques spécifiques&nbsp;: tout ce qui apprend de manière adaptative ou peut réagir de manière quelque peu autonome à l&#8217;environnement est presque toujours inclus. Il s&#8217;agit donc également des systèmes que vous connaissez depuis des années, sans vous rendre compte qu&#8217;ils reposent sur l&#8217;intelligence artificielle, tels que les filtres antispam, les recommandations sur les sites web, voire les prévisions météorologiques.</p>



<p>L&#8217;AI Act définit d&#8217;abord et surtout une liste de pratiques interdites (article 5), qui prendra effet dès le début de l&#8217;année 2025. Cette liste est exhaustive, ce qui signifie en principe que tout ce qui n&#8217;est pas explicitement interdit est autorisé (sauf dispositions contraires prévues par d&#8217;autres lois). Aussi est-il intéressant d&#8217;examiner ce qui figure et ce qui ne figure pas dans cette liste d&#8217;interdictions, ainsi que les dispositions supplémentaires qui s&#8217;y rapportent. On découvre ainsi que&nbsp;:</p>



<ul class="wp-block-list">
<li>§1(f)&nbsp;: L&#8217;interdiction de la reconnaissance des émotions ne mentionne que le lieu de travail et l&#8217;enseignement.</li>



<li>§1(g)&nbsp;: L&#8217;interdiction des systèmes d&#8217;IA biométriques ne mentionne que la déduction automatique concernant la race, la sexualité, l&#8217;affiliation à une organisation syndicale, la religion, les convictions politiques et philosophiques.</li>



<li>§1(e)&nbsp;: L&#8217;interdiction de la reconnaissance faciale ne concerne que les systèmes basés sur ce qu&#8217;on appelle &#8220;moissonnage non ciblé&#8221;.</li>
</ul>



<p>Elle est donc plus nuancée qu&#8217;une liste d&#8217;interdictions générales, car le contexte et l&#8217;objectif interviennent également. La reconnaissance des émotions dans les jeux vidéo, par exemple, reste ainsi autorisée. Les considérants 15 à 17 précisent que l&#8217;IA biométrique reste autorisée pour la vérification d&#8217;identité et l&#8217;authentification. Parallèlement, des exceptions sont prévues entre autres pour l&#8217;assistance médicale et la lutte contre la criminalité, bien que ces exceptions soient soumises à un contrôle strict (article 5, §2-§7), y compris une liste des infractions pénales qui entrent en ligne de compte (annexe 2).</p>



<p>Les systèmes qui assurent la sécurité des utilisateurs ou qui sont énumérés à l&#8217;annexe 3 sont des systèmes à haut risque (article 6). Il s&#8217;agit principalement de systèmes susceptibles d&#8217;avoir un impact majeur sur les libertés, la vie, la carrière ou la santé d&#8217;un individu. Bien que cette section de l&#8217;AI Act n&#8217;entrera en vigueur qu&#8217;à l&#8217;été 2026, il convient de noter qu&#8217;il subsiste des lacunes à combler. Par exemple, la Commission doit encore fournir des lignes directrices précisant l&#8217;interprétation de cet article (article 6 §5) et se réserve le droit d&#8217;apporter des modifications même après coup (article 6 §6-§8, article 7).</p>



<h2 class="wp-block-heading">AI Act &#8211; Obligations</h2>



<p>Quiconque souhaite construire ou a construit un système à haut risque devra se conformer à une série d&#8217;obligations, qui doivent notamment permettre aux autorités compétentes d&#8217;intervenir en cas de non-respect. Les développeurs de systèmes à haut risque devront adopter certaines pratiques, notamment&nbsp;:</p>



<ul class="wp-block-list">
<li>Un système itératif de gestion des risques (article 9), qui doit permettre d&#8217;identifier et d&#8217;évaluer les risques et d&#8217;atténuer les abus potentiels à l&#8217;avance. Le texte est relativement peu concret&nbsp;: il parle de &#8220;risques raisonnablement prévisibles&#8221; et de &#8220;mesures appropriées&#8221; sans autre précision. Ceci fera donc encore l&#8217;objet de discussions, mais dans la pratique, on peut déjà aujourd&#8217;hui se contenter en partie des normes récemment élaborées à cette fin, telles que la norme <a href="https://www.iso.org/standard/81230.html">ISO/IEC 42001</a>. Étant entendu qu&#8217;elle n&#8217;est pas explicitement conçue pour la loi sur l&#8217;IA Act, des mesures supplémentaires peuvent s&#8217;imposer.</li>



<li>La gestion de données de qualité (article 10), qui se résume en grande partie à la transparence sur l&#8217;origine, les limites, les marges d&#8217;erreur et la représentativité. L&#8217;utilisation de <a href="https://arxiv.org/abs/1803.09010">Data Sheets</a> (fiches de données), dont c&#8217;est l&#8217;objectif, est devenue populaire dans le secteur au cours des dernières années.</li>



<li>Fournir une documentation technique conforme aux exigences de l&#8217;annexe 4 (annexe 11 pour l&#8217;IA à usage général). Ceci est quelque peu analogue aux <a href="https://huggingface.co/docs/hub/model-cards">Model Cards</a> (cartes modèles) que l&#8217;on peut trouver sur le HuggingFace Hub, bien que la Commission européenne ne se contente pas de listes cochées et exige plus de détails, y compris sur la surveillance et le contrôle pendant la durée de vie du système.</li>



<li>L&#8217;enregistrement (article 12) ainsi que la transparence et la fourniture d’informations aux utilisateurs (article 13).</li>



<li>Le contrôle humain pendant la durée de vie du système (article 14). Si l&#8217;article 22 du RGPD en faisait déjà un droit civil, l&#8217;AI Act impose aux développeurs de prendre les mesures nécessaires à cette fin. Par exemple, il devra toujours être possible d’ignorer, de remplacer ou d&#8217;arrêter le système d&#8217;IA (article 14 §4 (d-e)).</li>



<li>Prendre des mesures &#8220;appropriées&#8221; en matière de cybersécurité, de robustesse et d&#8217;exactitude (article 15). Cet article reste lui aussi relativement vague à l&#8217;heure actuelle et fait référence à l&#8217;intention de la Commission de soutenir le développement des étalonnages nécessaires.</li>
</ul>



<p>Quiconque publie, met à disposition, incorpore dans son propre produit, importe ou distribue un système à haut risque devra prendre des mesures similaires, notamment&nbsp;:</p>



<ul class="wp-block-list">
<li>Vérifier et prouver la conformité du système (article 16 §e-l, articles 40-47), établir une déclaration de conformité (annexe 5) et obtenir le marquage CE (article 48).&nbsp;</li>



<li>Utiliser un système de gestion de la qualité (article 17).</li>



<li>Conserver la documentation nécessaire pendant 10 ans après la mise en service (article 18).</li>



<li>Coopérer avec les autorités compétentes (article 21).</li>



<li>Enregistrer le système (article 49) dans une base de données européenne dédiée (article 71).</li>



<li>Désigner une personne de contact ou un représentant pour tout ce qui précède (article 22).</li>



<li>Mettre en place la surveillance nécessaire et agir en cas de problème (article 26 §5 et articles 72-73), notamment en informant l&#8217;autorité compétente.</li>
</ul>



<figure class="wp-block-image size-full"><a href="/wp-content/uploads/2024/07/ai_lifecycle_visual_7FC0D14E-A775-A92E-DE5A38FDB7C238EB_75759.jpg"><img fetchpriority="high" decoding="async" width="606" height="335" src="/wp-content/uploads/2024/07/ai_lifecycle_visual_7FC0D14E-A775-A92E-DE5A38FDB7C238EB_75759.jpg" alt="" class="wp-image-20899" srcset="https://www.smalsresearch.be/wp-content/uploads/2024/07/ai_lifecycle_visual_7FC0D14E-A775-A92E-DE5A38FDB7C238EB_75759.jpg 606w, https://www.smalsresearch.be/wp-content/uploads/2024/07/ai_lifecycle_visual_7FC0D14E-A775-A92E-DE5A38FDB7C238EB_75759-300x166.jpg 300w" sizes="(max-width: 606px) 100vw, 606px" /></a><figcaption class="wp-element-caption">Cycle de vie des systèmes d&#8217;IA à haut risque dans le cadre de l&#8217;AI Act. Image (c) Union Européenne, CC-BY-4.0</figcaption></figure>



<p>Par analogie avec l&#8217;analyse d&#8217;impact relative à la protection des données du RGPD, certaines organisations, dont toutes les autorités publiques et les organisations de service public, devront réaliser une analyse d&#8217;impact sur les droits fondamentaux (<a href="https://www.technologyslegaledge.com/2024/03/fundamental-rights-impact-assessments-under-the-eu-ai-act-who-what-and-how/">Fundamental Rights Impact Assessment ou FRIA</a>) dont les résultats devront être communiqués aux <a href="https://single-market-economy.ec.europa.eu/single-market/goods/building-blocks/market-surveillance/organisation_en">régulateurs du marché compétents</a> (article 27). L&#8217;AI Office européen est déjà chargé de développer les questionnaires automatisés nécessaires à l&#8217;acquittement de cette obligation (article 27 §5).</p>



<p>On en oublierait presque que la grande majorité des systèmes d&#8217;IA sont simplement des systèmes à faible risque. À cet égard, l&#8217;AI Act est assez succinct&nbsp;: ils doivent satisfaire à des exigences minimales de transparence uniquement pour des applications spécifiques (article 50). Ainsi, l&#8217;utilisateur final doit toujours savoir qu&#8217;il interagit avec un système d&#8217;IA, et les résultats générés artificiellement doivent être clairement identifiés comme tels. La mainmise redoutée sur l&#8217;ensemble de l&#8217;industrie de l&#8217;IA est donc toute relative.</p>



<h2 class="wp-block-heading">IA à usage général</h2>



<p>Le développement récent de l&#8217;IA générative à usage général pour le texte et les images a nécessité l&#8217;ajout d&#8217;une catégorie distincte de systèmes, à savoir l&#8217;IA à usage général. La Commission européenne considère que ce type d&#8217;IA, indépendamment d&#8217;un éventuel risque élevé en matière de droits civils, peut également présenter un risque systémique (article 51). Le bien-fondé ou non de cette position fait l&#8217;objet d&#8217;un <a href="https://quillette.com/2024/07/02/superintelligence-10-years-on-nick-bostrom-ai-safety-agi/">débat acharné </a>dans les cercles techniques et philosophiques, mais l&#8217;UE adopte une approche prudente et prévoit un bâton juridique.</p>



<p>La Commission européenne se donne la liberté de déterminer les systèmes qui présentent un tel risque (article 51 §1). Bien qu&#8217;elle affirme appliquer des critères objectifs pour ce faire (annexe 13), il n&#8217;y a pas de véritable formule. Néanmoins, l&#8217;article 51 §2 fixe étonnamment une limite très concrète, à savoir qu&#8217;à partir du moment où son entraînement requiert une puissance de calcul de 10<sup>25</sup> FLOPS, un modèle d’IA à usage général est par définition considéré comme présentant un risque systémique. Cela correspond approximativement à un temps d&#8217;entraînement d&#8217;un an sur un cluster de 4000 GPU de type Nvidia RTX4090 (avec une puissance de calcul de 82&#215;10<sup>12</sup> FLOPS). Pour éviter que tout cela ne devienne obsolète demain, la Commission se réserve le droit d&#8217;adapter ces valeurs à l&#8217;avenir en fonction des évolutions du domaine (article 51 §3).</p>



<p>Outre les exigences minimales de l&#8217;article 50 et indépendamment de la classification des risques, l&#8217;IA à usage général est soumise à son propre ensemble d&#8217;exigences en matière de documentation technique (article 53, annexe 11), qui seront un peu élargies en présence d&#8217;un risque systémique (article 55). Les constructeurs de modèles d’IA à usage général sans risque systémique publiés sous licence libre sont exemptés de certaines obligations (article 53 §2, voir également les considérants 102 à 104) et ne sont pas non plus tenus de désigner une personne de contact ou un représentant (article 54 § 6).</p>



<h2 class="wp-block-heading">AI Office (Bureau de l&#8217;IA)</h2>



<p>L&#8217;AI Act devra également être appliqué. Un rôle majeur dans ce cadre sera joué par <a href="https://digital-strategy.ec.europa.eu/en/policies/ai-office">l&#8217;AI Office</a> (<em>Bureau de l&#8217;IA</em>, article 64), qui devrait être à l&#8217;AI Act ce que le <a href="https://www.edps.europa.eu/">Contrôleur européen de la protection des données</a> est au RGPD. L&#8217;AI Office est actuellement mis en place à grande vitesse, les premières dispositions entrant en vigueur début 2025. Outre la responsabilité de compléter une série d&#8217;articles en suspens de l&#8217;IA Act, l&#8217;AI Office se verra confier la compétence exclusive de la surveillance de l&#8217;IA à usage général (article 75).</p>



<p><a href="https://digital-strategy.ec.europa.eu/"></a>En pratique, l&#8217;AI Office fera partie de la <a href="https://digital-strategy.ec.europa.eu/">DG CONNECT</a>, commencera avec 140 collaborateurs et sera dirigé par <a href="https://www.euronews.com/next/2024/05/29/ai-office-set-up-announced-lucilla-sioli-to-be-in-charge">Lucilla Sioli</a>. Il sera soutenu dans son fonctionnement par le <a href="https://algorithmic-transparency.ec.europa.eu/">Centre européen pour la transparence algorithmique (ECAT)</a>, un <a href="https://digital-strategy.ec.europa.eu/en/news/commission-hosts-high-level-meeting-upcoming-eus-ai-board-drive-ai-act-implementation-forward">Comité AI</a> (article 65), un forum consultatif des parties prenantes (article 67) et un groupe scientifique d’experts indépendants (article 68).</p>



<figure class="wp-block-image size-full"><a href="/wp-content/uploads/2024/07/AI-NEW-OFFICE-organigramme-002.jpg"><img decoding="async" width="800" height="592" src="/wp-content/uploads/2024/07/AI-NEW-OFFICE-organigramme-002.jpg" alt="" class="wp-image-20902" srcset="https://www.smalsresearch.be/wp-content/uploads/2024/07/AI-NEW-OFFICE-organigramme-002.jpg 800w, https://www.smalsresearch.be/wp-content/uploads/2024/07/AI-NEW-OFFICE-organigramme-002-300x222.jpg 300w, https://www.smalsresearch.be/wp-content/uploads/2024/07/AI-NEW-OFFICE-organigramme-002-768x568.jpg 768w" sizes="(max-width: 800px) 100vw, 800px" /></a><figcaption class="wp-element-caption">Organigramme de l&#8217;AI Office de l&#8217;UE. Image (c) Union Européenne, CC-BY-4.0</figcaption></figure>



<p>Des régulateurs doivent également être désignés au niveau national (article 70). Ils devront travailler en étroite collaboration avec l&#8217;AI Office de l&#8217;UE et avec les régulateurs industriels et sectoriels existants, qui aujourd&#8217;hui sont déjà responsables du marquage CE, par exemple. <a href="https://www.autoriteitpersoonsgegevens.nl/actueel/ap-en-rdi-toezicht-op-ai-systemen-vraagt-samenwerking-en-moet-snel-geregeld-worden">Aux Pays-Bas, l&#8217;Autoriteit Persoonsgegevens joue clairement un rôle de pionnier </a>dans la mise sur pied d&#8217;une autorité néerlandaise de l&#8217;IA, qui sera probablement établie dans le giron de l&#8217;Autoriteit Persoonsgegevens. En Belgique, la situation reste <a href="https://data-en-maatschappij.ai/nieuws/gastblog-waar-blijft-de-belgische-toezichthouder-voor-algoritmes">calme</a>, même si le temps presse. En effet, on ne peut pas non plus engager n&#8217;importe qui pour occuper ces fonctions assez spécialisées.</p>



<h2 class="wp-block-heading">Conclusion</h2>



<p>Il est important de retenir que l&#8217;AI Act n&#8217;impose aucune restriction aux systèmes d&#8217;IA à faible risque, à l&#8217;exception de l&#8217;IA à usage général qui requiert la transparence nécessaire. Ce n&#8217;est que pour les systèmes à risques élevés ou systémiques et mis en production qu&#8217;interviennent des exigences strictes et la nécessité de se conformer aux réglementations pertinentes. Même dans ce cas, de nombreuses mesures d&#8217;atténuation offrent une marge de manœuvre supplémentaire au développement interne, aux initiatives open source, à la science, à la défense, etc.</p>



<p>Dans une certaine mesure, l&#8217;AI Act se veut concret, par une énumération détaillée des attentes et la mention de diverses précisions dans les considérants et les annexes. Il y parvient en partie et devient ainsi assez technique, de sorte qu&#8217;un juge concerné devra apprendre ce que sont les FLOPS. Parallèlement, il subsiste de nombreuses lacunes à combler et il reste à voir où le nouvel AI Office placera la barre dans les futures Commissions. La possibilité de modifier ultérieurement l&#8217;IA Act a été envisagée ici et là. La version actuelle de l&#8217;IA Act ne sera donc certainement pas la dernière.</p>



<p>Enfin, en Belgique, il ne s&#8217;agit pas d&#8217;attendre trop longtemps pour désigner et organiser le(s) régulateur(s) national(aux) pour l&#8217;AI Act si l&#8217;on veut être un tant soit peu en phase avec le reste de l&#8217;Europe. Pour obtenir des outils pratiques qui peuvent, entre autres, vous aider à vous mettre en conformité, vous pouvez d&#8217;ores et déjà consulter la base de données du <a href="https://data-en-maatschappij.ai/tags/ai-act">Kenniscentrum Data &amp; Maatschappij</a>. De nombreux autres documents y seront certainement publiés lorsque l&#8217;AI Act entrera effectivement en vigueur.</p>



<p>______________________</p>



<p><em><em>Cette contribution a été soumise par Joachim Ganseman, consultant IT chez Smals Research. Elle a été rédigée en son nom propre et ne prend pas position au nom de Smals.</em></em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Een eerste kennismaking met de AI Act</title>
		<link>https://www.smalsresearch.be/een-eerste-kennismaking-met-de-ai-act/</link>
		
		<dc:creator><![CDATA[Joachim Ganseman]]></dc:creator>
		<pubDate>Mon, 15 Jul 2024 02:00:00 +0000</pubDate>
				<category><![CDATA[[NL]]]></category>
		<category><![CDATA[Blog post]]></category>
		<category><![CDATA[Artificial intelligence]]></category>
		<category><![CDATA[audit]]></category>
		<category><![CDATA[chatbot]]></category>
		<category><![CDATA[egov]]></category>
		<category><![CDATA[Security]]></category>
		<category><![CDATA[standards]]></category>
		<category><![CDATA[sustainability]]></category>
		<guid isPermaLink="false">/?p=20654</guid>

					<description><![CDATA[Meer over de Europese AI Act, de laatste hoeksteen van een reeks grootschalige wetgevende initiatieven die de digitale economie in Europa in een gereguleerd framework moeten gieten.]]></description>
										<content:encoded><![CDATA[
<p><em>Cet article est aussi disponible <a href="/premier-tour-dhorizon-de-lai-act/">en français</a>.</em></p>



<p><em>Noot: dit is een populariserend artikel over toekomstige regelgeving, gebaseerd op de <a href="https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=OJ:L_202401689">officiële publicatie dd. 12/07/2024</a>. Wend u steeds tot een jurist voor professioneel juridisch advies. </em></p>



<p>De <a href="https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai">Europese AI Act</a> (in het Nederlands de <em>verordening artificiële intelligentie</em>) is een hoeksteen van een reeks grootschalige wetgevende initiatieven die de digitale economie in Europa in een gereguleerd framework moeten gieten. Ze is daarmee complementair met eerdere wetgeving die bepaalde aspecten van het AI-gebeuren beïnvloedt, zoals de <a href="https://eur-lex.europa.eu/eli/reg/2016/679/oj">GDPR (AVG)</a>, de <a href="https://digital-strategy.ec.europa.eu/en/policies/digital-services-act-package">Digital Services Act (DSA) en Digital Markets Act (DMA)</a>, de <a href="https://digital-strategy.ec.europa.eu/en/policies/data-act">Data Act</a>, de <a href="https://digital-strategy.ec.europa.eu/en/policies/data-governance-act">Data Governance Act</a>, de <a href="https://digital-strategy.ec.europa.eu/en/policies/european-chips-act">CHIPS Act</a> en de voorgestelde <a href="https://digital-strategy.ec.europa.eu/en/policies/cyber-resilience-act">Cyber Resilience Act</a> . Na lang onderhandelen werd de AI Act in maart 2024 goedgekeurd door het Europees parlement en in mei door de Europese raad. De publicatie in het Official Journal of the European Union, zeg maar het Europese Staatsblad, vond plaats op <a href="https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=OJ:L_202401689">12 juli 2024</a>, waarna de eerste regels begin 2025 van kracht worden &#8211; zie ook <a href="https://artificialintelligenceact.eu/developments/">deze tijdslijn</a>.</p>



<h2 class="wp-block-heading">GDPR bis?</h2>



<p>De volledige (Engelstalige) tekst van de AI Act, inclusief alle voorbeschouwingen en bijlagen, is een fenomenale <a href="https://eur-lex.europa.eu/legal-content/EN/TXT/PDF/?uri=OJ:L_202401689">144 bladzijden lang</a> &#8211; gelukkig zijn er <a href="https://www.stibbe.com/publications-and-insights/the-eu-artificial-intelligence-act-our-16-key-takeaways">her en der</a> al <a href="https://artificialintelligenceact.eu/high-level-summary/">goede samenvattingen</a> te vinden. Daarmee is ze bijna 2 keer langer dan de &#8220;slechts&#8221; <a href="https://eur-lex.europa.eu/legal-content/EN/TXT/PDF/?uri=CELEX:32016R0679">88 pagina&#8217;s tellende GDPR</a>. Van die laatste is de impact enorm: elke organisatie die persoonsgegevens verwerkt &#8211; een personeelsadministratie of klantenbestand hebben is voldoende &#8211; kreeg te maken met DPO&#8217;s, verwerkingsregisters, en rechtsgronden voor gegevensverwerking. Elk land moest ook een <a href="https://www.gegevensbeschermingsautoriteit.be/">Gegevensbeschermingsautoriteit</a> opzetten met de bevoegdheid om <a href="https://www.dailybits.be/item/overzicht-gdpr-boetes-rechtszaken/#BE">inbreuken te beboeten</a>.</p>



<p>De GDPR bracht ook heel wat onzekerheid met zich mee, met name door haar veelvuldig gebruik van termen die voor interpretatie vatbaar zijn (&#8220;appropriate&#8221;, &#8220;adequate&#8221;, &#8220;suitable&#8221;, &#8220;sufficient&#8221;, &#8230;). De nood om die opnieuw te concretiseren voor elke voorliggende zaak, is de voedingsbodem voor wat ondertussen een kleine juridische industrie kan genoemd worden. De AI Act poogt om iets meer houvast te geven, door een meer technische toer op te gaan. Zo bevat ze een lijst Annexen met praktische opsommingen over wat verwacht wordt als gevraagd wordt naar documentatie, conformiteit, transparantie e.d.</p>



<p>De AI Act begon met een compacter voorstel van <a href="https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:52021PC0206">125 bladzijden (inclusief bijlagen)</a>. Tijdens de onderhandelingen zagen we echter de razendsnelle opkomst van generatieve AI en de Large Language Models. Dat noodzaakte om een en ander te herzien en toe te voegen, zoals een nieuw hoofdstuk (5) over <em>General Purpose AI</em>, waartoe LLMs gerekend kunnen worden. Van andere onderdelen kan men zich dan weer afvragen wat ze in de AI Act komen doen, zoals een systeem van &#8220;Regulatory Sandboxes&#8221; (Art.57) dat regulatoren moet toelaten om innovatie te faciliteren. Sommige artikels zijn wel erg cryptisch verwoord, zoals de sectie over &#8220;Notified Conformity Assessment Bodies&#8221; (Art.29), waarmee men eigenlijk <a href="https://www.hiig.de/en/eu-ai-act/">gewoon auditors bedoelt</a>. Er zijn dan ook <a href="https://www.euractiv.com/section/digital/news/the-long-and-winding-road-to-implement-the-ai-act/">kritische stemmen</a> te horen, die vrezen dat de resulterende optelsom aan maatregelen vooral een ingewikkeld kluwen is geworden.</p>



<h2 class="wp-block-heading">De AI Act &#8211; basics</h2>



<p>De AI Act is gericht op AI-ontwikkelaars en -aanbieders, en dat eigenlijk pas zodra ze AI-systemen publiceren en ter beschikking stellen van derden. Alle in-house ontwikkeling en testing die daaraan vooraf gaat, is expliciet uitgezonderd (Art.2§8). De AI Act grijpt ook niet in op wat je persoonlijk in niet-professionele context doet (Art.2§10). Wetenschappelijk onderzoek (Art.2§6) en militaire toepassingen (Art.2§3) tellen ook niet mee. Dat betekent natuurlijk niet dat in al die gevallen alles mag: uiteraard blijft andere bestaande wetgeving gewoon van kracht. De rechten van burgers werden al beschermd door de <a href="https://gdpr-info.eu/art-22-gdpr/">GDPR met o.a. haar Art.22</a>, en de auteursrechtenwetgeving blijft auteurs beschermen.</p>



<p>De gehanteerde definitie van AI is dan weer opvallend breed, en is geleend van de <a href="https://oecd.ai/en/wonk/ai-system-definition-update">OESO</a>: samengevat, &#8220;AI systems infer, from their input, how to generate outputs&#8221; (Art.3 + Overweging 12). Zowat alle machine learning valt daaronder. In andere definities leest men al eens dat er een cognitief aspect aan AI verbonden is (er moet iets &#8220;herkend&#8221; worden), maar daar is hier geen sprake van. Ook over specifieke technieken wordt met geen woord gerept: al wat adaptief leert of enigszins autonoom kan reageren op de omgeving, valt er haast altijd onder. Dit gaat dus ook over systemen die je al jarenlang kent, zonder er bij stil te staan dat er AI achter zit: spamfilters, aanbevelingen op websites, zelfs weersvoorspellingen.</p>



<p>De AI Act definieert eerst en vooral een lijst met verboden toepassingen (Art.5), die begin 2025 al van kracht zal worden. Deze lijst is een limitatieve opsomming, wat in principe ook betekent dat wat niet expliciet verboden is, toegelaten is (tenzij verhinderd door andere wetten). Het is daarom interessant om in detail te kijken wat wel en niet in die lijst staat, en met welke bijkomende bepalingen. Zo lezen we:</p>



<ul class="wp-block-list">
<li>§1(f): Het verbod op emotieherkenning vermeldt enkel de werkvloer en het onderwijs,</li>



<li>§1(g): Het verbod op biometrische AI-systemen vermeldt enkel de automatische afleiding van ras, seksualiteit, vakbondslidmaatschap, religie, politieke en filosofische overtuiging, </li>



<li>§1(e): Het verbod op gezichtsherkenning heeft het enkel over systemen op basis van &#8220;untargeted scraping&#8221;, </li>
</ul>



<p>Het is genuanceerder dan een lijstje algemene verbodsbepalingen, want ook context en doel spelen een rol. Emotieherkenning in bijvoorbeeld computergames blijft op die manier dus toegelaten. Overwegingen 15-17 preciseren dat biometrische AI toegelaten blijft voor identiteitsverificatie en authenticatie. Daarnaast zijn er ook enkele uitzonderingen ingebouwd voor o.a. de medische hulpverlening en de criminaliteitsbestrijding &#8211; al worden die uitzonderingen wel onder een streng toezicht geplaatst (Art.5§2-§7), inclusief een lijst van criminaliteit die ervoor in aanmerking komt (Annex 2).</p>



<p>Systemen die instaan voor de veiligheid van gebruikers, of die opgesomd zijn in Annex 3, zijn hoogrisico-systemen (Art.6). Het gaat hierbij vooral om systemen die een grote impact kunnen hebben op iemands vrijheden, levensloop, carrière of gezondheid. Hoewel dit onderdeel van de AI Act pas in voege zal treden in de zomer van 2026, valt het op dat er nog verschillende gaten in te vullen zijn. Zo moet de Commissie nog met een reeks verduidelijkende richtlijnen komen voor de interpretatie van dit artikel (Art.6§5), en behoudt ze zich het recht voor om ook achteraf nog wijzigingen aan te brengen (Art.6§6-§8, Art.7).</p>



<h2 class="wp-block-heading">AI Act &#8211; verplichtingen </h2>



<p>Wie een hoogrisicosysteem wil bouwen of gebouwd heeft, zal aan een reeks verplichtingen moeten voldoen, die o.a. moeten toelaten dat de bevoegde autoriteiten kunnen ingrijpen als het ontspoort. Ontwikkelaars van hoogrisicosystemen zullen bepaalde praktijken moeten adopteren, waaronder:</p>



<ul class="wp-block-list">
<li>Een iteratief risicobeheerssysteem (Art.9), dat moet toelaten de risico&#8217;s te inventariseren, in te schatten, en potentieel misbruik op voorhand te mitigeren. Concreter dan dat wordt het niet gemaakt: de tekst spreekt van &#8220;reasonably foreseeable risks&#8221; en &#8220;appropriate measures&#8221; zonder verdere specificatie. Dit zal dus nog voor wat discussie zorgen, maar in de praktijk kan men zich vandaag al deels behelpen met standaarden die recent voor dit doel ontwikkeld zijn, zoals <a href="https://www.iso.org/standard/81230.html">ISO/IEC 42001</a> &#8211; met dien verstande dat die niet expliciet voor de AI Act is gemaakt en bijkomende maatregelen nodig kunnen zijn.</li>



<li>Kwalitatief databeheer (Art.10), wat er grotendeels op neerkomt dat er transparantie moet zijn over de oorsprong, beperkingen, foutenmarges en representativiteit. Het gebruik van &#8220;<a href="https://arxiv.org/abs/1803.09010">Data Sheets</a>&#8220;, die dit beogen, was de laatste jaren in de sector sowieso al populair geworden.</li>



<li>Het voorzien van technische documentatie volgens de vereisten in Annex 4 (Annex 11 voor General Purpose AI). Dit is enigszins analoog met de <a href="https://huggingface.co/docs/hub/model-cards">Model Cards</a> zoals men die kan vinden op de HuggingFace Hub, al neemt de Europese Commissie geen genoegen met afgevinkte lijstjes en vraagt ze meer detail, onder andere over monitoring en controle tijdens de levensduur van het systeem.</li>



<li>Het voorzien van logging (Art.12) en transparante informatievoorziening naar de gebruikers toe (Art.13)</li>



<li>Menselijk overzicht tijdens de levensduur van het systeem (Art.14). Waar GDPR art.22 daar al een burgerrecht van maakte, verplicht de AI Act aan de ontwikkelaars om de nodige maatregelen daartoe te nemen. Er zal bijvoorbeeld altijd de mogelijkheid moeten zijn om het AI-systeem te negeren, te overrulen, of te stoppen (Art.14§4(d-e)).</li>



<li>Het nemen van &#8220;appropriate&#8221; maatregelen inzake cybersecurity, robuustheid en accuraatheid (Art.15). Ook dit artikel blijft momenteel nog relatief vaag en verwijst naar de intentie van de Commissie om de ontwikkeling van de nodige benchmarks te ondersteunen. </li>
</ul>



<p>Wie een hoogrisicosysteem publiceert, ter beschikking stelt, verwerkt in een eigen product, importeert of distribueert, zal gelijkaardige maatregelen moeten nemen, waaronder: </p>



<ul class="wp-block-list">
<li>De conformiteit van het systeem controleren en bewijzen (Art.16§e-l, Art. 40-47), een conformiteitsverklaring opstellen (Annex 5), en CE markering bekomen (Art.48)</li>



<li>Een kwaliteitsmanagementsysteem benutten (Art.17)</li>



<li>De nodige documentatie tot 10 jaar na ingebruikname bijhouden (Art.18)</li>



<li>Samenwerken met de bevoegde autoriteiten (Art.21) </li>



<li>Het systeem registreren (Art.49) in een speciaal daartoe opgezette EU database (Art.71)</li>



<li>Voor al het bovenstaande een contactpersoon of vertegenwoordiger aanduiden (Art.22)</li>



<li>De nodige monitoring opzetten en actie ondernemen wanneer het misloopt (Art.26§5, Art.72-73), waaronder het inlichten van de bevoegde autoriteit.</li>
</ul>



<figure class="wp-block-image size-full"><a href="/wp-content/uploads/2024/07/ai_lifecycle_visual_7FC0D14E-A775-A92E-DE5A38FDB7C238EB_75759.jpg"><img decoding="async" width="606" height="335" src="/wp-content/uploads/2024/07/ai_lifecycle_visual_7FC0D14E-A775-A92E-DE5A38FDB7C238EB_75759.jpg" alt="" class="wp-image-20899" srcset="https://www.smalsresearch.be/wp-content/uploads/2024/07/ai_lifecycle_visual_7FC0D14E-A775-A92E-DE5A38FDB7C238EB_75759.jpg 606w, https://www.smalsresearch.be/wp-content/uploads/2024/07/ai_lifecycle_visual_7FC0D14E-A775-A92E-DE5A38FDB7C238EB_75759-300x166.jpg 300w" sizes="(max-width: 606px) 100vw, 606px" /></a><figcaption class="wp-element-caption">Lifecycle voor hoog-risico AI systemen onder de AI Act. Image (c) European Union, CC-BY-4.0</figcaption></figure>



<p>Naar analogie met Gegevensbeschermingseffectbeoordeling (Data Protection Impact Assessment &#8211; DPIA) uit de GDPR, zullen sommige organisaties, waaronder alle overheidsinstanties en organisaties van publieke dienstverlening, een <a href="https://www.technologyslegaledge.com/2024/03/fundamental-rights-impact-assessments-under-the-eu-ai-act-who-what-and-how/">Fundamental Rights Impact Assessment of FRIA</a> moeten uitvoeren, waarvan de resultaten aan de <a href="https://single-market-economy.ec.europa.eu/single-market/goods/building-blocks/market-surveillance/organisation_en">bevoegde marktregulatoren</a> meegedeeld moeten worden (Art. 27). Het Europese AI Office krijgt alvast de taak om voor deze verplichting de nodige geautomatiseerde vragenlijsten te ontwikkelen (Art. 27§5).</p>



<p>Men zou bijna vergeten dat verreweg de meeste AI-systemen gewoon laag-risico systemen zijn. Daarover is de AI Act vrij kort: die moet enkel voor specifieke toepassingen voldoen aan minimale transparantievereisten (Art.50). Zo moet de eindgebruiker altijd weten wanneer die met een AI-systeem interageert, en moet artificieel gegenereerde output duidelijk als dusdanig gemarkeerd worden. Met die gevreesde wurggreep rond de gehele AI-industrie valt het dus eigenlijk best wel mee.</p>



<h2 class="wp-block-heading">General purpose AI</h2>



<p>De recente ontwikkeling van algemeen inzetbare generatieve AI voor tekst en afbeeldingen noopte tot de toevoeging van een aparte categorie aan systemen: General Purpose AI (GPAI). De Europese Commissie is van mening dat dit soort AI, onafhankelijk van een eventueel hoog risico inzake burgerrechten, ook een systemisch risico met zich mee kan brengen (Art.51). Of dat gegrond is of niet, is in zowel technische als filosofische kringen onderwerp van <a href="https://quillette.com/2024/07/02/superintelligence-10-years-on-nick-bostrom-ai-safety-agi/">fel debat</a>, maar de EU neemt het zekere voor het onzekere en voorziet een juridische stok achter de deur.</p>



<p>De Commissie geeft zichzelf de vrijheid om te beslissen welke systemen zo&#8217;n risico manifesteren (Art.51§1). Hoewel ze zich voorneemt daarvoor objectieve criteria te benutten (Annex 13), is er geen vaste formule. Of toch: er is verrassend genoeg 1 opvallend concrete grenswaarde vastgelegd in Art.51§2: vanaf dat de training 10<sup>25</sup> FLOPs aan rekenkracht vergt, wordt een GPAI per definitie aanzien als systemisch risicovol. Dit komt ongeveer overeen met een trainingstijd van 1 jaar op een cluster van 4000 GPUs van het type Nvidia RTX4090 (met 82*10<sup>12</sup> FLOPs aan rekenkracht). Om te vermijden dat dit alles morgen al achterhaald is, behoudt de Commissie zich het recht voor om deze waarden in de toekomst aan te passen aan de evoluties in het domein (Art.51§3).</p>



<p>General Purpose AI wordt, naast de minimale vereisten van Art.50, en ongeacht de risicoclassificatie, onderworpen aan een eigen reeks technische documentatieverplichtingen (Art. 53, Annex 11), die nog wat uitgebreid worden wanneer een systemisch risico aanwezig is (Art. 55). Bouwers van GPAI modellen zonder systemisch risico die onder vrije (<sup data-fn="f4906311-978e-4fea-876e-d0742b6b3186" class="fn"><a href="#f4906311-978e-4fea-876e-d0742b6b3186" id="f4906311-978e-4fea-876e-d0742b6b3186-link">1</a></sup>) open-source licenties worden vrijgegeven, zijn van sommige verplichtingen uitgezonderd (Art.53§2, zie ook Overwegingen 102-104), en hoeven ook geen contactpersoon of vertegenwoordiger aan te duiden (Art.54§6).  </p>



<h2 class="wp-block-heading">Het AI Office</h2>



<p>De AI Act zal ook afgedwongen moeten worden. Een grote rol daarbij is weggelegd voor het <a href="https://digital-strategy.ec.europa.eu/en/policies/ai-office">Europese AI Office</a> (NL: <em>AI-bureau</em>, Art.64), dat voor de AI Act moet zijn wat de <a href="https://www.edps.europa.eu/">European Data Protection Supervisor</a> is voor de GDPR. Het AI Office wordt momenteel aan sneltempo in de steigers gezet, want begin 2025 treden de eerste bepalingen in voege. Naast de verantwoordelijkheid om nog een reeks openstaande onderdelen van de AI Act in te vullen, zal ze ook exclusief bevoegd worden voor het toezicht op General Purpose AI (Art.75).</p>



<p>Het AI Office wordt in de praktijk onderdeel van <a href="https://digital-strategy.ec.europa.eu/">DG CONNECT</a>, zal van start gaan met 140 medewerkers en geleid worden door <a href="https://www.euronews.com/next/2024/05/29/ai-office-set-up-announced-lucilla-sioli-to-be-in-charge">Lucilla Sioli</a>. Het zal voor haar werking ondersteund worden door het <a href="https://algorithmic-transparency.ec.europa.eu/">Centrum voor Algoritmische Transparantie (ECAT)</a>, een <a href="https://digital-strategy.ec.europa.eu/en/news/commission-hosts-high-level-meeting-upcoming-eus-ai-board-drive-ai-act-implementation-forward">AI Board</a> (Art.65), een adviserend forum van belanghebbenden (Art.67), en een panel van onafhankelijke wetenschappers (Art.68).</p>



<figure class="wp-block-image size-full"><a href="/wp-content/uploads/2024/07/AI-NEW-OFFICE-organigramme-002.jpg"><img loading="lazy" decoding="async" width="800" height="592" src="/wp-content/uploads/2024/07/AI-NEW-OFFICE-organigramme-002.jpg" alt="" class="wp-image-20902" srcset="https://www.smalsresearch.be/wp-content/uploads/2024/07/AI-NEW-OFFICE-organigramme-002.jpg 800w, https://www.smalsresearch.be/wp-content/uploads/2024/07/AI-NEW-OFFICE-organigramme-002-300x222.jpg 300w, https://www.smalsresearch.be/wp-content/uploads/2024/07/AI-NEW-OFFICE-organigramme-002-768x568.jpg 768w" sizes="auto, (max-width: 800px) 100vw, 800px" /></a><figcaption class="wp-element-caption">Organigram van het EU AI Office. Image (c) European Union, CC-BY-4.0</figcaption></figure>



<p>Ook nationaal moeten er regulatoren worden aangeduid (Art.70). Deze zullen nauw moeten samenwerken met het EU AI Office en met de reeds bestaande industriële en sectorale regulatoren, die bijvoorbeeld vandaag al voor CE-markeringen bevoegd zijn. <a href="https://www.autoriteitpersoonsgegevens.nl/actueel/ap-en-rdi-toezicht-op-ai-systemen-vraagt-samenwerking-en-moet-snel-geregeld-worden">In Nederland speelt de Autoriteit Persoonsgegevens een duidelijke voortrekkersrol</a> in de uitwerking van een Nederlandse AI-autoriteit, die daar waarschijnlijk in de schoot van de Autoriteit Persoonsgegevens zal worden opgericht. In België blijft het ondertussen <a href="https://data-en-maatschappij.ai/nieuws/gastblog-waar-blijft-de-belgische-toezichthouder-voor-algoritmes">stil</a>, hoewel de tijd dringt &#8211; je kan immers ook niet eender wie aanwerven om die vrij gespecialiseerde rollen in te vullen.</p>



<h2 class="wp-block-heading">Conclusie</h2>



<p>Het is belangrijk om te onthouden dat de AI Act geen beperkingen oplegt aan AI-systemen die weinig risico inhouden &#8211; met uitzondering van General Purpose AI waarvan de nodige transparantie wordt gevraagd. Alleen voor systemen die hoge of systemische risico&#8217;s met zich meebrengen en in productie worden gezet, komen er strikte vereisten en de noodzaak tot conformiteit met relevante reguleringen. Ook dan zijn er heel wat verzachtende maatregelen die de interne ontwikkeling, open source initiatieven, wetenschap, defensie enz. extra ademruimte geven.</p>



<p>Tot op zekere hoogte probeert de AI Act concreet te zijn, door in detail op te sommen wat er verwacht wordt en een resem verduidelijkingen in de Overwegingen en Annexen op te nemen. Ze slaagt daar deels in en wordt zo nogal technisch &#8211; een betrokken rechter zal moeten leren wat FLOPs zijn. Tegelijk zijn er nog heel wat gaten in te vullen, waarbij het afwachten wordt waar het nieuwe AI Office onder toekomstige Commissies de lat zal leggen. Op verschillende plekken werd de mogelijkheid voorzien om de AI Act later te amenderen. De huidige versie van de AI Act zal dus zeker niet de laatste zijn.</p>



<p>Tenslotte mogen we in België zeker niet te lang meer wachten met het aanduiden en organiseren van de nationale toezichthouder(s) voor de AI Act, als we enigszins mee willen zijn met de rest van Europa. Voor praktische tools die o.a. kunnen helpen om conform te zijn, kan je vandaag al zoeken in de database van het <a href="https://data-en-maatschappij.ai/tags/ai-act">Kenniscentrum Data &amp; Maatschappij</a>. Daar zal zeker nog veel meer materiaal verschijnen eens de AI Act effectief in werking treedt.</p>



<p>______________________</p>



<p><em>Dit is een ingezonden bijdrage van Joachim Ganseman, IT consultant bij Smals Research. &nbsp;Dit artikel werd geschreven in eigen naam en neemt geen standpunt in namens Smals.</em></p>


<ol class="wp-block-footnotes"><li id="f4906311-978e-4fea-876e-d0742b6b3186"> In de ontwerptekst was het Engelse &#8220;free&#8221; <a href="https://tweakers.net/reviews/12020/hoe-de-eu-ai-hoopt-te-reguleren-ict-jurist-engelfriet-over-de-ai-act.html">oorspronkelijk foutief vertaald als &#8220;gratis&#8221;</a>. In de publicatie in het Official Journal is deze vertaalfout alsnog gecorrigeerd en staat er &#8220;vrij&#8221;. <a href="#f4906311-978e-4fea-876e-d0742b6b3186-link" aria-label="Jump to footnote reference 1"><img src="https://s.w.org/images/core/emoji/17.0.2/72x72/21a9.png" alt="↩" class="wp-smiley" style="height: 1em; max-height: 1em;" />︎</a></li></ol>]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Bitcoin – Van Experiment tot Ecologische Ramp</title>
		<link>https://www.smalsresearch.be/bitcoin-van-experiment-tot-ecologische-ramp/</link>
		
		<dc:creator><![CDATA[Kristof Verslype]]></dc:creator>
		<pubDate>Tue, 17 Oct 2017 05:30:49 +0000</pubDate>
				<category><![CDATA[[NL]]]></category>
		<category><![CDATA[Blog post]]></category>
		<category><![CDATA[bitcoin]]></category>
		<category><![CDATA[blockchain]]></category>
		<category><![CDATA[China]]></category>
		<category><![CDATA[data center]]></category>
		<category><![CDATA[ecology]]></category>
		<category><![CDATA[environment]]></category>
		<category><![CDATA[Security]]></category>
		<category><![CDATA[sustainability]]></category>
		<guid isPermaLink="false">/?p=11087</guid>

					<description><![CDATA[Op 22 mei 2010 kocht een software ontwikkelaar 2 pizza’s voor 10 000 bitcoins. Vandaag zijn 10 000 bitcoins ongeveer 40 miljoen dollar waard. Die astronomische stijging spreekt tot de verbeelding. Toch heeft dit succesverhaal een nauwelijks belichte keerzijde. De cryptomunt is namelijk een ecologische ramp. Elke bitcoin transactie wordt toegevoegd aan een gegevensstructuur die [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><strong>Op 22 mei 2010 kocht een software ontwikkelaar 2 pizza’s voor 10 000 bitcoins. Vandaag zijn 10 000 bitcoins ongeveer 40 miljoen dollar waard. Die astronomische stijging spreekt tot de verbeelding. Toch heeft dit succesverhaal een nauwelijks belichte keerzijde. De cryptomunt is namelijk een ecologische ramp.</strong></p>
<p><a href="/wp-content/uploads/2017/10/factory-smoke-polluting-air-in-pictures13.jpg"><img loading="lazy" decoding="async" class="alignleft size-medium wp-image-11101" src="/wp-content/uploads/2017/10/factory-smoke-polluting-air-in-pictures13-300x199.jpg" alt="" width="200" height="137" /></a>Elke bitcoin transactie wordt toegevoegd aan een gegevensstructuur die we de blockchain noemen. Zoals de naam suggereert, is dit een sequentie van blokken. Die blokken bevatten op hun beurt transacties. Ongeveer elke tien minuten wordt door het netwerk een nieuw blok met de meest recente transacties achteraan de blockchain toegevoegd.</p>
<p>De creatie van zo’n blok vereist het oplossen van een cryptografische puzzel. Verschillende partijen, de miners, gaan daarbij in competitie met elkaar. De eerste die de puzzel oplost, krijgt een beloning in de vorm van nieuw gecreëerde bitcoins, alsook vergoedingen van diegenen die transacties op het netwerk postten.</p>
<div style="width: 275px; display: block; align: right; vertical-align: top; float: right; border: 1px solid #ddd; margin: 0px 0px 5px 20px; padding: 5px; background-color: #eee;"><strong style="font-size: 1.2em;">Bitcoin Fact Check</strong></p>
<p><em>Drie vaak gehoorde beweringen over Bitcoin zijn: “het is een schaars goed”, “de transactiekosten zijn laag” en “het is veilig”. Maar klopt dit ook?</em></p>
<p><strong>Bitcoin is een schaars goed, wat het waarde geeft.</strong> De laatste bitcoin zal in 2040 gecreeëerd worden, waardoor het totale aantal bitcoins op 21 miljoen uitkomt. Dit is echter slechts een regel binnen de Bitcoin community. Hoewel het nu misschien onwaarschijnlijk lijkt, kunnen we niet uitsluiten dat die regel ooit verandert. Bovendien wordt er nu en dan succesvol een nieuwe cryptomunt gelanceerd, vaak met betere eigenschappen dan Bitcoin. Het aanbod van – allen zeldzame – cryptomunten is in theorie onbeperkt en er is geen enkele reden om aan te nemen dat er een Bitcoin monopolie zal ontstaan.</p>
<p><strong>Bitcoin transactiekosten zijn laag.</strong> De transactiekosten hangen enkel af van de grootte van de transactie, uitgedrukt in bytes. Dit maakt het sowieso al relatief duurder om lokaal kleine bedragen uit te geven in vergelijking met grote, internationale transacties. Die <a href="https://bitinfocharts.com/comparison/bitcoin-transactionfees.html" target="_blank" rel="noopener noreferrer">transactiekosten</a>, uitgedrukt in dollar, fluctueren constant en kennen een stijgende tendens. Sinds mei dit jaar zakt die kost nog slechts sporadisch onder de 2 dollar en eind augustus zagen we een piek met een daggemiddelde van 9 dollar per transactie.</p>
<p><strong>Bitcoin is veilig (1).</strong> De claim dat Bitcoin veilig is steunt op de zware aanname dat er nooit een entiteit of samenwerkende set entiteiten in het netwerk zal zijn die over meer dan 50% van de rekenkracht beschikt. Dit zou bijvoorbeeld een miner, een vreemde mogendheid of een hackerscollectief kunnen zijn. We hebben hier geen garanties over. Ons vertrouwen in Bitcoin gaat dus best met enige reserves gepaard.</p>
<p><strong>Bitcoin is veilig (2).</strong> Het equivalent van je bankkaart in de Bitcoin wereld is je geheime digitale sleutel. Als die gestolen wordt zijn er geen maatregelen om de schade te beperken zoals een afhaallimiet, Card Stop en eventueel een vergoeding door de bank. En als je je sleutel verliest, verlies je onherroepelijk je bitcoins. Er ligt dus een veel groter risico – en dus een grotere verantwoordelijkheid – bij de gebruiker van het Bitcoin netwerk.</p>
</div>
<p>Het oplossen van zo’n puzzel vereist tegenwoordig enorm veel rekenkracht, en dus elektriciteit. Door het gedistribueerde karakter van het blockchain netwerk is het onmogelijk om het exacte elektriciteitsverbruik te kennen, maar volgens <a href="https://digiconomist.net/bitcoin-energy-consumption" target="_blank" rel="noopener noreferrer">schattingen</a> van Digiconomist is dit momenteel quasi evenveel als dat van heel Syrië, dat met haar 17 miljoen inwoners positie 71 bekleedt van 195 landen wat betreft elektriciteitsverbruik.</p>
<p>En wat krijgen we daarvoor in de plaats? Een systeem dat ons toelaat om momenteel slechts drie transacties per seconde te verwerken<sup><a href="#footnote_1" name="fb_1">1</a></sup>. VISA <a href="https://s1.q4cdn.com/050606653/files/doc_financials/annual/Visa-2016-Annual-Report.pdf" target="_blank" rel="noopener noreferrer">verwerkt</a> gemiddeld meer dan zo’n 2600 transacties per seconde met een maximum capaciteit van ruim 65 000. Toch is het elektriciteitsverbruik van VISA <a href="https://digiconomist.net/bitcoin-energy-consumption" target="_blank" rel="noopener noreferrer">naar schatting</a> slechts ongeveer 3% van dan dat van Bitcoin<sup><a href="#footnote_2" name="fb_2">2</a></sup>.</p>
<p>Chinese bedrijven controleren bovendien <a href="https://www.buybitcoinworldwide.com/mining/china/" target="_blank" rel="noopener noreferrer">meer dan 70%</a><br />
van de mining power. De elektriciteit is er immers erg goedkoop, onder meer vanwege de zwakke milieunormen. Ongeveer 2/3 van de <a href="https://energypost.eu/chinas-renewable-energy-revolution-continues-long-march/" target="_blank" rel="noopener noreferrer">elektriciteitsproductie in het land</a> is op basis van vervuilende steenkool. Ook de tweede grootste elektriciteitsbron in China, waterkracht, is vanuit zowel ecologisch als sociaal standpunt <a href="https://www.scientificamerican.com/article/chinas-three-gorges-dam-disaster/" target="_blank" rel="noopener noreferrer">omstreden</a>.</p>
<p>Bitcoin mining is een erg competitieve business, waarbij de snel stijgende waarde van de bitcoin ertoe leidt dat hardware – die enkel en alleen ontwikkeld werd voor bitcoin mining – al na enkele maanden <a href="https://www.the-blockchain.com/docs/Princeton%20Bitcoin%20and%20Cryptocurrency%20Technologies%20Course.pdf" target="_blank" rel="noopener noreferrer">verouderd</a> is. Dat draagt bij aan de uitputting van schaarse ertsen en aan de toename van <a href="https://www.pbs.org/frontlineworld/stories/ghana804/video/video_index.html" target="_blank" rel="noopener noreferrer">e-Waste</a>. De stijgende waarde van bitcoin is daarnaast een stimulans voor miners om steeds meer rekenkracht in te zetten. Daardoor wordt de cryptografische puzzel moeilijker en consumeert het bitcoin netwerk nog meer elektriciteit.</p>
<p>Believers <a href="https://en.bitcoin.it/wiki/Myths#Bitcoin_mining_is_a_waste_of_energy_and_harmful_for_ecology" target="_blank" rel="noopener noreferrer">stellen</a> – zonder enige onderbouwing – dat bitcoin niet vervuilender is dan het ontginnen, het in staven en munten gieten, transporteren en opslaan van goud, en dat ook het drukken en transporteren van fysiek geld vervuilend is. Bitcoins worden dus vergeleken met fysieke gouden munten. Onze vergelijking daarnet met hedendaagse digitale transacties is intellectueel eerlijker. De believers geven met hun vergelijking trouwens reeds impliciet het vervuilende karakter toe, gezien goudontginning op industriële schaal erg <a href="https://ngm.nationalgeographic.com/2009/01/gold/larmer-text/12" target="_blank" rel="noopener noreferrer">schadelijk</a> is voor mens en natuur. De creatie van digitale euro’s of dollars daarentegen gebeurt efficiënt in de computersystemen van de centrale bank.</p>
<p>Dit alles is een zware ecologische prijs om geld te kunnen transfereren zonder financiële instellingen. In de plaats daarvan vertrouwen we in het Bitcoin netwerk – zij het in beperktere mate &#8211; een handvol Chinese bedrijven die het minen van bitcoins domineren. Bitcoin is immers slechts veilig zolang er geen enkele miner, of samenwerkende groep van miners, meer dan 50% van de rekenkracht controleert.</p>
<p>Bitcoin is een experiment dat uit zijn voegen is gebarsten. Zijn grote verdienste is het lanceren van een nieuw technologisch concept, de blockchain, waarmee het vertrouwen in autoriteiten zoals banken, notarissen en overheden gereduceerd kan worden. Dit hoeft echter niet gepaard te gaan met ecologische destructie. Belgische overheden zijn daarom volop bezig met het aftasten van het potentieel van blockchain op een ecologisch verantwoorde wijze.</p>
<p><strong>Voetnoten</strong></p>
<div style="font-size: 0.7em;"><a href="#fb_1" name="footnote_1">1.</a> Er is momenteel wel heel wat discussie en activiteit binnen de Bitcoin community om de capaciteit van het netwerk te verhogen. Denk daarbij aan een verhoging dit jaar met maximum factor drie, maar vooralsnog is de uitkomst bijzonder moeilijk te voorspellen. Dergelijke capaciteitsverhogingen komen echter steeds met een keerzijde, onder meer in de vorm van meer vereiste opslagcapaciteit.</p>
<p><a href="#fb_2" name="footnote_2">2.</a> Er is geen correlatie tussen de vereiste rekenkracht en de capaciteit (transacties per seconde) van het netwerk, maar wel tussen de vereiste rekenkracht en de marktprijs. Stel dus dat de prijs van de bitcoin ineenstort, dan zal ook de gebruikte rekenkracht in het netwerk sterk afnemen, maar de capaciteit vermindert daardoor niet. Wat wel vermindert is de veiligheid van de Bitcoin blockchain.</p>
</div>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
