<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Data Quality Tools &#8211; Smals Research</title>
	<atom:link href="https://www.smalsresearch.be/tag/data-quality-tools/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.smalsresearch.be</link>
	<description></description>
	<lastBuildDate>Thu, 09 Apr 2026 12:23:43 +0000</lastBuildDate>
	<language>en-GB</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://www.smalsresearch.be/wp-content/uploads/2026/01/cropped-cropped-Smals_Research-32x32.png</url>
	<title>Data Quality Tools &#8211; Smals Research</title>
	<link>https://www.smalsresearch.be</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>“Data Observability”, een nieuwe topic in het “Data Quality” landschap?</title>
		<link>https://www.smalsresearch.be/data-observability-een-nieuwe-topic-in-het-data-quality-landschap/</link>
		
		<dc:creator><![CDATA[Isabelle Boydens]]></dc:creator>
		<pubDate>Wed, 25 Oct 2023 08:08:50 +0000</pubDate>
				<category><![CDATA[[NL]]]></category>
		<category><![CDATA[Blog post]]></category>
		<category><![CDATA[data quality]]></category>
		<category><![CDATA[Data Quality Tools]]></category>
		<category><![CDATA[Information management]]></category>
		<guid isPermaLink="false">/?p=19348</guid>

					<description><![CDATA[In de afgelopen twee jaar zijn er steeds meer tools voor "data observability" verschenen: voegen ze waarde toe aan het landschap van gegevenskwaliteit? Wat zijn hun potentiële functies met betrekking tot preventieve en curatieve benaderingen van gegevenskwaliteit? Hoe volwassen zijn deze tools op dit moment?]]></description>
										<content:encoded><![CDATA[
<p><span style="color: #3366ff;"><a style="color: #3366ff;" href="/data-observability-un-nouveau-topic-dans-le-paysage-data-quality/" target="_blank" rel="noopener"><em>Version en français</em></a></span></p>
<p>Isabelle Boydens(*), Isabelle Corbesier(**) et Gani Hamiti(**)</p>
<p>(*) Data Quality Expert, Research Team</p>
<p>(**) Data Quality Analyst, Databases Team</p>





<p><strong><img fetchpriority="high" decoding="async" class="alignleft  wp-image-17613" src="/wp-content/uploads/2022/08/DQ_logo.png" alt="" width="263" height="274" srcset="https://www.smalsresearch.be/wp-content/uploads/2022/08/DQ_logo.png 574w, https://www.smalsresearch.be/wp-content/uploads/2022/08/DQ_logo-287x300.png 287w" sizes="(max-width: 263px) 100vw, 263px" /> De oorsprong van het concept ‘observability’</strong></p>
<p>De term <em>observability</em> in IT komt oorspronkelijk uit de software engineering.</p>
<p>Observability is een concept op hoog niveau dat betrekking heeft op het analyseren van de algemene toestand van een systeem van bijzonder heterogene en talrijke componenten, om kritisch gedrag te diagnosticeren en de oorzaken ervan te helpen identificeren (1). In de praktijk betekent dit het continu verzamelen en analyseren van basisinfrastructuurgegevens zoals processor- of opslagruimtegebruik in de loop van de tijd, evenals mogelijk complexere toepassings- of trackinglogs. Met de toename aan technologieën en componenten in moderne informatiesystemen kan genoeg observability bereiken soms veel ontwikkelingswerk vergen. Deze moeilijkheid heeft gezorgd voor een vruchtbare bodem voor de opkomst van tools voor observability, die kunnen worden gebruikt om gegevens te exploiteren die al door een systeem zijn geproduceerd, of om functionaliteiten voor gegevensproductie te enten op de componenten om het gedrag ervan beter zichtbaar te maken. (2)</p>
<p>Het soms geforceerde onderscheid tussen monitoring en <em>observability</em> kan in twijfel worden getrokken, in zoverre dat, net als observability, praktijken met het label &#8216;monitoring&#8217; nooit worden ontwikkeld als een doel op zich, maar ook de toestand van het systeem willen diagnosticeren en incidenten voorkomen of corrigeren. Sommige referenties leggen overigens een verband tussen de twee concepten, omdat <em>monitoring</em> (meestal APM of <em>Application Performance Monitoring</em> ) en observability in dezelfde definitie zijn opgenomen, die dezelfde producten dekt.  Ook al liggen de twee concepten niet op een lijn, ze zijn tenminste nauw verwant. Een goed niveau van observability vereist namelijk voldoende monitoring, goede documentatie en een grondige kennis van het systeem bij de teams die verantwoordelijk zijn voor het observeren ervan.</p>
<p><strong>Van software naar data</strong></p>
<p><img decoding="async" src="/wp-content/uploads/2023/09/2023-09-26_13h17_49.png" alt="Système d'information" /></p>
<p><em>Figuur</em> 1 &#8211; Informatiesysteem: heterogene <em>componenten</em> en feedbackloops</p>
<p>In navolging van data profiling (een kwaliteitsaudit van gegevens (3) die meestal voorafgaat aan de standaardiserings- en matchingfasen (4) in <em>data quality tools</em>) in de jaren 90, is <em>data observability</em> een recente omzetting (de term werd massaal populair rond 2022-2023) die is overgenomen door de infrastructuurwereld. Net zoals observability in deze context bestaat uit het kunnen diagnosticeren en verbeteren van de toestand van het systeem op basis van wat we ervan zien, is <em>data observability</em> het kunnen diagnosticeren van de algemene toestand van de gegevens van een systeem op basis van een gedetailleerd beeld dat is opgebouwd via de metadata. Data observability zal daarom gericht zijn op het samenbrengen van het monitoren, traceren en sorteren van gegevensgerelateerde incidenten, met als uiteindelijke doel het voorkomen of minimaliseren van de downtime die hieraan kan worden toegeschreven.</p>
<p>In een boek dat in 2022 gezamenlijk werd uitgegeven (5), identificeert Barr Moses, CEO van Monte Carlo Data, verschillende pijlers van <em>data observability</em> die al in de jaren 90 bestonden bij <em>data profiling</em> en sindsdien op grote schaal zijn hergebruikt. We onthouden de <strong>4 volgende essentiële</strong> punten:</p>
<ul>
<li>De <strong><em>freshness</em></strong>: de bevestiging dat de gegevens up-to-date zijn en op gepaste wijze vernieuwd worden.</li>
<li>De <strong><em>distribution</em></strong>: de bevestiging dat de gegevens zich in een aanvaardbaar interval bevinden, waarbij onverwachte waarden of nulwaarden vermeden worden.</li>
<li>De <strong><em>completeness</em></strong>: de controle dat een dataset volledig is (aantal <em>records</em> of kolommen) zodat mogelijke problemen geïdentificeerd kunnen worden aan de bron. Merk op dat completeness fundamenteel onmogelijk met zekerheid te meten kan zijn; dit is bijvoorbeeld het geval bij de totale populatie van mensen die aan Alzheimer lijden of kanker hebben , waarbij ze in een vroeg stadium soms niet op de hoogte zijn.</li>
<li><strong><em>Lineage</em></strong>: de documentatie en het begrip van alle datasystemen van een organisatie, met inbegrip van upstream databronnen en downstream doelsystemen. In de praktijk zien we ook feedbackloops waarbij het gebruik van downstreamgegevens (bijvoorbeeld in ‘machine learning’- of BI-projecten) leidt tot veranderingen in het upstreamsysteem (zie Figuur 1). Op deze manier overschrijdt lineage de grenzen van technische benaderingen en vereist het aanzienlijke menselijke tussenkomst en een bijbehorend budget. Andere obstakels, die hieronder worden genoemd, kunnen zich voordoen bij het aan elkaar koppelen van informatiesystemen.</li>
</ul>
<p><strong>Verschillen tussen &#8220;<em>data observability</em> tools”, &#8220;data quality tools&#8221; (curatieve aanpak) en &#8220;ATMS-backtracking&#8221; (preventieve aanpak)</strong></p>
<p>De documentatie over &#8220;<em>data observability</em>” tools verwijst naar &#8220;<em>lineage</em>&#8221; in technische zin. Dit houdt in dat je observeert hoe gegevens evolueren doorheen de verschillende componenten van een systeem; bijvoorbeeld van een front-end waar gegevens worden ingevoerd, via een REST API in back-end, een transactionele database, dan een datawarehouse, tot business intelligence of reportingsystemen. In tegenstelling tot &#8216;back tracking&#8217;, waarbij de gegevensstroom binnen het complexe informatiesysteem wordt bestudeerd, maar vooral stroomopwaarts en stroomafwaarts van het informatiesysteem (zie Figuur 2), hebben we het hier over &#8216;lineage&#8217; tussen de componenten van het informatiesysteem waartoe de beheerders van de <em>observability</em> tool volledige toegang zouden moeten hebben om de mutatie van de gegevens in realtime te volgen.</p>
<p>Een reeks relatief recente tools dragen het label ‘<em>data observability</em>’ waarbinnen monitoring van data soms samengaat met systeemmonitoring ( (<a href="https://www.bigeye.com/">Bigeye</a>, <a href="https://www.collibra.com/us/en/products/data-quality-and-observability">Collibra</a>, <a href="https://databand.ai/">Databand (IBM)</a>, <a href="https://firsteigen.com/data-observability/">DataBuck</a> (FirstEigen), <a href="https://www.kensu.io/">Kensu</a>, <a href="https://www.metaplane.dev/">Metaplane</a>, <a href="https://www.montecarlodata.com/data-observability-overview/">Monte Carlo</a>, <a href="https://www.soda.io/">Soda</a>, …). Merk op dat bepaalde leveranciers van <em>data quality tools</em> zoals <a href="https://www.informatica.com/">Informatica</a> of <a href="https://www.precisely.com/resource-center/productsheets/data-integrity-suite-data-observability">Precisely</a> naast <em>profiling</em> al ‘<em>data observability</em>’ opnemen. De term is vandaag blijkbaar erg in de mode. Het zal interessant zijn om de ontwikkeling van de tools in kwestie te volgen en, indien nodig, ze te testen.</p>
<p><em>Data quality tools</em> (4) beperken zich daarentegen niet tot het observeren van gegevens, maar zijn bedoeld om er direct op in te grijpen. Dit is het doel van standaardisatiefunctionaliteiten (inclusief adressen) in batch of realtime (bijvoorbeeld via REST API), evenals mogelijk “<em>fuzzy</em>” ”<em>data matching</em>” door gebruik te maken van algoritmische families die specifiek zijn voor de te verwerken <em>business cases</em>.</p>



<figure class="wp-block-image size-large"><a href="/wp-content/uploads/2023/06/preventive_curative.png"><img decoding="async" width="1024" height="581" src="/wp-content/uploads/2023/06/preventive_curative-1024x581.png" alt="" class="wp-image-18648" srcset="https://www.smalsresearch.be/wp-content/uploads/2023/06/preventive_curative-1024x581.png 1024w, https://www.smalsresearch.be/wp-content/uploads/2023/06/preventive_curative-300x170.png 300w, https://www.smalsresearch.be/wp-content/uploads/2023/06/preventive_curative-768x436.png 768w, https://www.smalsresearch.be/wp-content/uploads/2023/06/preventive_curative.png 1499w" sizes="(max-width: 1024px) 100vw, 1024px" /></a></figure>



<p><em>Figuur 2 &#8211; Preventieve en curatieve aanpakken</em></p>



<p>Kortom, tools voor <em>data observability</em>, die verwant zijn aan realtime <em>‘data profiling</em>’, kunnen inspanningen ondersteunen om de gegevenskwaliteit te verbeteren, in het bijzonder door managers te helpen bij het identificeren en waarschuwen voor kwaliteitsproblemen. Het is echter nog steeds noodzakelijk om:</p>



<ul class="wp-block-list">
<li>specifieke hulpmiddelen voor <em>data quality</em> (4) te gebruiken in synergie met de business om strategieën te implementeren voor het oplossen van de gedetecteerde problemen (curatieve aanpakken);</li>



<li>en/of een ATMS (6) te hebben waarmee <em>backtracking</em> kan worden uitgevoerd en problemen in een vroeg stadium kunnen worden voorkomen (preventieve aanpak).</li>
</ul>



<p><strong>Conclusie: recente op te volgen tools</strong><strong></strong></p>



<p>In het algemeen kunnen we hieruit afleiden dat, opdat de observability die deze tools bieden een meetbare positieve impact heeft in een volwaardige bedrijfscontext:</p>



<ul class="wp-block-list">
<li>De organisatie die de tool gebruikt structureel gecentraliseerde toegang moet toestaan tot gegevensbronnen van verschillende aard en mate van kritiekheid. Dit punt brengt waarschijnlijk een groot aantal technische, juridische en organisatorische uitdagingen met zich mee:<ul><li>Scheiding van omgevingen: niet alle databronnen bevinden zich altijd in productieomgevingen.</li></ul><ul><li>Netwerk- en stroomproblemen: alle benodigde componenten met elkaar laten communiceren is niet triviaal in de meeste organisaties van een bepaalde grootte en met een bepaald niveau van beveiligingseisen.</li></ul><ul><li>Hoe zit het met toegangsrechten en GDPR? Niet zozeer vanuit het oogpunt van de technische haalbaarheid van de implementatie van GDPR-vereisten, maar vooral vanuit organisatorisch oogpunt.</li></ul>
<ul class="wp-block-list">
<li>Scheiding van projecten en teams: de teams die verantwoordelijk zijn voor het toepassingsysteem vallen niet noodzakelijk onder dezelfde hiërarchie of dezelfde practices als de teams die de infrastructuur beheren of de teams die de gegevens stroomafwaarts exploiteren voor <em>datamining</em> of BI.</li>
</ul>
</li>



<li>Als het eerste punt behaald en opgelost is, moeten de systeembeheerders ook serieus samenwerken met de business over de indicatoren die gemonitord moeten worden, de kritische drempels, de waarschuwingen die geconfigureerd moeten worden en de definitie van de rollen: wie is verantwoordelijk voor welke gegevens en welke reacties worden verwacht in het geval van een probleem?</li>
</ul>



<p>We zijn dus nog ver verwijderd van de bijna magische plug-and-play die door sommige online content wordt aangeprezen. Daarbij komt nog de realiteit van het onderzoeken van niet-triviale gegevensproblemen, die vaak verder gaat dan de grenzen van een technisch informatiesysteem, hoe complex ook. Om deze redenen is data quality meer dan ooit afhankelijk van menselijke tussenkomst en interpretatie wanneer de inzet dit rechtvaardigt.</p>



<p><strong>Referenties</strong></p>



<ul class="wp-block-list">
<li><a href="https://about.gitlab.com/blog/2022/06/14/observability-vs-monitoring-in-devops/">(1) https://about.gitlab.com/blog/2022/06/14/observability-vs-monitoring-in-devops/</a></li>



<li>(2) https://www.ibm.com/topics/observability</li>



<li>(3) Olson Data Quality: The Accuracy Dimension (The Morgan Kaufmann Series in Data Management Systems), 2003.</li>



<li>(4) BOYDENS I., CORBESIER I. et HAMITI G.,&nbsp;<a href="/data-quality-tools-retours-dexperience-et-nouveautes/">Data Quality Tools&nbsp;: retours d&#8217;expérience et nouveautés</a>, 07/12/2021.</li>



<li>(5) https://www.oreilly.com/library/view/data-quality-fundamentals/9781098112035/</li>



<li>(6) BOYDENS I., HAMITI G. et VAN EECKHOUT R., Un service au cœur de la qualité des données. Présentation d’un prototype d’ATMS. In Le Courrier des statistiques, Paris, INSEE, juni 2021, nr. 6, p. 100-122.&nbsp;<a href="https://mastic.ulb.ac.be/wp-content/uploads/2021/07/0254-21_INSEE-PARIS_INTERIEUR-COURRIER-DES-STATISTIQUES_6-ARTICLE7-BAT5.pdf">PDF-bestand</a>&nbsp;/&nbsp;<a href="https://www.insee.fr/fr/information/3622502">Link naar het Blad en naar het artikel.</a></li>
</ul>



<p><em>Deze post is een gezamenlijke bijdrage van Isabelle Boydens, Data Quality Expert bij Smals Research, Isabelle Corbesier en Gani Hamiti, Data Quality Analisten bij Smals, Databases Team. Dit artikel is geschreven onder hun eigen naam en weerspiegelt op geen enkele wijze de standpunten van Smals.</em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Typologie van de anomalieën, een kader voor actie: de case van machine learning</title>
		<link>https://www.smalsresearch.be/typologie-van-de-anomalieen-een-kader-voor-actie-de-case-van-machine-learning/</link>
		
		<dc:creator><![CDATA[Isabelle Boydens]]></dc:creator>
		<pubDate>Mon, 05 Jun 2023 18:12:45 +0000</pubDate>
				<category><![CDATA[[NL]]]></category>
		<category><![CDATA[Blog post]]></category>
		<category><![CDATA[data quality]]></category>
		<category><![CDATA[Data Quality Tools]]></category>
		<category><![CDATA[Information management]]></category>
		<guid isPermaLink="false">/?p=18645</guid>

					<description><![CDATA[De kwaliteit van een gegeven is de geschiktheid ervan voor gebruik en voor de beoogde doelstellingen (‘fitness for use’) (Boydens, 1999, Boydens 2014). In dit artikel gaan we bekijken hoe een rigoureuze typologie van de anomalieën een kader biedt voor de verbetering van de kwaliteit van de gegevens, in verschillende domeinen, waaronder machine learning.]]></description>
										<content:encoded><![CDATA[


<p>Isabelle Boydens(*) en Gani Hamiti(**)</p>
<p>(*) Data Quality Expert, Research Team</p>
<p>(**) Data Quality Analyst, Databases Team</p>
<p><em><a href="/typologie-des-anomalies-un-cadre-pour-laction-le-cas-du-machine-learning/">Version en français</a></em></p>



<p><img decoding="async" class="alignleft  wp-image-17613" src="/wp-content/uploads/2022/08/DQ_logo.png" alt="" width="184" height="192" srcset="https://www.smalsresearch.be/wp-content/uploads/2022/08/DQ_logo.png 574w, https://www.smalsresearch.be/wp-content/uploads/2022/08/DQ_logo-287x300.png 287w" sizes="(max-width: 184px) 100vw, 184px" />De kwaliteit van een gegeven is de geschiktheid ervan voor gebruik en voor de beoogde doelstellingen (‘fitness for use’) (Boydens, 1999,&nbsp;<a href="/dix-bonnes-pratiques-pour-ameliorer-et-maintenir-la-qualite-des-donnees/">Boydens 2014</a>). In dit artikel gaan we bekijken hoe een rigoureuze typologie van de anomalieën een kader biedt voor de verbetering van de kwaliteit van de gegevens, in verschillende domeinen, waaronder machine learning. Over ML zullen we in een later artikel aantonen hoe deze techniek de functionaliteiten van een ‘data quality tool’ kan verbeteren, bijvoorbeeld in de matchingoperaties, <a href="/data-quality-tools-retours-dexperience-et-nouveautes/">&nbsp;zoals aangekondigd in ons artikel van december 2021</a>.</p>
<p>Een goed ontworpen operationele relationele database steunt op de ‘gesloten wereld’-hypothese: het definitiedomein specificeert de reeks waarden die zijn toegestaan binnen het databasemodel of schema (de integriteitsbeperkingen); ‘business rules’ zijn ook te vinden in de toepassingscode en dragen dus bij tot de definitie van de gegevens. In deze hypothese wordt een waarde die niet in het definitiedomein is opgenomen als foutief beschouwd en moet deze geweigerd worden uit de database.</p>
<p>Onder anomalie binnen een database verstaan we hier een formele fout (bv. een verplichte waarde die niet is vervolledigd), maar ook een veronderstelde fout die menselijke interpretatie vereist (bv. veronderstelde dubbels tussen sterk gelijkende records, opduiken van een nieuwe categorie van activiteit waarmee in de referentietabellen geen rekening is gehouden, enz.)</p>
<p>Hieraan moet worden toegevoegd dat een empirische databank in de loop der tijd evolueert met de interpretatie van de waarden die zij oplevert (Boydens, 1999, <a href="https://books.google.be/books?id=DzZk-Riel_MC&amp;pg=PA113&amp;lpg=PA113&amp;dq=Isabelle+Boydens&amp;source=bl&amp;ots=tvh3D5fX6_&amp;sig=RBEI35wYjdFzYi13LpEIQc63OGY&amp;hl=fr&amp;ei=QQP4TOiXA4uShAeUmbHnAg&amp;sa=X&amp;oi=book_result&amp;ct=result&amp;resnum=1&amp;ved=0CBYQ6AEwADgo#v=onepage&amp;q&amp;f=false">2011</a>, <a href="https://www.tandfonline.com/doi/abs/10.1080/01639374.2011.571096">Bade, 2011</a>). Bijgevolg is er nooit een één-op-één projectie tussen een database en de waarneembare werkelijkheid vertegenwoordigd. Totale kwaliteit bestaat niet. Dit maakt het des te complexer om een evaluatie- en verbeterstrategie op te zetten voor de gegevenskwaliteit, naargelang het gebruik ervan zoals machine learning (de Valeriola, 2020, 2021), op het gebied van justitie, gezichtsherkenning, ziektebehandeling of journalisme, &#8230; toegepast op zeer bijzondere doeleinden (<a href="https://mastic.ulb.ac.be/2022/02/reunion-du-groupe-de-contact-fnrs-analyse-critique-et-amelioration-de-la-qualite-de-linformation-numerique-%EF%BF%BC/">Redman, 2018</a>,&nbsp;<a href="https://mastic.ulb.ac.be/2022/02/reunion-du-groupe-de-contact-fnrs-analyse-critique-et-amelioration-de-la-qualite-de-linformation-numerique-%EF%BF%BC/">Dierickx, 2022</a>).</p>
<p><img loading="lazy" decoding="async" class="alignleft size-full wp-image-17611" src="/wp-content/uploads/2022/08/Redman.png" alt="" width="981" height="678" srcset="https://www.smalsresearch.be/wp-content/uploads/2022/08/Redman.png 981w, https://www.smalsresearch.be/wp-content/uploads/2022/08/Redman-300x207.png 300w, https://www.smalsresearch.be/wp-content/uploads/2022/08/Redman-768x531.png 768w" sizes="auto, (max-width: 981px) 100vw, 981px" /></p>
<p>Laten we Redman en zijn eloquente voorbeelden aanhalen:</p>
<p>“Yet today,&nbsp;<a href="https://hbr.org/2017/09/only-3-of-companies-data-meets-basic-quality-standards">most data fails to meet basic “data are right” standards</a>. Reasons range from data creators not understanding what is expected, to poorly calibrated measurement gear, to overly complex processes, to human error. To compensate, data scientists cleanse the data before training the predictive model. It is time-consuming, tedious work (taking&nbsp;<a href="https://hbr.org/2016/12/breaking-down-data-silos?autocomplete=true">up to 80% of data scientists’ time</a>), and it’s the&nbsp;<a href="https://www.kaggle.com/surveys/2017">problem data scientists complain about most</a>. Even with such efforts, cleaning neither detects nor corrects all the errors, and as yet, there is no way to understand the impact on the predictive model. What’s more, data does not always meet[s] “the right data” standards, as reports of&nbsp;<a href="https://www.nytimes.com/2018/02/09/technology/facial-recognition-race-artificial-intelligence.html">bias in facial recognition</a>&nbsp;and&nbsp;<a href="https://www.wired.com/2017/04/courts-using-ai-sentence-criminals-must-stop-now/">criminal justice</a>&nbsp;attest.”</p>
<p>(…)</p>
<p>“Increasingly-complex problems demand not just more data, but more diverse, comprehensive data. And with this comes more quality problems.&nbsp;<a href="https://www.statnews.com/2017/09/05/watson-ibm-cancer/">For example, handwritten notes and local acronyms have complicated IBM’s efforts to apply machine learning (e.g., Watson) to cancer treatment.</a>”</p>
<p><strong>Figuur 1. Preventieve en curatieve aanpakken</strong></p>
<p><img loading="lazy" decoding="async" class="alignleft size-full wp-image-18648" src="/wp-content/uploads/2023/06/preventive_curative.png" alt="" width="1499" height="851" srcset="https://www.smalsresearch.be/wp-content/uploads/2023/06/preventive_curative.png 1499w, https://www.smalsresearch.be/wp-content/uploads/2023/06/preventive_curative-300x170.png 300w, https://www.smalsresearch.be/wp-content/uploads/2023/06/preventive_curative-768x436.png 768w, https://www.smalsresearch.be/wp-content/uploads/2023/06/preventive_curative-1024x581.png 1024w" sizes="auto, (max-width: 1499px) 100vw, 1499px" /></p>
<p>Naast het evidente belang voor gegevenskwaliteit is de studie naar anomalieën eveneens belangrijk omwille van het hoge percentage ervan dat de informaticasystemen structureel beïnvloedt: tot 10% van het gegevensvolume (<a href="https://books.google.be/books?id=DzZk-Riel_MC&amp;pg=PA113&amp;lpg=PA113&amp;dq=Isabelle+Boydens&amp;source=bl&amp;ots=tvh3D5fX6_&amp;sig=RBEI35wYjdFzYi13LpEIQc63OGY&amp;hl=fr&amp;ei=QQP4TOiXA4uShAeUmbHnAg&amp;sa=X&amp;oi=book_result&amp;ct=result&amp;resnum=1&amp;ved=0CBYQ6AEwADgo#v=onepage&amp;q&amp;f=false">Boydens, 2011</a>,&nbsp;<a href="https://www.amazon.fr/RELAX-anglais-Eric-Van-Vlist/dp/0596004214">Van Der Vlist, 2011</a>). Wanneer de inzet (menselijk, sociaal, financieel, juridisch, wetenschappelijk, medisch, enz.) het echter vereist, moeten deze anomalieën semiautomatisch of zelfs handmatig worden onderzocht, vaak langzaam en vervelend, zonder een ad-hocprogramma met preventieve en curatieve maatregelen, <strong>Figuur 1</strong>, (Boydens, 2014).</p>
<p>De typologie die we voorstellen kan nuttig zijn in alle disciplines die een beroep doen op Data: Database Management, Master Data Management, machine learning (<a href="https://mastic.ulb.ac.be/2022/02/reunion-du-groupe-de-contact-fnrs-analyse-critique-et-amelioration-de-la-qualite-de-linformation-numerique-%EF%BF%BC/">Dierickx, 2022</a>, <a href="https://hbr.org/2018/04/if-your-data-is-bad-your-machine-learning-tools-are-useless">Redman, 2018</a>), &#8230; als een algemeen kader voor ‘Data Quality’-actie en helpt bij het identificeren van de meest geschikte verwerking.</p>
<p>Vanwaar komen de anomalieën, wat is de typologie ervan en hoe kunnen we ze van daar uit het beste beheren? Om op deze vragen te antwoorden, moeten we eerst terugkomen op het begrip ‘gegeven’ zoals we het kennen sinds 1999 en dat onlangs overgenomen werd in&nbsp;<a href="https://www.insee.fr/fr/information/3622502">2021</a>&nbsp;(Boydens I., Hamiti G. en Van Eeckhout R., 2021).</p>
<p><strong>DETERMINISTISCHE GEGEVENS VS EMPIRISCHE GEGEVENS</strong></p>
<p>In de wereld van de databases is een gegeven een triptiek (t, d, w) bestaande uit de volgende elementen:</p>
<ul>
<li>een titel (t), verwijzend naar een concept (een <em>administratieve activiteitencategorie</em>, bijvoorbeeld);</li>
<li>een definitiedomein (d), bestaande uit formele beweringen die alle waarden in de database specificeren voor dit concept (een gecontroleerde lijst met alfabetische waarden van een maximale lengte l, bijvoorbeeld), eventueel aangevuld met business rules gevonden in de toepassingscode (zie hoger, hypothese van de gesloten wereld).</li>
<li>En uiteindelijk een waarde (w) met een tijdstip t (de <em>chemiesector</em>, bijvoorbeeld).</li>
</ul>
<p>We onderscheiden dan de <em>deterministische gegevens</em> van de <em>empirische gegevens</em> (Boydens, 1999, 2011).</p>
<ul>
<li>De eerste kenmerken zich door het feit dat we op eender welk moment over een theorie beschikken waarmee bepaald kan worden of een waarde w &nbsp;al dan niet correct is. Dit is het geval met een eenvoudige algebraïsche bewerking die betrekking heeft op een object dat zelf deterministisch is, zoals de som van waarden die betrekking hebben op een gegeven numeriek veld in een database op een tijdstip t. De algebraregels evolueren niet doorheen de tijd, we kunnen dus op elk moment weten of het resultaat van een dergelijke som al dan niet correct is. We hebben immers een stabiele referentie hiervoor.</li>
</ul>
<ul>
<li>In het geval van empirische gegevens, onderworpen aan menselijke ervaring, evolueert de norm daarentegen in de tijd met de interpretatie van de waarden die erdoor kunnen worden waargenomen. Dit is bijvoorbeeld het geval op medisch gebied (waar de theorie evolueert met de waarnemingen van patiënten die aan een pathologie lijden, zoals blijkt uit het huidige onderzoek naar het coronavirus), maar ook op juridisch en administratief gebied, waar de interpretatie van juridische concepten verandert met de voortdurende evolutie van de behandelde werkelijkheid en met die van de jurisprudentie. Hoe kan de geldigheid van deze concepten worden beoordeeld bij gebrek aan een absolute referentie hiervoor?</li>
</ul>
<p><strong>TYPOLOGIE VAN DE ANOMALIEÊN EN MOGELIJKE BEHANDELINGEN</strong></p>
<p>Vervolgens ontstaat een typologie van anomalieën, afhankelijk van hun mogelijke oorzaak en de manier waarop ze worden beschouwd:</p>
<ul>
<li>zekere formele fout: bijvoorbeeld een verplicht veld dat bij handmatige gegevensinvoer door een mens niet is ingevuld;</li>
<li>veronderstelde formele fouten: bv. a) veronderstelde duplicaten als gevolg van redundante processen voor gegevensvastlegging stroomopwaarts, of b) inconsistentie met een referentietabel waarvan niet bekend is dat deze actueel is, bv. op het gebied van hernieuwbare energie (figuur 2);</li>
<li>een fout die <strong><em>a priori</em></strong> niet formeel kan worden opgespoord: bijvoorbeeld het weglaten van een bijwerking.</li>
</ul>
<p><strong>Figuur 2. Beheer van de anomalieën, ATMS, Monitoring &amp; Back tracking</strong></p>



<p><img loading="lazy" decoding="async" class="alignleft size-full wp-image-17750" src="/wp-content/uploads/2022/09/Preventif1.png" alt="" width="1544" height="866" srcset="https://www.smalsresearch.be/wp-content/uploads/2022/09/Preventif1.png 1544w, https://www.smalsresearch.be/wp-content/uploads/2022/09/Preventif1-300x168.png 300w, https://www.smalsresearch.be/wp-content/uploads/2022/09/Preventif1-768x431.png 768w, https://www.smalsresearch.be/wp-content/uploads/2022/09/Preventif1-1024x574.png 1024w, https://www.smalsresearch.be/wp-content/uploads/2022/09/Preventif1-1536x862.png 1536w" sizes="auto, (max-width: 1544px) 100vw, 1544px" /></p>



<p>De laatste twee gevallen in bovenstaande typologie kunnen wijzen op anomalieën als gevolg van de evolutie in de tijd van het vertegenwoordigde empirische domein en het ontstaan van nieuwe concepten waarmee geen rekening is gehouden (<strong>Figuur 2</strong>).<strong><em>&nbsp;</em></strong>Bijvoorbeeld: een integriteitstest voordat de gegevens in de hoofddatabase worden ingevoerd, ontdekt een formele anomalie. De behandeling van de anomalie (validatie of correctie) wordt opgeslagen in het <a href="https://mastic.ulb.ac.be/wp-content/uploads/2021/07/0254-21_INSEE-PARIS_INTERIEUR-COURRIER-DES-STATISTIQUES_6-ARTICLE7-BAT5.pdf" target="_blank" rel="noreferrer noopener">ATMS</a> (<a href="/data-quality-anomalies-transactions-management-system-atms-prototype-work-in-progress/" target="_blank" rel="noreferrer noopener">waardoor de anomalieën en de behandeling ervan in de tijd kunnen worden gevolgd, zoals verderop in dit artikel wordt aangegeven</a>) en gevoed door een dashboard dat, door de monitoring van de anomalieën en de behandelingen, zal helpen bij het besluitvormingsproces met het oog op de verbetering van de gegevenskwaliteit.</p>



<p>Afhankelijk van de behoeften van de business wordt besloten deze anomalieën te beschouwen als:</p>



<ul class="wp-block-list">
<li>blokkerend: ze worden uit de database verwijderd op grond van de bovengenoemde ‘gesloten wereld’-hypothese;</li>



<li>niet-blokkerend: de waarden worden nog steeds geïntegreerd in het informatiesysteem met de overeenkomstige record, om twee soorten redenen:<ul><li>door ze uit het systeem te weigeren zou het businessproces worden vertraagd (bv. de inning van sociale bijdragen) en ze worden niet als ‘strategisch’ beschouwd;</li></ul>
<ul class="wp-block-list">
<li>ze moeten in het informatiesysteem in aanmerking worden genomen, omdat ze als strategisch worden beschouwd en verband houden met empirische gegevens waarvan de definitie kan evolueren. Vanaf een bepaalde drempel die door de specialisten op het terrein moet worden beoordeeld, vereist hun verwerking menselijke interpretatie, aangezien zij kunnen wijzen op het ontstaan van nieuwe verschijnselen waarmee in het informatiesysteem rekening moet worden gehouden (<strong>Figuur 2</strong>), door middel van versiebeheer. Bovendien zijn ze mogelijk afkomstig uit de stromen die de database voeden, een probleem dat, eenmaal geïdentificeerd, structureel kan worden opgelost met back tracking (<a href="/data-quality-back-tracking-depuis-les-premieres-experimentations-a-la-parution-dun-arrete-royal/">Boydens, 2018</a>, <a href="https://mastic.ulb.ac.be/wp-content/uploads/2021/07/0254-21_INSEE-PARIS_INTERIEUR-COURRIER-DES-STATISTIQUES_6-ARTICLE7-BAT5.pdf">Boydens e.a., 2021</a>). &nbsp;</li>
</ul>
</li>
</ul>



<p>De beslissing om ‘niet-blokkerende’ empirische anomalieën te identificeren is gevoelig, omdat ze gebaseerd is op voorspellende kennis van de realiteit die op een bepaald moment wordt verwerkt, wat zelf een evoluerend element is dat binnen het informatiesysteem onderhevig kan zijn aan gecoördineerde aanpassing. Dit brengt ons terug bij de epistemologische kwestie van de ‘hermeneutische lus’.</p>



<p>De hermeneutische benadering bestaat erin de empirische verschijnselen te beschouwen in termen van interacties in vergelijking met een eerder algemeen conceptueel kader dat is opgebouwd om er betekenis aan te geven. Elke interpretatieve benadering roept echter een paradox op: die van de ‘hermeneutische cirkel’ (Aron, 1969). Elke observatie heeft alleen zin wanneer ze wordt geconfronteerd met een geheel, met een ‘voorbegrip’. De semantiek van het geheel is echter zelf gebaseerd op de interpretatie van de samenstellende elementen. Het constructieproces dat de hermeneutiek impliceert, is van nature altijd onvolledig. Het is echter gepast om een weloverwogen stop te maken om voorlopige resultaten te leveren (Boydens, 1999).</p>



<p>Hoe kunnen ‘niet-blokkerende anomalieën’ en de behandeling ervan in aanmerking worden genomen zonder de prestaties of de integriteit van de gegevens in productie aan te tasten? Met <a href="https://mastic.ulb.ac.be/wp-content/uploads/2021/07/0254-21_INSEE-PARIS_INTERIEUR-COURRIER-DES-STATISTIQUES_6-ARTICLE7-BAT5.pdf" target="_blank" rel="noreferrer noopener">het ATMS, ofwel Anomalies and Transactions Management System</a> (<a href="https://mastic.ulb.ac.be/wp-content/uploads/2021/07/0254-21_INSEE-PARIS_INTERIEUR-COURRIER-DES-STATISTIQUES_6-ARTICLE7-BAT5.pdf">Boydens e.a., 2021</a>) &#8211; eventueel gekoppeld aan <a href="/data-quality-tools-retours-dexperience-et-nouveautes/">Data Quality Tools</a> (Boydens e.a., 2021b) &#8211; in combinatie met Back Tracking (<a href="/data-quality-back-tracking-depuis-les-premieres-experimentations-a-la-parution-dun-arrete-royal/">Boydens, 2018</a>), gaan we van de &#8216;gesloten wereld’-hypothese naar die van een &#8216;open wereld&#8217; onder geautomatiseerde controles binnen beheerdatabases. En daarbij wordt een geconsolideerd programma gebouwd om de datakwaliteit te beoordelen en structureel te verhelpen. Dit programma is nooit een ‘one shot’ omdat het in continuïteit moet worden uitgevoerd, inclusief een onderhoudsproces.&nbsp;</p>



<p><strong>TOEPASSING OP MACHINE LEARNING: PERSPECTIEVEN</strong></p>



<p><strong><em>Voor het opzetten van de ML-cyclus</em></strong></p>



<p>In het geval van machine learning (de Valeriola, 2020, Dierickx, 2019, 2022) kan het programma (analyse en bijbehorende oplossingen) &#8211; eerder in deze blogpost geschetst &#8211; stroomopwaarts worden toegepast op de gemobiliseerde gegevens om een voorspellend model te trainen en in de tijd te onderhouden voordat de ML-cyclus wordt geïmplementeerd.</p>



<p><strong><em>De kern van de ML-cyclus (figuur 3)</em></strong></p>



<p>In de kern van het ML-systeem kan men kwaliteitsindicatoren inbouwen die passen bij de gekozen ML-algoritmen en -modellen, bijvoorbeeld:&nbsp;</p>



<ul class="wp-block-list">
<li><a href="https://arxiv.org/abs/2103.14749" target="_blank" rel="noreferrer noopener">annotaties die mogelijk via crowdsourcing zijn verkregen</a>, in het geval van <a href="https://arxiv.org/abs/2108.05935" target="_blank" rel="noreferrer noopener">gesuperviseerde modellen</a> (Northcutt e.a., 2021, Gupta e.a., 2021)</li>



<li>de vertekeningen (of foutmarges) die al dan niet worden getolereerd, afhankelijk van de toepassingen die in synergie met IT en de business (ontwerpers van gegevens, gebruikers van het voorspellende model) worden bepaald.</li>
</ul>



<p>Het in (Gupta e.a., 2021) aanbevolen systeem zou kunnen worden verrijkt door gebruik te maken van een ATMS aan de bron, zoals hierboven vermeld, en stelt ook voor in te spelen op de kwaliteit van reeds voor ML voorbewerkte gegevens.</p>



<p>Deze referentie illustreert <em>het probleem van de slechte kwaliteit van gegevens binnen het ML-model.</em>&nbsp;Zo kan een <em>verkeerde verdeling van een kenmerk een vertekening inhouden</em> die op haar beurt ethische kwesties oproept: in het geval van de risicogebaseerde beoordeling van kredietaanvragen, <a rel="noreferrer noopener" href="https://investir.lesechos.fr/placements/actualites/credit-les-derives-liees-a-l-intelligence-artificielle-dans-le-viseur-de-l-union-europeenne-2035308.php" target="_blank">die in september 2022 door de EU wordt herzien</a>:</p>



<p><br>&nbsp;&#8220;<em>&#8230; algoritmen kunnen vertekeningen bevatten</em>.<em> Zo zal een model waarschijnlijk vaak krediet weigeren aan 30-jarigen en nooit aan 57-jarigen. Waarom? Simpelweg omdat er veel dossiers van 30-jarigen waren die de machine tijdens de training bekeek, zodat de kans om fouten te vinden groot was, terwijl er slechts één of twee voorbeelden waren van 57-jarige aanvragers en zij hun krediet telkens volledig betaalden (een echter zo ruwe fout dat ze meestal wordt voorkomen, maar andere afwijkingen kunnen schadelijker zijn).</em>&#8220;</p>



<p></p>



<p><img loading="lazy" decoding="async" class="alignleft size-full wp-image-18647" src="/wp-content/uploads/2023/06/ML_data_lifecycle.png" alt="" width="1895" height="1013" srcset="https://www.smalsresearch.be/wp-content/uploads/2023/06/ML_data_lifecycle.png 1895w, https://www.smalsresearch.be/wp-content/uploads/2023/06/ML_data_lifecycle-300x160.png 300w, https://www.smalsresearch.be/wp-content/uploads/2023/06/ML_data_lifecycle-768x411.png 768w, https://www.smalsresearch.be/wp-content/uploads/2023/06/ML_data_lifecycle-1024x547.png 1024w, https://www.smalsresearch.be/wp-content/uploads/2023/06/ML_data_lifecycle-1536x821.png 1536w" sizes="auto, (max-width: 1895px) 100vw, 1895px" /></p>
<p>&nbsp;</p>





<p><strong>Figuur 3. Bron: Dierickx, 2022</strong></p>
<p><strong><em>Verklaarbaarheid van ML-voorspellingen: wetgeving, ethische en gegevenskwaliteitskwesties, nieuwe onderzoeksgebieden</em></strong></p>
<p>In andere door de EU genoemde gevallen is de <em>ondoorzichtigheid van deep learning-modellen</em> zodanig dat zelfs ingenieurs geen precieze redenen meer kunnen geven voor de voorspellingen die daaruit voortvloeien.</p>
<p>Er wordt een wet voorbereid om te proberen de gebruikte procedures te reguleren, de <a href="https://artificialintelligenceact.eu/the-act/">AI Act</a>, die de GDPR moet versterken. Met betrekking tot procedures naar analogie van kredietaanvragen menen deskundigen dat &#8220;<em>Dit niet betekent dat de gegeven verklaringen zeker en vast zullen zijn (onmogelijk bij sommige modellen), maar dat ze zeer waarschijnlijk zullen zijn &#8211; sommige ingenieurs spreken inderdaad meer van interpreteerbaarheid dan van verklaarbaarheid</em>.&#8221; </p>
<p>Het bovengenoemde programma (ATMS, data quality tools) vóór de ML-cyclus, gekoppeld aan de inrekeningname van een kwaliteitsbeoordeling in de kern van het ML-proces, wat allemaal gedocumenteerd moet worden, zou ook kunnen worden toegepast om gebruikers van voorspellende gegevens gerichter te informeren over de ‘verklaarbaarheid’ en de relatieve kwaliteit ervan, aangezien totale kwaliteit niet bestaat.</p>
<p>Er ontstaan geleidelijk nieuwe onderzoeksgebieden in deze richting:</p>
<p><a href="https://mitsloan.mit.edu/ideas-made-to-matter/why-its-time-data-centric-artificial-intelligence%20">Data Centric AI</a> of ook <a href="https://ssir.org/articles/entry/the_case_for_causal_ai">Causal AI</a>. Het probleem stelt zich dus stroomopwaarts, in de kern en stroomafwaarts van de gegevenslevenscyclus bij ML. </p>
<p>Wat ML betreft, zullen we in een later artikel laten zien hoe deze techniek de functionaliteiten van een ‘data quality tool’ kan verbeteren, bijvoorbeeld bij matchingoperaties, <a href="/data-quality-tools-retours-dexperience-et-nouveautes/">zoals aangekondigd in ons artikel van december 2021</a>.</p>
<p><strong>Referenties</strong></p>
<p>Aron, R., 1969. La philosophie critique de l’histoire. 1969. Édition Librairie philosophique J. Vrin. Collection Points – Sciences humaines. ISBN 2560848158182.</p>
<p>Bade D., It&#8217;s about Time!: Temporal Aspects of Metadata Management in the Work of Isabelle Boydens. In Cataloging &amp; Classification Quarterly (The International Observer), volume 49, n° 4, 2011, pp. 328-338. (<a href="https://catalogingandclassificationquarterly.com/ccq49nr4.html#intobs">lien vers l&#8217;article</a>).</p>
<p>Boydens I., <em>Informatique, normes et temps</em>. Bruxelles&nbsp;: Bruylant, 1999, 570 p.  (Cet ouvrage s’est vu décerner le prix de la Fondation L. Davin, conféré par l&#8217;Académie Royale des sciences, des lettres et des beaux-arts de Belgique, 1999).  (Introduction et Première partie, pp. 30-126) – bibliothèques</p>
<p>Boydens I., &#8220;Strategic Issues Relating to Data Quality for E-government: Learning from an Approach Adopted in Belgium&#8221;. In Assar S., Boughzala I. et Boydens I., éds., &#8220;Practical Studies in E-Government&nbsp;: Best Practices from Around the World&#8221;, New York, Springer, 2011, p. 113-130 (<a href="https://books.google.be/books?id=DzZk-Riel_MC&amp;pg=PA113&amp;lpg=PA113&amp;dq=Isabelle+Boydens&amp;source=bl&amp;ots=tvh3D5fX6_&amp;sig=RBEI35wYjdFzYi13LpEIQc63OGY&amp;hl=fr&amp;ei=QQP4TOiXA4uShAeUmbHnAg&amp;sa=X&amp;oi=book_result&amp;ct=result&amp;resnum=1&amp;ved=0CBYQ6AEwADgo#v=onepage&amp;q&amp;f=false">chapitre 7</a>).</p>
<p>Boydens I., <em>Dix bonnes pratiques pour améliorer et maintenir la qualité des données.</em> Bruxelles, Smals, Research Section, post de blog, 16/06/2014 (dernière mise à jour :  décembre 2021). <a href="/dix-bonnes-pratiques-pour-ameliorer-et-maintenir-la-qualite-des-donnees/">/dix-bonnes-pratiques-pour-ameliorer-et-maintenir-la-qualite-des-donnees/</a></p>
<p>Boydens I., « <em> Data Quality &amp; Back Tracking&nbsp;: depuis les premières expérimentations à la parution d&#8217;un Arrêté Royal </em> ». Bruxelles, Smals, Research Section, post de blog, 14/05/2018.<a href="/data-quality-back-tracking-depuis-les-premieres-experimentations-a-la-parution-dun-arrete-royal/">/data-quality-back-tracking-depuis-les-premieres-experimentations-a-la-parution-dun-arrete-royal/</a> </p>
<p>Boydens I., Hamiti G. et Van Eeckhout R., Data Quality&nbsp;: “<em>Anomalies &amp; Transactions Management System” (ATMS), prototype &amp; “work in progress”.</em> Bruxelles, Smals, Research Section, post de blog,  8/12/2020. </p>
<p><a href="/data-quality-anomalies-transactions-management-system-atms-prototype-work-in-progress/">/data-quality-anomalies-transactions-management-system-atms-prototype-work-in-progress/</a></p>
<p>Boydens I., Hamiti G. et Van Eeckhout R., <em>Un service au cœur de la qualité des données. Présentation d’un prototype d’ATMS. </em>In Le Courrier des statistiques, Paris, INSEE, juin-juillet 2021, n°6,  p. 100-122.</p>
<p><a href="https://www.insee.fr/fr/information/5398691?sommaire=5398695">https://www.insee.fr/fr/information/5398691?sommaire=5398695</a></p>
<p>Boydens I., Corbesier I. et Hamiti G., <em>Data Quality Tools&nbsp;: retours d&#8217;expérience et nouveautés</em>. Bruxelles, Smals, Research Section, post de blog, 07/12/2021. <a href="/data-quality-tools-retours-dexperience-et-nouveautes/">/data-quality-tools-retours-dexperience-et-nouveautes/</a></p>
<p>Brown S., Why it&#8217;s time for &#8220;data Centric Artificial Intelligence&#8221;&nbsp;? MIT Management Sloan School, juin, 2022. https://mitsloan.mit.edu/ideas-made-to-matter/why-its-time-data-centric-artificial-intelligence</p>
<p>De Valeriola S., <em>L’ordinateur au service du depouillement de sources historiques. ´ Eléments d’analyse semi-automatique d’un corpus diplomatique homogène</em>.  In Histoire &amp; Mesure, 35, 2 (2020), 171–196.</p>
<p>De Valeriola, S. <em>Can historians trust centrality&nbsp;? Historical network analysis and centrality metrics robustness. </em>In Journal of Historical Network Research 6 (2021), 45–85.</p>
<p>Dierickx L.,  « <em> Apprentissage automatique : les challenges de la qualité des données dans la perspective d’une adéquation aux usages», </em>Conférence, Groupe de contact FNRS « Analyse critique et amélioration de la qualité de l’information », ULB, mai 2022.  <a href="https://mastic.ulb.ac.be/2022/02/reunion-du-groupe-de-contact-fnrs-analyse-critique-et-amelioration-de-la-qualite-de-linformation-numerique-%EF%BF%BC/">https://mastic.ulb.ac.be/2022/02/reunion-du-groupe-de-contact-fnrs-analyse-critique-et-amelioration-de-la-qualite-de-linformation-numerique-%EF%BF%BC/</a></p>
<p>Dierickx, L. (2019, February). Why news automation fails. In <em>Computation+ Journalism Symposium, Miami, FL</em>.</p>
<p>Gupta N, Patel H, Afzal S, et al. (2021) Data Quality Toolkit: Automatic assessment of data<br />quality and remediation for machine learning datasets. arXiv [cs.LG]. Available at:<br />http://arxiv.org/abs/2108.05935.</p>
<p>Northcutt CG, Athalye A and Mueller J (2021) Pervasive label errors in test sets destabilize<br />machine learning benchmarks. arXiv [stat.ML]. Available at: http://arxiv.org/abs/2103.14749.</p>
<p>Redman T. C., If Your Data is Bad, your Machine Learning Tools are useless. Harvard, Business Review, avril 2018. <a href="https://hbr.org/2018/04/if-your-data-is-bad-your-machine-learning-tools-are-useless">https://hbr.org/2018/04/if-your-data-is-bad-your-machine-learning-tools-are-useless</a>.</p>
<p>Sgaier S. et al., The Case for Causal AI, Stanford Innovation Social Review, summer 2020. https://ssir.org/articles/entry/the_case_for_causal_ai</p>
<p>Van Der Vlist, E. 2011. Relax NG. Mai 2011. Édition O’Reilly Media. ISBN: 0596004214</p>
<hr />
<p><em>Dit is een ingezonden bijdrage van Isabelle Boydens, Data Quality Expert, Research Team en Gani Hamiti, Data Quality Analist, Databases Team. Dit artikel is geschreven onder hun eigen naam en heeft geen invloed op het standpunt van Smals. Het werd vertaald uit het Frans: <a href="/typologie-des-anomalies-un-cadre-pour-laction-le-cas-du-machine-learning/" target="_blank" rel="noopener">Typologie des anomalies, un cadre pour l’action&nbsp;: le cas du machine learning</a>.</em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Typologie des anomalies, un cadre pour l’action&#160;: le cas du machine learning</title>
		<link>https://www.smalsresearch.be/typologie-des-anomalies-un-cadre-pour-laction-le-cas-du-machine-learning/</link>
		
		<dc:creator><![CDATA[Isabelle Boydens]]></dc:creator>
		<pubDate>Tue, 18 Oct 2022 05:51:21 +0000</pubDate>
				<category><![CDATA[[FR]]]></category>
		<category><![CDATA[Blog post]]></category>
		<category><![CDATA[ATMS]]></category>
		<category><![CDATA[back tracking]]></category>
		<category><![CDATA[data quality]]></category>
		<category><![CDATA[Data Quality Tools]]></category>
		<category><![CDATA[Information management]]></category>
		<category><![CDATA[Machine Learning]]></category>
		<guid isPermaLink="false">/?p=17616</guid>

					<description><![CDATA[La qualité d’une donnée désigne son adéquation aux usages et objectifs visés (« fitness for use ») (Boydens, 1999, Boydens 2014). Dans cet article nous allons voir comment une typologie rigoureuse des anomalies offre un cadre pour l'amélioration de la qualité des données, dans de nombreux domaines, dont le machine learning.]]></description>
										<content:encoded><![CDATA[
<p>Isabelle Boydens(*) et Gani Hamiti(**)</p>



<p>(*) Data Quality Expert, Research Team</p>



<p>(**) Data Quality Analyst, Databases Team</p>



<p><a href="/typologie-van-de-anomalieen-een-kader-voor-actie-de-case-van-machine-learning/"><em>Nederlandstalige versie</em></a></p>



<p><img loading="lazy" decoding="async" class="alignleft  wp-image-17613" src="/wp-content/uploads/2022/08/DQ_logo.png" alt="" width="247" height="258" srcset="https://www.smalsresearch.be/wp-content/uploads/2022/08/DQ_logo.png 574w, https://www.smalsresearch.be/wp-content/uploads/2022/08/DQ_logo-287x300.png 287w" sizes="auto, (max-width: 247px) 100vw, 247px" />La qualité d’une donnée désigne son adéquation aux usages et objectifs visés (« fitness for use ») (Boydens, 1999, <a href="/dix-bonnes-pratiques-pour-ameliorer-et-maintenir-la-qualite-des-donnees/">Boydens 2014</a>). Dans cet article nous allons voir comment une typologie rigoureuse des anomalies offre un cadre pour l&#8217;amélioration de la qualité des données, dans de nombreux domaines, dont le machine learning. A propos du ML, dans un article ultérieur, nous montrerons comment cette technique peut améliorer les fonctionnalités d&#8217;un &#8220;data quality tool&#8221;, par exemple dans les opérations de matching,<a href="/data-quality-tools-retours-dexperience-et-nouveautes/" target="_blank" rel="noopener"> comme annoncé dans notre article de décembre 2021</a>.</p>
<p>Toute base de données relationnelle opérationnelle bien conçue repose sur une hypothèse, celle du « monde clos »&nbsp;: le domaine de définition spécifie l’ensemble des valeurs admises au sein du modèle ou du schéma de la base de données (les contraintes d’intégrité) ; les « règles métier » peuvent aussi se décliner dans le code applicatif et contribuer ainsi à la définition des données. En vertu de cette hypothèse, une valeur non incluse dans le domaine de définition est considérée comme erronée et doit être rejetée de la base.</p>
<p>Par anomalie au sein d’une base de données, nous entendons ici une erreur formelle (par exemple, valeur obligatoire non complétée) mais aussi une présomption d’erreur demandant une interprétation humaine (par exemple&nbsp;: présomption de doublons entre enregistrements fortement similaires, émergence d’une nouvelle catégorie d’activité non prise en compte dans les tables de référence, etc.).</p>
<p>Ajoutons qu’une base de données empiriques évolue dans le temps avec l’interprétation des valeurs qu’elle permet d’appréhender (Boydens, 1999, <a href="https://books.google.be/books?id=DzZk-Riel_MC&amp;pg=PA113&amp;lpg=PA113&amp;dq=Isabelle+Boydens&amp;source=bl&amp;ots=tvh3D5fX6_&amp;sig=RBEI35wYjdFzYi13LpEIQc63OGY&amp;hl=fr&amp;ei=QQP4TOiXA4uShAeUmbHnAg&amp;sa=X&amp;oi=book_result&amp;ct=result&amp;resnum=1&amp;ved=0CBYQ6AEwADgo#v=onepage&amp;q&amp;f=false">2011</a>,<a href="https://www.tandfonline.com/doi/abs/10.1080/01639374.2011.571096" target="_blank" rel="noopener"> Bade, 2011</a>). Dès lors, il n’y a jamais de projection biunivoque entre une base de données et le réel observable représenté. La qualité totale n’existe pas. Ceci rend d’autant plus complexe la mise en place d’une stratégie d’évaluation et d’amélioration de la qualité des données, en fonction de leurs usages tels le machine learning (de Valeriola, 2020, 2021), dans le domaine de la justice, de la reconnaissance faciale, du traitement des maladies ou encore du journalisme, …  appliqué à des usages eux aussi bien particuliers (<a href="https://mastic.ulb.ac.be/2022/02/reunion-du-groupe-de-contact-fnrs-analyse-critique-et-amelioration-de-la-qualite-de-linformation-numerique-%EF%BF%BC/">Redman, 2018</a>, <a href="https://mastic.ulb.ac.be/2022/02/reunion-du-groupe-de-contact-fnrs-analyse-critique-et-amelioration-de-la-qualite-de-linformation-numerique-%EF%BF%BC/">Dierickx, 2022</a>).</p>
<p><img loading="lazy" decoding="async" class="alignleft  wp-image-17611" src="/wp-content/uploads/2022/08/Redman.png" alt="" width="820" height="567" srcset="https://www.smalsresearch.be/wp-content/uploads/2022/08/Redman.png 981w, https://www.smalsresearch.be/wp-content/uploads/2022/08/Redman-300x207.png 300w, https://www.smalsresearch.be/wp-content/uploads/2022/08/Redman-768x531.png 768w" sizes="auto, (max-width: 820px) 100vw, 820px" /></p>
<p>Citons Redman et ses exemples éloquents  :</p>
<p>« Yet today, <a href="https://hbr.org/2017/09/only-3-of-companies-data-meets-basic-quality-standards">most data fails to meet basic “data are right” standards</a>. Reasons range from data creators not understanding what is expected, to poorly calibrated measurement gear, to overly complex processes, to human error. To compensate, data scientists cleanse the data before training the predictive model. It is time-consuming, tedious work (taking <a href="https://hbr.org/2016/12/breaking-down-data-silos?autocomplete=true">up to 80% of data scientists’ time</a>), and it’s the <a href="https://www.kaggle.com/surveys/2017">problem data scientists complain about most</a>. Even with such efforts, cleaning neither detects nor corrects all the errors, and as yet, there is no way to understand the impact on the predictive model. What’s more, data does not always meets “the right data” standards, as reports of <a href="https://www.nytimes.com/2018/02/09/technology/facial-recognition-race-artificial-intelligence.html">bias in facial recognition</a> and <a href="https://www.wired.com/2017/04/courts-using-ai-sentence-criminals-must-stop-now/">criminal justice</a> attest.”</p>
<p>(…)</p>
<p>“Increasingly-complex problems demand not just more data, but more diverse, comprehensive data. And with this comes more quality problems. <a href="https://www.statnews.com/2017/09/05/watson-ibm-cancer/">For example, handwritten notes and local acronyms have complicated IBM’s efforts to apply machine learning (e.g., Watson) to cancer treatment.</a>”</p>
<p><strong>Figure 1. Approches préventives et curatives</strong></p>
<p><img loading="lazy" decoding="async" class="alignleft size-full wp-image-17749" src="/wp-content/uploads/2022/09/CuratifPreventif-e1663237978615.png" alt="" width="1094" height="620" srcset="https://www.smalsresearch.be/wp-content/uploads/2022/09/CuratifPreventif-e1663237978615.png 1094w, https://www.smalsresearch.be/wp-content/uploads/2022/09/CuratifPreventif-e1663237978615-300x170.png 300w, https://www.smalsresearch.be/wp-content/uploads/2022/09/CuratifPreventif-e1663237978615-768x435.png 768w, https://www.smalsresearch.be/wp-content/uploads/2022/09/CuratifPreventif-e1663237978615-1024x580.png 1024w" sizes="auto, (max-width: 1094px) 100vw, 1094px" /></p>
<p>Outre son intérêt évident pour la qualité des données, l’étude des anomalies est également importante en raison de leur pourcentage élevé qui affecte structurellement les systèmes d’information&nbsp;: jusqu’à 10 % du volume des données (<a href="https://books.google.be/books?id=DzZk-Riel_MC&amp;pg=PA113&amp;lpg=PA113&amp;dq=Isabelle+Boydens&amp;source=bl&amp;ots=tvh3D5fX6_&amp;sig=RBEI35wYjdFzYi13LpEIQc63OGY&amp;hl=fr&amp;ei=QQP4TOiXA4uShAeUmbHnAg&amp;sa=X&amp;oi=book_result&amp;ct=result&amp;resnum=1&amp;ved=0CBYQ6AEwADgo#v=onepage&amp;q&amp;f=false">Boydens, 2011</a>, <a href="https://www.amazon.fr/RELAX-anglais-Eric-Van-Vlist/dp/0596004214">Van Der Vlist, 2011</a>). Or, quand les enjeux (humains, sociaux, financiers, juridiques, scientifiques, médicaux, etc.) le demandent, ces anomalies doivent faire l’objet d’un examen semi-automatique, voire manuel, souvent lent et fastidieux, sans programme ad hoc recourant à des mesures préventives et curatives, <strong>Figure 1</strong>, (Boydens, 2014).</p>
<p>La typologie que nous proposons peut être utile dans toutes les disciplines ayant recours aux Data&nbsp;: Database Management, Master Data Management, machine learning (<a href="https://mastic.ulb.ac.be/2022/02/reunion-du-groupe-de-contact-fnrs-analyse-critique-et-amelioration-de-la-qualite-de-linformation-numerique-%EF%BF%BC/">Dierickx, 2022</a>, <a href="https://hbr.org/2018/04/if-your-data-is-bad-your-machine-learning-tools-are-useless" target="_blank" rel="noopener">Redman, 2018</a>), … en tant que cadre global pour l’action Data Quality et aide à l’identification du traitement le plus approprié.</p>
<p>D’où viennent les anomalies, quelle en est la typologie et de là, comment les gérer au mieux&nbsp;? Afin de répondre à ces questions, il convient de revenir préalablement sur la notion de donnée telle que nous l’avons posée dès 1999 et reprise notamment en <a href="https://www.insee.fr/fr/information/3622502">2021</a> (Boydens I., Hamiti G. et Van Eeckhout R., 2021).</p>
<p><strong>DONNÉES DÉTERMINISTES ET DONNÉES EMPIRIQUES </strong></p>
<p>Dans le monde des bases de données, une donnée est un triplet (i, d, v) composé des éléments suivants&nbsp;:</p>
<ul>
<li>un intitulé (i), renvoyant à un concept (une <em>catégorie d’activité administrative</em>, par exemple) ;</li>
<li>un domaine de définition (d), composé d’assertions formelles spécifiant l’ensemble des valeurs admises dans la base pour ce concept (une liste contrôlée de valeurs alphabétiques d’une longueur maximale l, par exemple), complétées éventuellement de règles métier se trouvant dans le code applicatif (voir plus haut, hypothèse du monde clos).</li>
<li>et enfin, une valeur (v) à un instant t (le <em>secteur de la chimie</em>, par exemple).</li>
</ul>
<p>On distingue alors les <em>données déterministes </em>des <em>données empiriques </em>(Boydens, 1999, 2011).</p>
<ul>
<li>Les premières se caractérisent par le fait que l’on dispose à tout moment d’une théorie qui permet de décider si une valeur v est correcte ou pas. Ainsi en est-il d’une opération algébrique simple portant sur un objet lui-même déterministe, comme la somme de valeurs relatives à tel champ numérique d’une base de données à un instant t. Les règles de l’algèbre n’évoluant dans le temps, on peut savoir à tout moment si le résultat d’une telle somme est correct ou pas. On dispose en effet d’un référentiel stable à cette fin.</li>
<li>En revanche, en ce qui concerne les données empiriques, sujettes à l’expérience humaine, la norme évolue dans le temps avec l’interprétation des valeurs qu’elle permet d’appréhender. Ainsi en est-il par exemple du domaine médical (où la théorie évolue au fil des observations sur les patients atteints par une pathologie, comme en témoignent les recherches actuelles sur le coronavirus) mais aussi des domaines juridiques et administratifs où l’interprétation des concepts légaux se transforme avec l’évolution continue de la réalité traitée et avec celle de la jurisprudence. Comment en évaluer la validité en l’absence de référentiel absolu à cette fin&nbsp;?</li>
</ul>
<p><strong>TYPOLOGIE DES ANOMALIES ET TRAITEMENTS POSSIBLES </strong></p>
<p>Une typologie des anomalies se profile alors, en fonction de leur cause potentielle et de la manière de les envisager&nbsp;:</p>
<ul>
<li>erreur formelle certaine&nbsp;: par exemple, un champ obligatoire non complété lors de l’encodage manuel des données par un humain;</li>
<li>présomptions d’erreurs formelles&nbsp;: par exemple a) présomptions de doubles dues à des processus de capture de données redondantes en amont, ou encore b) une incohérence avec une table de référence dont on ignore si elle est à jour, par exemple dans le domaine de l’énergie renouvelable (Figure 2) ;</li>
<li>erreur indétectable formellement <strong><em>a priori</em></strong>&nbsp;: par exemple, omission d’une mise à jour.</li>
</ul>
<p><strong>Figure 2. Gestion des anomalies, ATMS, Monitoring &amp; Back tracking</strong></p>
<p><img loading="lazy" decoding="async" class="alignleft size-full wp-image-17750" src="/wp-content/uploads/2022/09/Preventif1.png" alt="" width="1544" height="866" srcset="https://www.smalsresearch.be/wp-content/uploads/2022/09/Preventif1.png 1544w, https://www.smalsresearch.be/wp-content/uploads/2022/09/Preventif1-300x168.png 300w, https://www.smalsresearch.be/wp-content/uploads/2022/09/Preventif1-768x431.png 768w, https://www.smalsresearch.be/wp-content/uploads/2022/09/Preventif1-1024x574.png 1024w, https://www.smalsresearch.be/wp-content/uploads/2022/09/Preventif1-1536x862.png 1536w" sizes="auto, (max-width: 1544px) 100vw, 1544px" /></p>
<p>Les deux derniers cas de figure de la typologie qui précède peuvent dénoter de cas d&#8217;anomalies dues à l’évolution dans le temps du domaine empirique représenté et à l’émergence de nouveaux concepts non pris en compte <strong>(Figure 2)<em>. </em></strong>Par exemple&nbsp;: un test d’intégrité avant l’entrée des données dans la base de données principale détecte une anomalie formelle. Le traitement de l’anomalie (validation ou correction) est stocké dans l’<a href="https://mastic.ulb.ac.be/wp-content/uploads/2021/07/0254-21_INSEE-PARIS_INTERIEUR-COURRIER-DES-STATISTIQUES_6-ARTICLE7-BAT5.pdf" target="_blank" rel="noopener">ATMS</a> (<a href="/data-quality-anomalies-transactions-management-system-atms-prototype-work-in-progress/" target="_blank" rel="noopener">permettant le suivi des anomalies et de leur traitement dans le temps, comme indiqué plus loin dans cet article</a>) et alimente un tableau de bord lequel, moyennant un monitoring des anomalies et traitements aidera à la prise de décision en vue d’améliorer la qualité des données.</p>
<p>Selon les besoins du métier, on décidera de considérer ces anomalies comme&nbsp;:</p>
<ul>
<li>bloquantes&nbsp;: elles sont rejetées de la base de données en vertu de l’hypothèse du monde clos précédemment évoquée ;</li>
<li>non bloquantes&nbsp;: les valeurs sont tout de même intégrées selon des modalités variables au sein du système d’information avec l’enregistrement correspondant, pour deux familles de raisons&nbsp;:
<ul>
<li>les rejeter du système ralentirait le processus métier (par exemple, le prélèvement des cotisations sociales) et elles ne sont pas considérées comme « stratégiques »;</li>
<li>les prendre en considération dans le système d’information est indispensable, car elles sont considérées comme stratégiques et sont liées à des données empiriques dont la définition est potentiellement évolutive. À partir d’un certain seuil à évaluer par les spécialistes du domaine, leur traitement demande une interprétation humaine, car elles peuvent dénoter de l’émergence de phénomènes nouveaux qu’il importera de prendre en considération dans le système d’information <strong>(Figure 2</strong><em>)</em>, moyennant une gestion de versions. En outre, elles trouvent potentiellement leur origine dans les flux alimentant la base de données, problématique qui, une fois identifiée, pourra être structurellement résolue avec le back tracking (<a href="/data-quality-back-tracking-depuis-les-premieres-experimentations-a-la-parution-dun-arrete-royal/">Boydens, 2018</a>, <a href="https://mastic.ulb.ac.be/wp-content/uploads/2021/07/0254-21_INSEE-PARIS_INTERIEUR-COURRIER-DES-STATISTIQUES_6-ARTICLE7-BAT5.pdf">Boydens et al., 2021</a>).  </li>
</ul>
</li>
</ul>
<p>La décision consistant à identifier les anomalies empiriques « non bloquantes » est sensible en ce qu’elle relève d’une connaissance prévisionnelle des réalités traitées à un instant t, élément lui-même évolutif susceptible de faire l’objet d’une adaptation concertée au sein du système d’information. Ceci nous renvoie à la question épistémologique de la « boucle herméneutique »</p>
<p>La démarche herméneutique consiste à envisager les phénomènes empiriques en termes d’interactions par rapport à un cadre conceptuel plus général construit en vue de leur conférer un sens. Cependant, toute démarche interprétative soulève un paradoxe&nbsp;: celui du « cercle herméneutique » (Aron, 1969). Chaque observation ne prend sens que confrontée à un ensemble, à une « précompréhension ». Or, la sémantique de l’ensemble repose elle-même sur l’interprétation des éléments qui le constituent. Le processus de construction que suppose l’herméneutique est par nature toujours inachevé. Il convient toutefois d&#8217;y poser ponctuellement un arrêt en connaissance de cause afin de livrer des résultats provisoires (Boydens, 1999).</p>
<p>Comment prendre en considération les « anomalies non bloquantes » et leurs traitements, sans affecter ni la performance, ni l’intégrité des données en production&nbsp;? Avec <a href="https://mastic.ulb.ac.be/wp-content/uploads/2021/07/0254-21_INSEE-PARIS_INTERIEUR-COURRIER-DES-STATISTIQUES_6-ARTICLE7-BAT5.pdf" target="_blank" rel="noopener">l’ATMS, ou <em>Anomalies and Transactions Management System </em></a>(<a href="https://mastic.ulb.ac.be/wp-content/uploads/2021/07/0254-21_INSEE-PARIS_INTERIEUR-COURRIER-DES-STATISTIQUES_6-ARTICLE7-BAT5.pdf">Boydens et al., 2021</a>)<em> &#8211; </em>éventuellement couplé aux <a href="/data-quality-tools-retours-dexperience-et-nouveautes/">Data Quality Tools</a> (Boydens et al, 2021b) &#8211; associé au Back Tracking (<a href="/data-quality-back-tracking-depuis-les-premieres-experimentations-a-la-parution-dun-arrete-royal/">Boydens, 2018</a>), on passe de « l’hypothèse du monde clos » à celle d’un « monde ouvert » sous contrôles automatisés au sein des bases de données de gestion. Et l’on bâtit, ce faisant un programme consolidé permettant d’évaluer la qualité des données et d’y remédier structurellement. Ce programme n’est jamais un « one shot » car il doit être mené dans la continuité, incluant un processus de maintenance. </p>
<p><strong>APPLICATION AU MACHINE LEARNING : PERSPECTIVES</strong></p>
<p><strong><em>Avant la mise en place du cycle de ML</em></strong></p>
<p>Dans le cas du machine learning (de Valeriola, 2020, Dierickx, 2019, 2022), le programme (analyse et solutions associées) &#8211; exposé plus haut dans cet article de blog &#8211; peut s’appliquer en amont aux données mobilisées pour entraîner un modèle prédictif et en assurer la maintenance dans le temps avant la mise en place du cycle de ML.</p>
<p><strong><em>Au coeur du cycle de ML (Figure 3)</em></strong></p>
<p>Au coeur du système de ML, on peut construire les indicateurs de qualité adéquats aux algorithmes et modèles de ML choisis, par exemple, indicateurs de la qualité&nbsp;: </p>
<ul>
<li><a href="https://arxiv.org/abs/2103.14749" target="_blank" rel="noopener">des annotations potentiellement obtenues par crowdsourcing, </a>dans le cas de <a href="https://arxiv.org/abs/2108.05935" target="_blank" rel="noopener">modèles supervisés</a> (Northcutt et al, 2021, Gupta et al, 2021)</li>
<li>des biais (ou marges d&#8217;erreur) tolérés ou pas selon les usages déterminés en synergie avec l’IT et le business (concepteurs des données, utilisateurs du modèle prédictif).</li>
</ul>
<p>Le système préconisé dans (Gupta et al, 2021) pourrait être enrichi en ayant recours à un ATMS à la source, comme mentionné plus haut et par ailleurs, suggère d&#8217;agir sur la qualité de données déjà pré-traitées pour le ML.</p>
<p>Cette référence illustre <em>la problématique de données de qualité insuffisante au sein du modèle de ML.</em> Par exemple, la <em>mauvaise distribution d’un attribut peut constituer un biais</em> qui, à son tour, soulèvera des problèmes éthiques&nbsp;: dans le cas de l’évaluation des demandes de crédit en fonction du risque, <a href="https://investir.lesechos.fr/placements/actualites/credit-les-derives-liees-a-l-intelligence-artificielle-dans-le-viseur-de-l-union-europeenne-2035308.php" target="_blank" rel="noopener">en cours d&#8217;examen par l&#8217;UE en septembre 2022</a>&nbsp;: &#8220;&#8230; <em>les algorithmes peuvent comporter des biais. Par exemple, un modèle est susceptible de refuser fréquemment un crédit aux individus de 30 ans et jamais aux personnes de 57 ans. Pourquoi&nbsp;? Simplement parce que les dossiers des trentenaires étudiés par la machine lors de son entraînement étaient nombreux, donc la probabilité d’y trouver des défauts également, alors qu’il n’y avait qu’un ou deux exemples de candidats de 57 ans et qu’ils ont à chaque fois payé l’intégralité de leur crédit (une erreur toutefois si grossière qu’elle est généralement anticipée, mais d’autres biais peuvent être plus pernicieux).</em>&#8220;</p>
<p><img loading="lazy" decoding="async" class="alignleft size-full wp-image-17618" src="/wp-content/uploads/2022/08/fig3.png" alt="" width="1213" height="648" srcset="https://www.smalsresearch.be/wp-content/uploads/2022/08/fig3.png 1213w, https://www.smalsresearch.be/wp-content/uploads/2022/08/fig3-300x160.png 300w, https://www.smalsresearch.be/wp-content/uploads/2022/08/fig3-768x410.png 768w, https://www.smalsresearch.be/wp-content/uploads/2022/08/fig3-1024x547.png 1024w" sizes="auto, (max-width: 1213px) 100vw, 1213px" /></p>
<p><strong>Figure 3. Source&nbsp;: Dierickx, 2022</strong></p>
<p><strong><em>L&#8217;explicabilité des prédictions du ML&nbsp;: législations, questions éthiques et de data quality, nouveaux domaines de recherche</em></strong></p>
<p>Dans d&#8217;autres cas évoqués par l&#8217;UE, <em>l&#8217;opacité des modèles d&#8217;apprentissage profond</em> est telle que même les ingénieurs ne peuvent plus motiver précisément les prédictions produites en résultat.</p>
<p>Une loi est en cours de préparation pour tenter de réguler les procédures utilisées, <a href="https://artificialintelligenceact.eu/the-act/" target="_blank" rel="noopener">l&#8217;AI Act</a>, censé renforcer le RGPD. S&#8217;agissant de procédures analogues aux demandes de crédit, les experts estiment que &#8220;<em>Cela ne veut pas dire pour autant que les explications données seront sûres et certaines (impossible avec certains modèles), mais qu’elles seront fortement probables – des ingénieurs parlent d’ailleurs plus d’interprétabilité que d’explicabilité</em>.&#8221; </p>
<p>Le programme évoqué plus haut (ATMS, data quality tools) avant le cycle du ML, couplé à la prise en compte d&#8217;une évaluation de la qualité au coeur du processus de ML, le tout devant être documenté, pourrait s’appliquer aussi afin de donner plus d’informations ciblées aux utilisateurs des données prédictives sur &#8220;l&#8217;explicabilité&#8221; et la qualité relative de ces dernières, la qualité totale n&#8217;existant pas.</p>
<p>De nouveau domaines de recherche se présentent peu à peu dans ce sens&nbsp;: <a href="https://mitsloan.mit.edu/ideas-made-to-matter/why-its-time-data-centric-artificial-intelligence" target="_blank" rel="noopener">Data Centric AI</a> ou encore, <a href="https://ssir.org/articles/entry/the_case_for_causal_ai" target="_blank" rel="noopener">Causal AI</a>. La problématique se pose donc en amont, au coeur et en aval du cycle de vie des données en ML. </p>
<p>A propos du ML, dans un article ultérieur, nous montrerons par ailleurs, comment cette technique peut améliorer les fonctionnalités d&#8217;un &#8220;data quality tool&#8221;, par exemple dans les opérations de matching,<a href="/data-quality-tools-retours-dexperience-et-nouveautes/" target="_blank" rel="noopener"> comme annoncé dans notre article de décembre 2021</a>.</p>
<p><strong>Références</strong></p>
<p>Aron, R., 1969. La philosophie critique de l’histoire. 1969. Édition Librairie philosophique J. Vrin. Collection Points – Sciences humaines. ISBN 2560848158182.</p>
<p>Bade D., It&#8217;s about Time!: Temporal Aspects of Metadata Management in the Work of Isabelle Boydens. In Cataloging &amp; Classification Quarterly (The International Observer), volume 49, n° 4, 2011, pp. 328-338. (<a href="https://catalogingandclassificationquarterly.com/ccq49nr4.html#intobs">lien vers l&#8217;article</a>).</p>
<p>Boydens I., <em>Informatique, normes et temps</em>. Bruxelles&nbsp;: Bruylant, 1999, 570 p.  (Cet ouvrage s’est vu décerner le prix de la Fondation L. Davin, conféré par l&#8217;Académie Royale des sciences, des lettres et des beaux-arts de Belgique, 1999).  (Introduction et Première partie, pp. 30-126) – bibliothèques</p>
<p>Boydens I., &#8220;Strategic Issues Relating to Data Quality for E-government: Learning from an Approach Adopted in Belgium&#8221;. In Assar S., Boughzala I. et Boydens I., éds., &#8220;Practical Studies in E-Government&nbsp;: Best Practices from Around the World&#8221;, New York, Springer, 2011, p. 113-130 (<a href="https://books.google.be/books?id=DzZk-Riel_MC&amp;pg=PA113&amp;lpg=PA113&amp;dq=Isabelle+Boydens&amp;source=bl&amp;ots=tvh3D5fX6_&amp;sig=RBEI35wYjdFzYi13LpEIQc63OGY&amp;hl=fr&amp;ei=QQP4TOiXA4uShAeUmbHnAg&amp;sa=X&amp;oi=book_result&amp;ct=result&amp;resnum=1&amp;ved=0CBYQ6AEwADgo#v=onepage&amp;q&amp;f=false">chapitre 7</a>).</p>
<p>Boydens I., <em>Dix bonnes pratiques pour améliorer et maintenir la qualité des données.</em> Bruxelles, Smals, Research Section, post de blog, 16/06/2014 (dernière mise à jour :  décembre 2021). <a href="/dix-bonnes-pratiques-pour-ameliorer-et-maintenir-la-qualite-des-donnees/">/dix-bonnes-pratiques-pour-ameliorer-et-maintenir-la-qualite-des-donnees/</a></p>
<p>Boydens I., « <em> Data Quality &amp; Back Tracking&nbsp;: depuis les premières expérimentations à la parution d&#8217;un Arrêté Royal </em> ». Bruxelles, Smals, Research Section, post de blog, 14/05/2018.<a href="/data-quality-back-tracking-depuis-les-premieres-experimentations-a-la-parution-dun-arrete-royal/">/data-quality-back-tracking-depuis-les-premieres-experimentations-a-la-parution-dun-arrete-royal/</a> </p>
<p>Boydens I., Hamiti G. et Van Eeckhout R., Data Quality&nbsp;: “<em>Anomalies &amp; Transactions Management System” (ATMS), prototype &amp; “work in progress”.</em> Bruxelles, Smals, Research Section, post de blog,  8/12/2020. </p>
<p><a href="/data-quality-anomalies-transactions-management-system-atms-prototype-work-in-progress/">/data-quality-anomalies-transactions-management-system-atms-prototype-work-in-progress/</a></p>
<p>Boydens I., Hamiti G. et Van Eeckhout R., <em>Un service au cœur de la qualité des données. Présentation d’un prototype d’ATMS. </em>In Le Courrier des statistiques, Paris, INSEE, juin-juillet 2021, n°6,  p. 100-122.</p>
<p><a href="https://www.insee.fr/fr/information/5398691?sommaire=5398695">https://www.insee.fr/fr/information/5398691?sommaire=5398695</a></p>
<p>Boydens I., Corbesier I. et Hamiti G., <em>Data Quality Tools&nbsp;: retours d&#8217;expérience et nouveautés</em>. Bruxelles, Smals, Research Section, post de blog, 07/12/2021. <a href="/data-quality-tools-retours-dexperience-et-nouveautes/">/data-quality-tools-retours-dexperience-et-nouveautes/</a></p>
<p>Brown S., Why it&#8217;s time for &#8220;data Centric Artificial Intelligence&#8221;&nbsp;? MIT Management Sloan School, juin, 2022. https://mitsloan.mit.edu/ideas-made-to-matter/why-its-time-data-centric-artificial-intelligence</p>
<p>De Valeriola S., <em>L’ordinateur au service du depouillement de sources historiques. ´ Eléments d’analyse semi-automatique d’un corpus diplomatique homogène</em>.  In Histoire &amp; Mesure, 35, 2 (2020), 171–196.</p>
<p>De Valeriola, S. <em>Can historians trust centrality&nbsp;? Historical network analysis and centrality metrics robustness. </em>In Journal of Historical Network Research 6 (2021), 45–85.</p>
<p>Dierickx L.,  « <em> Apprentissage automatique : les challenges de la qualité des données dans la perspective d’une adéquation aux usages», </em>Conférence, Groupe de contact FNRS « Analyse critique et amélioration de la qualité de l’information », ULB, mai 2022.  <a href="https://mastic.ulb.ac.be/2022/02/reunion-du-groupe-de-contact-fnrs-analyse-critique-et-amelioration-de-la-qualite-de-linformation-numerique-%EF%BF%BC/">https://mastic.ulb.ac.be/2022/02/reunion-du-groupe-de-contact-fnrs-analyse-critique-et-amelioration-de-la-qualite-de-linformation-numerique-%EF%BF%BC/</a></p>
<p>Dierickx, L. (2019, February). Why news automation fails. In <em>Computation+ Journalism Symposium, Miami, FL</em>.</p>
<p>Gupta N, Patel H, Afzal S, et al. (2021) Data Quality Toolkit: Automatic assessment of data<br />quality and remediation for machine learning datasets. arXiv [cs.LG]. Available at:<br />http://arxiv.org/abs/2108.05935.</p>
<p>Northcutt CG, Athalye A and Mueller J (2021) Pervasive label errors in test sets destabilize<br />machine learning benchmarks. arXiv [stat.ML]. Available at: http://arxiv.org/abs/2103.14749.</p>
<p>Redman T. C., If Your Data is Bad, your Machine Learning Tools are useless. Harvard, Business Review, avril 2018. <a href="https://hbr.org/2018/04/if-your-data-is-bad-your-machine-learning-tools-are-useless">https://hbr.org/2018/04/if-your-data-is-bad-your-machine-learning-tools-are-useless</a>.</p>
<p>Sgaier S. et al., The Case for Causal AI, Stanford Innovation Social Review, summer 2020. https://ssir.org/articles/entry/the_case_for_causal_ai</p>
<p>Van Der Vlist, E. 2011. Relax NG. Mai 2011. Édition O’Reilly Media. ISBN: 0596004214</p>
<hr />
<p><em data-rich-text-format-boundary="true">Ce post est une contribution d’Isabelle Boydens, Data Quality Expert, Research Team et de Gani Hamiti, Data Quality Analist, Databases Team. Cet article est écrit en leur nom propre et n’impacte en rien le point de vue de Smals.</em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Data Quality Tools&#160;: retours d&#8217;expérience et nouveautés</title>
		<link>https://www.smalsresearch.be/data-quality-tools-retours-dexperience-et-nouveautes/</link>
		
		<dc:creator><![CDATA[Isabelle Boydens]]></dc:creator>
		<pubDate>Tue, 07 Dec 2021 08:01:37 +0000</pubDate>
				<category><![CDATA[[FR]]]></category>
		<category><![CDATA[Blog post]]></category>
		<category><![CDATA[data quality]]></category>
		<category><![CDATA[Data Quality Tools]]></category>
		<category><![CDATA[Information management]]></category>
		<guid isPermaLink="false">/?p=16073</guid>

					<description><![CDATA[Isabelle Boydens(*), Isabelle Corbesier(**) et Gani Hamiti(**) (*) Data Quality Expert, Research Team (**) Data Quality Analyst, Databases Team La problématique de la qualité des données (ou &#8220;fitness for use&#8220;, adéquation aux usages) est maintenant reconnue au plan international comme étant un facteur de succès à prendre en compte dans tout projet impliquant des bases [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Isabelle Boydens(*), Isabelle Corbesier(**) et Gani Hamiti(**)</p>
<p>(*) Data Quality Expert, Research Team</p>
<p>(**) Data Quality Analyst, Databases Team</p>
<p>La problématique de la qualité des données (<a href="/dix-bonnes-pratiques-pour-ameliorer-et-maintenir-la-qualite-des-donnees/" target="_blank" rel="noopener">ou &#8220;<em>fitness for use</em>&#8220;, adéquation aux usages</a>) est maintenant reconnue au plan international comme étant un facteur de succès à prendre en compte dans tout projet impliquant des bases de données. En 2016, T. Redman chiffrait ainsi les coûts de la &#8220;non qualité&#8221; aux USA, dans son livre &#8220;Getting in front on Data&#8221; (p. 25)&nbsp;: &#8220;<em>$3,1 Trillions/year in the US, which is about 20 percent of the Gross Domestic Product&#8221;</em>. </p>
<p>Les &#8220;<a href="/publications/document/?docid=85" target="_blank" rel="noopener">data quality tools</a>&#8221; professionnels et commerciaux sont nés dans les années 1980 avec la nécessité pour les entreprises du monde entier de disposer de fichiers d&#8217;adresses et de coordonnées précises concernant leurs clients et transactions. Avec le temps, ces outils ont pris un essor considérable, tant du point de vue de l&#8217;ampleur des domaines couverts, traitant tout type de chaîne alphanumérique, que des dizaines de milliers d&#8217;algorithmes &#8220;ad hoc&#8221; développés à cette fin. Vu le caractère stratégique de la qualité des données dans les entreprises, organismes internationaux et administrations, la recherche est très active dans le domaine et de nouveaux algorithmes sont régulièrement proposés et intégrés dans ces outils. Pour ces raisons, dans un cadre professionnel, on peut difficilement leur substituer un développement &#8220;home made&#8221; et leur acquisition est recommandée <a href="/publications/document/?docid=62" target="_blank" rel="noopener">en vue d&#8217;une approche &#8220;data quality&#8221; sérieuse et complète</a>. </p>
<p>Aussi, depuis plus de 10 ans, Smals a acquis un &#8220;Data Quality Tool&#8221; professionnel, toujours parmi les leaders du marché à l&#8217;heure actuelle, dans le cadre de son <a href="https://www.smalsresearch.be/tag/data-quality/" target="_blank" rel="noopener">Data Quality Competency Center</a>. Depuis lors, plus de trente projets d&#8217;envergure ont mobilisé cet outil dans le cadre de la sécurité sociale belge et en dehors de celle-ci.</p>
<p>Nous proposons ici, sur la base de l&#8217;expérience acquise &nbsp;: </p>
<ul>
<li>de rappeler et d&#8217;illustrer les fonctionnalités les plus usitées de l&#8217;outil, ainsi que quelques bonnes pratiques;</li>
<li>d&#8217;annoncer plusieurs nouveautés qui sont autant d&#8217;extensions de l&#8217;outil dans le courant de cette année 2021.</li>
</ul>
<p><strong>1. Retour d&#8217;expérience&nbsp;: une approche curative très efficace en vue de traiter les problèmes de qualité au sein des bases de données</strong></p>
<p>En parallèle et en complément des approches préventives destinées à éviter en amont l&#8217;émergence de problèmes de qualité de données (&#8220;<a href="/data-quality-back-tracking-depuis-les-premieres-experimentations-a-la-parution-dun-arrete-royal/" target="_blank" rel="noopener">back tracking</a>&#8221; reposant sur un <a href="/data-quality-anomalies-transactions-management-system-atms-prototype-work-in-progress/" target="_blank" rel="noopener">ATMS, Anomalies and Transactions Management System</a>) à propos desquelles un article de blog a été publié respectivement en 2018 et en 2020 ainsi qu&#8217;un <a href="https://www.insee.fr/fr/information/5398691?sommaire=5398695" target="_blank" rel="noopener">article scientifique édité à Paris par le Courrier des Statistiques (Paris, INSEE, juillet 2021</a>), les &#8220;<a href="https://mastic.ulb.ac.be/2019/01/cours-conference-data-quality-tools-concepts-and-practical-lessons-from-a-vast-operational-environment-par-gani-hamiti-13-mars-2019-a-18-heures/" target="_blank" rel="noopener">data quality tools</a>&#8221; représentent une approche curative très efficace pour traiter les anomalies déjà présentes dans les bases de données (<em>Figure 1</em>).</p>
<p><img loading="lazy" decoding="async" class="alignleft wp-image-16640 size-full" src="/wp-content/uploads/2021/11/figure1-6.png" alt="" width="1314" height="738" srcset="https://www.smalsresearch.be/wp-content/uploads/2021/11/figure1-6.png 1314w, https://www.smalsresearch.be/wp-content/uploads/2021/11/figure1-6-300x168.png 300w, https://www.smalsresearch.be/wp-content/uploads/2021/11/figure1-6-768x431.png 768w, https://www.smalsresearch.be/wp-content/uploads/2021/11/figure1-6-1024x575.png 1024w" sizes="auto, (max-width: 1314px) 100vw, 1314px" /></p>
<p><em>Figure 1. Approches curatives et préventives. </em></p>
<p>Celle-ci est destinée à l’amélioration semi-automatique de la qualité des données&nbsp;:</p>
<ul>
<li>on the fly, &#8220;online&#8221;, par exemple dès la saisie d’un enregistrement dans le système (approche API, voir point relatif aux nouveautés)</li>
<li>en batch, par exemple en traitant périodiquement l’entièreté d’une ou plusieurs tables dans une base de données préexistante ou un ATMS .</li>
</ul>
<p>Généralement, les data quality tools couvrent une à trois des grandes familles de fonctionnalités présentées ici, l&#8217;outil acquis par Smals incluant les trois dans le cadre d&#8217;une suite comportant un grand nombre d&#8217;algorithmes de traitement de données génériques ou &#8220;ad hoc&#8221;. </p>
<p>Ceci est fondamental car l&#8217;expérience montre que ces trois fonctionnalités (<em>Figure 2</em>) sont interdépendantes de manière cyclique et itérative en synergie avec le business (qui doit être impliqué aux côté de l&#8217;IT, s&#8217;agissant d&#8217;un outil commercial demandant une importante courbe d&#8217;apprentissage). Nous les présentons brièvement&nbsp;:  </p>
<p><img loading="lazy" decoding="async" class="alignleft wp-image-16516 size-full" src="/wp-content/uploads/2021/10/schema-1.png" alt="" width="960" height="670" srcset="https://www.smalsresearch.be/wp-content/uploads/2021/10/schema-1.png 960w, https://www.smalsresearch.be/wp-content/uploads/2021/10/schema-1-300x209.png 300w, https://www.smalsresearch.be/wp-content/uploads/2021/10/schema-1-768x536.png 768w" sizes="auto, (max-width: 960px) 100vw, 960px" /></p>
<p><em>Figure 2&nbsp;: Profiling, standardisation et matching&nbsp;: les trois familles de fonctionnalités majeures et itératives.</em> </p>
<ul>
<li><strong>profiling</strong>&nbsp;: analyser qualitativement et quantitativement des données pour en évaluer la qualité, isoler ou quantifier des problèmes déjà connus mais dont l’ampleur n’a jamais été évaluée et, souvent, débusquer automatiquement et semi-automatiquement des problèmes inattendus. Exemple&nbsp;: distribution de la longueur des valeurs d’une colonne, inférence de type, vérification ou découverte de dépendances fonctionnelles ;</li>
<li><strong>standardisation</strong>&nbsp;: transformer les données en vue des les conformer à un standard défini avec le business ou à un référentiel existant (&#8220;data cleansing&#8221;), pouvant être fourni avec l’outil. Exemple&nbsp;: nettoyage et uniformisation de la représentation des numéros de téléphone, correction, enrichissement et validation d’adresses postales. L&#8217;outil acquis par Smals est particulièrement puissant dans cette dernière fonctionnalité qui couvre la Belgique et est en voie d&#8217;extension (voir nouveautés ci-dessous) ;</li>
<li><strong>comparaison, détection d&#8217;incohérences et dédoublonnage,</strong> via des algorithmes de <strong>matching</strong> (<a href="/publications/document/?docid=85" target="_blank" rel="noopener">qui se déclinent en familles bien spécifiques sur le plan théorique</a>)&nbsp;: détecter les duplicats et incohérences dans les enregistrements au sein d’un jeu de données ou entre plusieurs (issus potentiellement de bases de données distinctes, en vue d’une intégration ou dans le cadre d&#8217;un reengineering, par exemple). La comparaison se base sur des colonnes discriminantes et des algorithmes tolérants à l’erreur (mesure de la distance d’édition, comparaison de l’empreinte phonétique, etc.), déterminés avec le business. Les outils les plus avancés permettent ici de conserver et lier les enregistrements originaux pertinents (après validation par le Business) sans les écraser. Les meilleures valeurs identifiées pour chaque colonne serviront à construire le «survivor » ou « golden record », représentant chaque grappe ainsi repérée et utilisé pour dédoublonner le(s) jeu(x) de données si nécessaire. Notons que la problématique est telle que les règles d&#8217;établissement d&#8217;un &#8220;golden record&#8221; sont formalisées dans la loi ou dans des règlements administratifs pour certaines sources authentiques, telles que le Registre National ou la Banque Carrefour des Entreprises belges, par exemple. Enfin, vu le nombre de records à comparer entre eux et d&#8217;opérations associées, des<strong> mécanismes de gestion de la performance</strong> (&#8220;<strong>blocking</strong>&#8221; ou &#8220;<strong>windowing</strong>&#8220;) doivent être utilisés de manière itérative dans les opérations de matching d&#8217;envergure. </li>
</ul>
<p>Deux points importants&nbsp;:</p>
<ul>
<li>les fonctionnalités de &#8220;<strong>drill down</strong>&#8221; de l&#8217;outil permettent un échange aisé entre l&#8217;IT et le business quand des enquêtes intellectuelles doivent être réalisées sur des résultats donnés, comme le montrent les fonctionnalités de la figure 2, le drill down s&#8217;appliquant aussi au matching. </li>
<li>tout projet &#8220;data quality&#8221; doit être <strong>documenté</strong>, à différents niveaux de granularité, en fonction du public (IT ou business) visé ; cela vaut donc bien sûr pour les projets reposant sur des data quality tools.</li>
</ul>
<p>Typiquement, ces outils <strong>interviennent en « batch »</strong>, c’est-à-dire en ciblant, en différé, un ou plusieurs jeux de données déjà existants. Certains permettent cependant également d’intervenir plus en amont, en exposant ces fonctionnalités sous la forme d’une <strong>API</strong> que l’application peut appeler au cas par cas au moment où les données entrent dans le système. Nous revenons sur cette fonctionnalité au point suivant car il s&#8217;agit d&#8217;une nouveauté qui est en cours de standardisation dans la suite des fonctionnalités dont dispose Smals en complément du batch (<em>Figure 3</em>).</p>
<p><img loading="lazy" decoding="async" class="alignleft size-full wp-image-16578" src="/wp-content/uploads/2021/11/batch_principle.png" alt="" width="944" height="673" srcset="https://www.smalsresearch.be/wp-content/uploads/2021/11/batch_principle.png 944w, https://www.smalsresearch.be/wp-content/uploads/2021/11/batch_principle-300x214.png 300w, https://www.smalsresearch.be/wp-content/uploads/2021/11/batch_principle-768x548.png 768w" sizes="auto, (max-width: 944px) 100vw, 944px" /></p>
<p><em>Figure 3. Data Quality Tool&nbsp;: approche batch</em></p>
<p><strong>2. Nouveautés</strong></p>
<p><strong>2.1. Une REST API standardisée</strong></p>
<p>La suite de fonctionnalités Batch, fondamentale pour les gros volumes de données, est maintenant complétée par une REST API développée en 2020 et en cours de standardisation en 2021 (<em>Figure 4</em>). Celle-ci permet de transformer des valeurs en vue de les conformer à un standard défini (&#8220;data cleansing&#8221;), de détecter des incohérences ou de dédoublonner les données avant leur écriture dans la base et même, si besoin, de conditionner cette écriture par la réussite des opérations qui la précèdent. L’outil implémente ainsi effectivement un pare-feu de données complémentaire au système de détection d’anomalies déjà mis en place par l’application. L&#8217;API est par exemple utile pour la standardisation de numéros de téléphone, la validation d&#8217;adresse ou la vérification de l&#8217;existence de duplicats dans une base de données avant l&#8217;insertion d&#8217;un nouveau record. L&#8217;<a href="https://www.ict-reuse.be/fr/service/dataqualityimprovement-pour-adresse-et-numero-de-telephone" target="_blank" rel="noopener">API dataQualityImprovment</a> est documentée sur l&#8217;ict-reuse, au fil de son enrichissement. </p>
<p><img loading="lazy" decoding="async" class="alignleft size-full wp-image-16577" src="/wp-content/uploads/2021/11/api_principle.png" alt="" width="986" height="653" srcset="https://www.smalsresearch.be/wp-content/uploads/2021/11/api_principle.png 986w, https://www.smalsresearch.be/wp-content/uploads/2021/11/api_principle-300x199.png 300w, https://www.smalsresearch.be/wp-content/uploads/2021/11/api_principle-768x509.png 768w" sizes="auto, (max-width: 986px) 100vw, 986px" /></p>
<p><em>Figure 4. Data Quality Tool&nbsp;: REST API standardisée</em></p>
<p><strong>2.2. Une extension de la fonctionnalité de validation d&#8217;adresses à l&#8217;international via OpenStreetMap</strong></p>
<p>Une autre nouveauté en 2021 réside dans l&#8217;extension de la fonctionnalité de correction et de validation d&#8217;adresses. Particulièrement puissante pour la Belgique dans le Data Quality Tool dont dispose Smals, cette fonction est en cours d’extension pour inclure désormais les adresses internationales via OpenStreetMap, <a href="/geocodage-contourner-les-lacunes-dopenstreetmap-partie-2/">outil de cartographie Open Source et collaboratif pour lequel une API a été développée au sein de la section Recherche</a>.</p>
<p>La qualité des adresses traitées avec ce nouveau module pourra, selon les cas, être moindre que celle concernant les adresses belges, et la performance sera variable en fonction des projets. Cela dit, ce développement n&#8217;en demeure pas moins très intéressant pour toutes les bases de données incluant des adresses étrangères et demandant un traitement Batch ou via une REST API en ayant recours aux fonctionnalités du data quality tool évoquées plus haut. </p>
<p>La possibilité d&#8217;intégrer les données issues d&#8217;OpenStreetMap à l&#8217;outil dont dispose Smals permet également d&#8217;envisager, à moyen terme, la mise en place d&#8217;un service de géocodage en complément des fonctionnalités déjà existantes.</p>
<p><strong>2.3. Data quality et machine learning</strong></p>
<p>Dans un futur proche, les liens entre les &#8220;Data Quality Tools&#8221; et le Machine Learning seront envisagés pratiquement, notamment pour répondre aux deux questions suivantes&nbsp;:</p>
<ul>
<li>Comment améliorer la qualité des &#8220;Big Data&#8221; en amont afin de rendre les résultats du ML plus adéquats aux attentes des utilisateurs&nbsp;? Les données alimentant les modèles de ML se distinguent souvent tant par leur volume que par une certaine tolérance aux données aberrantes ; la qualité des données reste cependant un composant critique dans la construction de modèles fiables et durables.</li>
<li>Comment le ML peut-il enrichir le résultat de certains algorithmes au coeur des &#8220;Data Quality Tools&#8221; au regard du &#8220;fitness for use&#8221;&nbsp;? L&#8217;approche déterministe a l&#8217;avantage de fournir des résultats relativement prévisibles mais requiert une connaissance préalable des conditions précises auxquelles une opération (par exemple un &#8220;match&#8221; positif) peut avoir lieu ; il pourrait être intéressant d&#8217;étudier dans quelle mesure le recours à des algorithmes &#8220;apprenant&#8221; eux-mêmes ces conditions pourrait contribuer à des résultats encore plus précis.</li>
</ul>
<p> </p>
<p>En conclusion, le service Data Quality chez Smals ne cesse de s&#8217;étendre et les applications concrètes abondent. Un point de contact unique existe désormais pour toute question ou demande relative à ce sujet&nbsp;: dataquality@smals.be</p>
<hr />
<p><em data-rich-text-format-boundary="true">Ce post est une contribution collective d’Isabelle Boydens, Data Quality Expert chez Smals Research, Isabelle Corbesier et Gani Hamiti, Data Quality Analysts chez Smals, Databases Team. Cet article est écrit en leur nom propre et n’impacte en rien le point de vue de Smals.</em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Cours-conférence &#8220;Data Quality Tools&#8221;, ULB, 13 mars 2019, par Gani Hamiti, Smals</title>
		<link>https://www.smalsresearch.be/cours-conference-data-quality-tools-ulb-13-mars-2019-par-gani-hamiti-smals/</link>
		
		<dc:creator><![CDATA[Isabelle Boydens]]></dc:creator>
		<pubDate>Mon, 18 Feb 2019 15:20:22 +0000</pubDate>
				<category><![CDATA[News]]></category>
		<category><![CDATA[data quality]]></category>
		<category><![CDATA[Data Quality Tools]]></category>
		<guid isPermaLink="false">/?p=12587</guid>

					<description><![CDATA[Gani Hamiti donnera un cours-conférence à l’ULB le 13 mars 2019 de 18 heures à 20 heures, suivi d’une réception. Dans le cadre du cours STIC-B-510 « Qualité de l’information et des documents numériques » de la filière STIC de l’Université libre de Bruxelles, Gani Hamiti, Data Quality Analyst chez Smals, donnera un cours-conférence intitulé « Data Quality Tools&#160;: concepts and practical [&#8230;]]]></description>
										<content:encoded><![CDATA[
<div class="wp-block-image"><figure class="aligncenter"><img loading="lazy" decoding="async" width="610" height="121" src="/wp-content/uploads/2019/02/stic_ulb.png" alt="" class="wp-image-12736" srcset="https://www.smalsresearch.be/wp-content/uploads/2019/02/stic_ulb.png 610w, https://www.smalsresearch.be/wp-content/uploads/2019/02/stic_ulb-300x60.png 300w" sizes="auto, (max-width: 610px) 100vw, 610px" /></figure></div>



<p></p>



<p>Gani Hamiti donnera un cours-conférence à l’ULB le 13 mars 2019 de 18 heures à 20 heures, suivi d’une réception.</p>



<p>Dans le cadre du cours <a href="https://www.ulb.be/fr/programme/stic-b510" target="_blank" rel="noreferrer noopener" aria-label=" (opens in a new tab)">STIC-B-510</a> « <strong>Qualité de l’information et des documents numériques </strong>» de la filière STIC de l’Université libre de Bruxelles, <strong>Gani Hamiti</strong>, Data Quality Analyst chez <a rel="noreferrer noopener" aria-label=" (opens in a new tab)" href="https://www.smals.be/fr" target="_blank">Smals</a>, donnera un cours-conférence intitulé « <strong>Data Quality Tools&nbsp;: concepts and practical lessons from a vast operational environment</strong> ».</p>



<p>L’événement aura lieu le&nbsp;<strong>mercredi 13 mars 2019 de 18 heures à 20 heures</strong>&nbsp;à l’<strong>Université libre de&nbsp;Bruxelles</strong>.  L’exposé sera suivi d’une séance de <strong>questions-réponses</strong> ainsi que d’une <strong>réception</strong>.</p>



<p>Celui-ci s’adresse à un public multidisciplinaire. Le cours-conférence abordera, d’une part, l’analyse critique et l’amélioration de la qualité des bases de données auxquelles peuvent être confrontés des utilisateurs non-informaticiens.&nbsp; D’autre part, plusieurs fonctionnalités avancées des «&nbsp;data quality tools&nbsp;», parmi les plus élaborées à l’heure actuelle et parfois méconnues de la communauté IT, seront évoquées dans le cadre d’une approche rigoureuse reposant sur une expérience et des exemples concrets.</p>



<p>Le cours-conférence ainsi que l’orateur seront brièvement présentés par <strong><a rel="noreferrer noopener" label=" (opens in a new tab)" href="https://www.ulb.ac.be/cours/iboydens/" target="_blank">Isabelle Boydens</a></strong>, titulaire du cours <a href="https://www.ulb.be/fr/programme/stic-b510" target="_blank" rel="noreferrer noopener" aria-label=" (opens in a new tab)">STIC-B-510</a>, Professeur à l’Université libre de Bruxelles et <strong><a rel="noreferrer noopener" label=" (opens in a new tab)" href="https://www.smalsresearch.be/tag/data-quality/" target="_blank">Data quality Expert</a> </strong>au sein du <strong><a rel="noreferrer noopener" aria-label=" (opens in a new tab)" href="/" target="_blank">Département « Recherche » de Smals</a></strong>.</p>



<p></p>



<p>Vous trouverez sur le <strong><a rel="noreferrer noopener" label=" (opens in a new tab)" href="https://mastic.ulb.ac.be/2019/01/cours-conference-data-quality-tools-concepts-and-practical-lessons-from-a-vast-operational-environment-par-gani-hamiti-13-mars-2019-a-18-heures/" target="_blank">site web du Master en Sciences et Technologies de l&#8217;Information et de la Communication de l&#8217;ULB</a></strong> toutes les <strong>informations pratiques</strong> concernant le lieu, l’organisation ainsi que <strong>l’abstract de l’exposé</strong> et la biographie de l’orateur.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Gérer les doublons dans une Graph Database</title>
		<link>https://www.smalsresearch.be/gerer-les-doublons-dans-une-graph-database/</link>
		
		<dc:creator><![CDATA[Vandy Berten]]></dc:creator>
		<pubDate>Tue, 19 Dec 2017 07:44:45 +0000</pubDate>
				<category><![CDATA[[FR]]]></category>
		<category><![CDATA[Blog post]]></category>
		<category><![CDATA[data quality]]></category>
		<category><![CDATA[Data Quality Tools]]></category>
		<category><![CDATA[egov]]></category>
		<category><![CDATA[Graph Databases]]></category>
		<category><![CDATA[Information management]]></category>
		<category><![CDATA[methodology]]></category>
		<category><![CDATA[Neo4j]]></category>
		<category><![CDATA[Network Analytics]]></category>
		<guid isPermaLink="false">/?p=11184</guid>

					<description><![CDATA[Dans nos blogs précédents (1, 2, 3, 4), nous avons mis en évidence le fait que les structures de graphes étaient très adaptées à la recherche de comportement frauduleux. En étant plongés quotidiennement dans des données issues de diverses bases de données officielles, nous sommes également confrontés en permanence à la présence d&#8217;une grande quantité [&#8230;]]]></description>
										<content:encoded><![CDATA[<p style="text-align: justify;">Dans nos blogs précédents (<a href="/un-fraudeur-ne-fraude-jamais-seul/">1</a>, <a href="/un-fraudeur-ne-fraude-jamais-seul-partie-2/">2</a>, <a href="/bases-de-donnees-relationnelles-adequates-pour-des-relations/">3</a>, <a href="/graph-db-vs-rdbms/">4</a>), nous avons mis en évidence le fait que les structures de graphes étaient très adaptées à la recherche de comportement frauduleux. En étant plongés quotidiennement dans des données issues de diverses bases de données officielles, nous sommes également confrontés en permanence à la présence d&#8217;une grande quantité d&#8217;information de mauvaise qualité (<a href="/dix-bonnes-pratiques-pour-ameliorer-et-maintenir-la-qualite-des-donnees/">1</a>, <a href="/ameliorer-la-qualite-de-linformation-du-stemma-codicum-au-data-tracking/">2</a>). Nous allons voir dans ce blog comment des recherches de fraudes peuvent être réalisées même si les données déclarées sont de mauvaise qualité.</p>
<p style="text-align: justify;">Certaines parties de cet article, plus techniques, seront masquées. Si les détails vous intéressent, il vous suffira de cliquer sur les liens « Cliquer ici pour plus de détails », ou de c<span class="expandall">liquer ici pour montrer toutes les parties d&#8217;un seul coup.</span></p>
<p style="text-align: justify;">Supposons qu&#8217;un organisme public soit responsable de la gestion de la sous-traitance entre entreprises, et que, chaque fois qu&#8217;une entreprise fait appel à un sous-traitant, elle doive le déclarer auprès de cet organisme. Les données issues de ces déclarations peuvent alors être vues comme un graphe, dans lequel un nœud représente une entreprise, et une relation entre deux nœuds A et B, le fait que B est un sous-traitant de A. Si A sous-traite auprès de B, et B auprès de C, on notera cela de la façon suivante (en s&#8217;inspirant de la notation de <a href="https://www.neo4j.org">Cypher, langage de Neo4j</a>)&nbsp;:</p>
<pre style="text-align: center;">(A)--&gt;(B)--&gt;(C)</pre>
<p style="text-align: justify;">Imaginons une loi (un peu simpliste et fantaisiste) disant qu&#8217;une entreprise ne peut pas être sa propre sous-traitante, ni directement, ni indirectement. Les structures suivantes seraient donc considérées comme « frauduleuses »&nbsp;:</p>
<pre style="text-align: center;">(A)--&gt;(A)
(A)--&gt;(B)--&gt;(C)--&gt;(A)</pre>
<p style="text-align: justify;">Du point de vue de la théorie des graphes, on veut en fait s’assurer qu’il n’y a pas de cycle dans le graphe de description des sous-traitances, graphe étant dirigé, puisque les arcs ont une direction. On parle dès lors de <a href="https://fr.wikipedia.org/wiki/Graphe_orient%C3%A9_acyclique">« Graphe Dirigé Acyclique » (DAG)</a>. Le schéma ci-dessous montre une structure acceptable, dans laquelle aucune entreprise n’est son propre sous-traitant, même indirectement.</p>
<p style="text-align: justify;"><a href="/wp-content/uploads/2017/11/DAG.png"><img loading="lazy" decoding="async" class="wp-image-11207 size-full aligncenter" src="/wp-content/uploads/2017/11/DAG.png" alt="" width="505" height="222" srcset="https://www.smalsresearch.be/wp-content/uploads/2017/11/DAG.png 505w, https://www.smalsresearch.be/wp-content/uploads/2017/11/DAG-300x132.png 300w" sizes="auto, (max-width: 505px) 100vw, 505px" /></a></p>
<p style="text-align: justify;">En Cypher (dont la syntaxe a été brièvement présentée dans <a href="/graph-db-vs-rdbms/">notre article précédent</a>), en supposant que les entreprises soient de type « Company », et les relations de type « Subcontractor », on pourra écrire la requête suivante, qui retournera une entreprise, et le cycle dont elle fait partie&nbsp;:</p>
<pre style="text-align: left;">(1)    MATCH p=(a:Company)-[:Subcontractor*]-&gt;(a)
       RETURN a, p</pre>
<p style="text-align: justify;">Pour des raisons de performances, il sera souvent préférable de limiter la longueur des cycles&nbsp;: (a:Company)-[:Subcontractor*..5]-&gt;(a).</p>
<h1 style="text-align: justify;">Qualité des données</h1>
<p style="text-align: justify;">Supposons maintenant que le système de déclaration ne soit pas très contraignant, et que, quand une entreprise déclare une sous-traitance, elle ne soit pas obligée de donner un identifiant officiel de l&#8217;entreprise en question (un numéro d&#8217;entreprise ou d&#8217;employeur attribué par l&#8217;état), mais puisse se contenter d&#8217;en donner le nom, et éventuellement l&#8217;adresse. On peut donc avoir une situation dans laquelle (A) déclare correctement sa sous-traitance vers (B) (c&#8217;est-à-dire avec un numéro d&#8217;entreprise officiel), idem pour (B) envers (C), mais par contre, (C) déclare sa sous-traitance vers (A) sans en préciser l&#8217;identifiant, mais uniquement le nom. On aura dans la base de données associée à la déclaration, deux nœuds, avec les attributs suivants&nbsp;:</p>
<ul style="text-align: justify;">
<li>(A)&nbsp;: ID&nbsp;: 12345, Nom&nbsp;: « Mon Entreprise SA »</li>
<li>(A&#8217;)&nbsp;: ID&nbsp;: &lt;vide&gt;, Nom&nbsp;: « Mon Entreprise SA »</li>
</ul>
<p style="text-align: justify;">L&#8217;organisme récoltant les données n&#8217;a ici aucun moyen de s&#8217;assurer que les entreprises (A) et (A&#8217;) sont en fait la même entreprise. Il existe des multitudes de synonymes d&#8217;entreprise. On trouve des « Coiffeur Rolland » dans bon nombre de villes, et les boulangeries « La baguette dorée » sont légion.</p>
<p style="text-align: justify;">La cycle ci-dessus devient alors une chaîne (non fermée)&nbsp;: (A)&#8211;&gt;(B)&#8211;&gt;(C)&#8211;&gt;(A&#8217;) , et la recherche évoquée plus haut ne permet plus de détecter le comportement frauduleux.</p>
<h1 style="text-align: justify;">L&#8217;approche classique</h1>
<p style="text-align: justify;">Une approche classique de ce problème consiste à utiliser des outils de « Data Quality » (comme l’outil open-source <a href="https://openrefine.org/">OpenRefine</a>, ou le logiciel commercial <a href="https://www.trilliumsoftware.com/">Trillium</a> aux fonctionnalités beaucoup plus avancées), pour, en fonction de critères définis, fusionner certains enregistrements de la base de données. On peut par exemple décider que si on trouve deux enregistrements avec exactement le même nom d’entreprise, se trouvant dans la même rue, on les fusionne en considérant qu’il s’agit de la même entreprise. On peut par ailleurs décider que si les deux noms sont similaires, mais ont la même adresse, alors on les fusionne également.</p>
<p style="text-align: justify;">Les outils, en particulier les suites professionnelles comme Trillium, permettent de définir finement le degré de proximité que l&#8217;on acceptera entre deux dénominations ou adresses (ou, plus généralement, toute information) pour les considérer comme « identiques » (on ne va pas uniquement considérer des chaînes de caractères exactement identiques). Par ailleurs, nous n&#8217;évoquons ici que la problématique de la détection de (présomption de) doublons&nbsp;: le domaine de la « Data Quality » s&#8217;intéresse à bien d&#8217;autres aspects&nbsp;: incohérence de données, comparaison entre différentes sources, profilage des données, standardisation&#8230;</p>
<p style="text-align: justify;">Notons qu’on va souvent effectuer cette fusion non pas dans les données de production, mais dans une copie servant à faire des analyses et des recherches de fraude.</p>
<p style="text-align: justify;">Mais cette approche, très efficace dans de nombreuses situations, a principalement deux limites&nbsp;:</p>
<ul style="text-align: justify;">
<li style="text-align: justify;">Elle permet de fusionner des informations tabulaires plates (une entreprise avec un nom, une adresse, éventuellement une catégorie d’entreprise, le nom du gérant, voire des dates de création ou autres événements), mais est plus complexe pour des structures plus élaborées. On s’en sort encore sans trop de dommages si on considère que chaque entreprise peut avoir plusieurs adresses (correspondant à plusieurs implantations, ou à l’historique du siège principal), mais si l’on veut considérer, en l’absence d’adresse, les travailleurs communs aux « deux » entreprises, ou les administrateurs (ou autres client, fournisseur…), cette approche relativement statique n’est plus tenable.</li>
<li style="text-align: justify;">Elle impose de choisir, avant l’analyse des données, les critères de fusion. Or il s’avère parfois utile de faire ce choix plus tard dans l’analyse, soit parce que, en fonction de l’analyse, on veut être plus ou moins stricte sur la façon de faire cette fusion, soit parce que, dans une analyse particulière, on veut identifier un schéma passant par plusieurs « chemin de duplicatas », n’ayant pas tous le même degré de certitude.</li>
</ul>
<p style="text-align: justify;">Nous proposons dès lors une approche qui combine à la fois les possibilités offertes par les bases de données orientées graphes (« Graph Databases ») et les outils de gestion de qualité de données (« Data Quality tools »).</p>
<h1 style="text-align: justify;">Une autre approche</h1>
<p style="text-align: justify;">L’approche que nous décrivons ici permet de traiter les doublons d’entreprises, mais une approche très similaire pourra être utile pour détecter les doublons de personnes, ou de toute autre entité.</p>
<p style="text-align: justify;">La première étape de notre approche consistera à identifier les entreprises dont le nom est identique, ou similaire (selon un niveau d&#8217;exigence que l&#8217;on peut définir). Dans cette première étape, on ne considère que le nom de l’entreprise, et pas les autres attributs (adresses, travailleurs…)</p>
<p style="text-align: justify;"><span class="collapseomatic " id="id69d7cef3caaf9"  tabindex="0" title="Cliquer ici pour plus de détails à propos de cette première étape."    >Cliquer ici pour plus de détails à propos de cette première étape.</span><div id="target-id69d7cef3caaf9" class="collapseomatic_content "></p>
<p style="text-align: justify;">Pour cette étape, l’utilisation d’un outil de « Data Quality » pourra s’avérer être un allié précieux. On peut cependant effectuer avec des outils classiques (R, Python avec Pandas…) de traitement de données une partie (basique) de ces opérations. Supposons deux enregistrements avec pour nom « Ma Société S.A. », et « MA SOCIETE ». Nous effectuons les opérations suivantes sur ces deux chaînes de caractères&nbsp;:</p>
<ul style="text-align: justify;">
<li style="text-align: justify;">Mettre tous les noms en majuscules&nbsp;: « MA SOCIÉTÉ S.A. » et « MA SOCIETE »</li>
<li style="text-align: justify;">Enlever tous les accents et autres signes diacritiques (cédilles, trémas…)&nbsp;: « MA SOCIETE S.A. » et « MA SOCIETE »</li>
<li style="text-align: justify;">Enlever les symboles non-alpha numériques&nbsp;: « MA SOCIETE SA » et « MA SOCIETE »</li>
<li style="text-align: justify;">Enlever les formes légales (SA, SARL, SPRL…)&nbsp;: « MA SOCIETE » et « MA SOCIETE »</li>
</ul>
<p style="text-align: justify;">Notons que pour cette dernière étape, il faudra être prudent&nbsp;: il est fréquent qu’une entreprise, pour diverses raisons, se sépare en plusieurs entités juridiquement distinctes, mais portant le même nom (mise à part éventuellement la forme légale rajoutée en suffixe). Pour certaines analyses, il est important de considérer qu’il s’agit bien de deux entreprises ; pour d’autres, en revanche, on préférera les traiter comme une même entité. Plutôt que de supprimer la forme légale, on peut préférer la déplacer dans un champ distinct.</p>
<p style="text-align: justify;">On peut aller encore un peu plus loin avec des approches plus « fuzzy », permettant d’accepter des fautes de frappe&nbsp;: « Ma Société » et « Ma Socéité » ne donneront pas la même version « nettoyée », mais sont néanmoins très proches. Avec des méthodes telles que les distances de <a href="https://fr.wikipedia.org/wiki/Distance_de_Levenshtein">Levenshtein</a> ou de <a href="https://fr.wikipedia.org/wiki/Distance_de_Jaro-Winkler">Jaro-Winkler</a>, souvent utilisées avec une méthode de regroupement comme le <a href="https://fr.wikipedia.org/wiki/Metaphone">Metaphone</a> ou le <a href="https://fr.wikipedia.org/wiki/Soundex">Soundex</a>. Nous ne donnerons pas plus de détails ici, mais un outil comme Trillium permet des stratégies bien plus élaborées que ce que nous décrivons ici.</p>
<p style="text-align: justify;"></div></p>
<p style="text-align: justify;">Après ces étapes de nettoyage, toutes les entreprises (ou plus précisément tous les enregistrements d’entreprise) dont le nom est considéré comme identique ou presque, seront regroupées (mais pas fusionnés). Dans notre base de données, on créera alors un nœud d’un nouveau type (nous avions déjà implicitement un type de nœud « Company »), que nous appellerons « Denomination_group »</p>
<p style="text-align: justify;"><a href="/wp-content/uploads/2017/11/Denomination_group.png"><img loading="lazy" decoding="async" class="wp-image-11210 size-full aligncenter" src="/wp-content/uploads/2017/11/Denomination_group.png" alt="" width="509" height="302" srcset="https://www.smalsresearch.be/wp-content/uploads/2017/11/Denomination_group.png 509w, https://www.smalsresearch.be/wp-content/uploads/2017/11/Denomination_group-300x178.png 300w" sizes="auto, (max-width: 509px) 100vw, 509px" /></a></p>
<h1 style="text-align: justify;">Gestion des adresses</h1>
<p style="text-align: justify;">En parallèle avec cette gestion de dénomination, il s’agira également de traiter les adresses dont on dispose pour une entreprise. Il peut s’agir d’une seule adresse, mais également de plusieurs adresses par entreprise, soit parce que celle-ci dispose de plusieurs sites, soit parce que l’on dispose de l’historique des adresses.</p>
<p style="text-align: justify;"><span class="collapseomatic " id="id69d7cef3cab86"  tabindex="0" title="Cliquer ici pour plus de détails à propos de la qualité des adresses"    >Cliquer ici pour plus de détails à propos de la qualité des adresses</span><div id="target-id69d7cef3cab86" class="collapseomatic_content "></p>
<p style="text-align: justify;">Un problème que l’on rencontre presque systématiquement quand des adresses sont collectées, en particulier lorsqu&#8217;elles viennent de pays différents, est leur absence de normalisation. Une même adresse pourra être écrite dans un enregistrement « Avenue Fonsny, 20, 1060 Saint-Gilles, Belgique », puis « Av. Fonsny, 20-22, 1060 Bruxelles, Belgique ». Nous avons par ailleurs en Belgique, et en particulier à Bruxelles, la difficulté supplémentaire que les adresses peuvent être écrites dans deux langues&nbsp;: « Fonsnylaan 20, 1060 Brussel ». Pour éviter de passer à côté d’un grand nombre d’erreurs, il est indispensable, pour effectuer ce nettoyage, de passer par un outil adapté (comme par exemple Trillium). Ces outils disposent de bases de connaissance permettant même de corriger des adresses erronément introduites, comme par exemple « Avenue Fonsny 20, 1160 Bruxelles » (au lieu de 1060).</p>
<p style="text-align: justify;"></div></p>
<p style="text-align: justify;">Une fois les adresses normalisées, on va considérer dans notre base de données un nœud par rue, et un lien (avec en attribut le numéro de la boite) entre une entreprise et la rue où celle-ci a un siège.<br />
Nous pourrions éventuellement considérer un nœud par adresse (et non par rue), mais cela fera exploser le nombre de nœuds, et donnera moins de souplesse par la suite, comme nous le verrons plus loin.</p>
<p style="text-align: justify;"><a href="/wp-content/uploads/2017/11/MaSociete.png"><img loading="lazy" decoding="async" class="alignleft wp-image-11212 size-full" src="/wp-content/uploads/2017/11/MaSociete.png" alt="" width="570" height="368" /></a></p>
<h1 style="text-align: justify;">Autres liens</h1>
<p style="text-align: justify;">On peut imaginer qu’un organisme dispose d’autres informations. Par exemple, un système dans lequel les entreprises doivent déclarer leurs travailleurs, et où le contrôle au niveau de l’entreprise est faible (ce qui est typiquement le cas des travailleurs « détachés », ayant leur employeur dans un pays A, mais travaillant – généralement temporairement – dans un pays B. Ils doivent alors être déclarés dans le pays B, mais qui peut alors difficilement imposer un système d’identification standardisé).<br />
Dans de tels cas, on pourrait utiliser les travailleurs comme entités supplémentaires. On peut aussi se servir des administrateurs ou des gérants si l’on dispose de ce type d’information.</p>
<h1 style="text-align: justify;">Combiner noms et adresses</h1>
<p style="text-align: justify;">Considérons maintenant plusieurs enregistrements dans notre base de données de sous-traitance. Nous supposons que « Ma Société » a déménagé, on trouve donc des données à deux adresses différentes&nbsp;:</p>
<table>
<thead>
<tr>
<td></td>
<td><strong>ID national</strong></td>
<td><strong>Dénomination</strong></td>
<td><strong>Adresse</strong></td>
</tr>
</thead>
<tbody>
<tr>
<td>1</td>
<td></td>
<td>Ma société S.A</td>
<td>Avenue Fonsny 20</td>
</tr>
<tr>
<td>2</td>
<td></td>
<td>MA SOCIETE</td>
<td>Boulevard Industriel 25</td>
</tr>
<tr>
<td>3</td>
<td>1234</td>
<td>Ma Société</td>
<td>Avenue Fonsny 20</td>
</tr>
<tr>
<td>4</td>
<td>1234</td>
<td>Ma Société</td>
<td>Boulevard Industriel 25</td>
</tr>
</tbody>
</table>
<p style="text-align: justify;">On aura dans notre base de données graphes trois nœuds « Company »&nbsp;: (-, « Ma société S.A »), (-, « MA SOCIETE »), et (1234, « Ma Société »), et deux rues&nbsp;: « Avenue Fonsny » et « Boulevard Industriel » (nous supposons que les adresses ont été normalisées au préalable), comme on peut le voir dans la figure ci-dessus.</p>
<p style="text-align: justify;">Les versions nettoyées des trois sociétés donnent la même chaîne de caractères, et seront regroupées autour d’un nœud « Denomination_group », comme le montre le schéma ci-dessus.</p>
<p style="text-align: justify;">On pourra maintenant rechercher un cycle entre deux compagnies A1 et A2, avec de forts soupçons de doublons.</p>
<pre style="text-align: justify;">(2)    MATCH
      (A1:Company)-[:Subcontractor*]-&gt;(A2:Company),
      (A1)--&gt;(:Denomination_group)&lt;--(A2),
      (A1)--&gt;(:Street)&lt;--(A2)
      RETURN …</pre>
<p style="text-align: justify;">La première ligne indique donc qu’il y a un chemin de sous-traitance entre A1 et A2 ; la seconde que A1 et A2 portent le même nom (après nettoyage, ou éventuellement après application d’un algorithme tel que la distance de Levenshtein), et la troisième que A1 et A2 sont renseignées dans la même rue.</p>
<p style="text-align: justify;"><a href="/wp-content/uploads/2017/11/GlobalSchema.png"><img loading="lazy" decoding="async" class="size-full wp-image-11215 aligncenter" src="/wp-content/uploads/2017/11/GlobalSchema.png" alt="" width="503" height="591" srcset="https://www.smalsresearch.be/wp-content/uploads/2017/11/GlobalSchema.png 503w, https://www.smalsresearch.be/wp-content/uploads/2017/11/GlobalSchema-255x300.png 255w" sizes="auto, (max-width: 503px) 100vw, 503px" /></a></p>
<p style="text-align: justify;">Dans le schéma ci-dessus, la requête (1) plus haut aurait retourné la chaîne</p>
<p style="text-align: justify;">(C1)&#8211;&gt;(C2)&#8211;&gt;(C3)&#8211;&gt;(C1).</p>
<p style="text-align: justify;">La requête (2) retournera quant à elle</p>
<p style="text-align: justify;">(C10)&#8211;&gt;(C3)&#8211;&gt;(C1)&#8211;&gt;(C2)&#8211;&gt;(C9),</p>
<p style="text-align: justify;">avec D1 comme nœud « Denomination_group » et S1 comme « Street », A1 et A2 correspondant respectivement à C10 et C9.</p>
<p style="text-align: justify;"><span class="collapseomatic " id="id69d7cef3cabb0"  tabindex="0" title="Cliquer ici pour plus de détails à propos des adresses identiques"    >Cliquer ici pour plus de détails à propos des adresses identiques</span><div id="target-id69d7cef3cabb0" class="collapseomatic_content "></p>
<p style="text-align: justify;">La requête (2) ci-dessus explicite qu&#8217;il est suffisant que deux entreprises de même nom (ou presque) partagent la même rue pour être considérées comme des doublons. Si l&#8217;on veut être plus sévère, et imposer exactement la même adresse (après standardisation), il suffira de rajouter une contrainte sur les relations entre les nœuds « Company » et les nœuds « Street », imposant le même numéro de maison&nbsp;:</p>
<pre style="text-align: justify;">(2bis) MATCH
      (A1:Company)-[:Subcontractor*]-&gt;(A2:Company),
      (A1)--&gt;(:Denomination_group)&lt;--(A2),
      (A1)-[str1:Address]-&gt;(:Street)&lt;-[str2:Address]-(A2)
      <span style="color: #0000ff;">WHERE str1.NUMBER = str2.NUMBER</span>
      RETURN …</pre>
<p style="text-align: justify;"></div></p>
<p style="text-align: justify;">On peut aussi imaginer que l’on va considérer comme fortement suspect deux entreprises de même nom, ayant un même sous-traitant (sans considérer les adresses, qui pourraient être souvent manquantes)&nbsp;:</p>
<pre>(3)     MATCH
       (A1:Company)-[:Subcontractor*]-&gt;(A2:Company),
       (A1)--&gt;(: Denomination_group)&lt;--(A2),
       (A1)- [:Subcontractor]-&gt;(B:Company)&lt;- [:Subcontractor]-(A2)
        RETURN …
</pre>
<p style="text-align: justify;">Cette requête retournera alors</p>
<p style="text-align: justify;">(C6)&#8211;&gt;(C1)&#8211;&gt;(C2)&#8211;&gt;(C3)&#8211;&gt;(C4),</p>
<p style="text-align: justify;">C5 correspondant à B, et D3 au « Denomination_group ».</p>
<p style="text-align: justify;"><span class="collapseomatic " id="id69d7cef3cabdf"  tabindex="0" title="Cliquer ici pour voir comme gérer plusieurs duplicatas"    >Cliquer ici pour voir comme gérer plusieurs duplicatas</span><div id="target-id69d7cef3cabdf" class="collapseomatic_content "></p>
<p style="text-align: justify;">Notons que dans les deux requêtes ci-dessus, une seule entreprise de la chaîne peut avoir été mal encodée (une fois en A1, une fois en A2). Il n’est pas très difficile d’imaginer une requête où deux entreprises de la chaîne sont dédoublées. On peut même appliquer une contrainte différente dans les deux doublons&nbsp;:</p>
<pre>(4)     MATCH
       (A1:Company)-[:Subcontractor*]-&gt;(B1:Company) --&gt;(:Duplication_group)
           &lt;-- (B2:Company)-[:Subcontractor*]-&gt;(A2:Company),
       (A1)--&gt;(:Duplication_group)&lt;--(A2),
       (A1)--&gt;(:Street)&lt;--(A2)
       RETURN …</pre>
<p style="text-align: justify;">Dans cette requête, on se satisfait du fait que B1 et B2 aient le même nom, par contre on imposera en plus à A1 et A2 d’avoir également la même adresse. Cette requête n’aurait pas été possible si l’on avait dû décider au préalable des règles à appliquer pour déterminer des doublons, et les règles auraient dès lors dues être les mêmes pour A1 vs A2 que pour B1 vs B2. On laisse ensuite à un être humain le soin de déterminer, en fonction de sa connaissance métier et d&#8217;information qui ne seraient pas dans la base de données, si B1 et B2 sont effectivement des enregistrements correspondant à la même entreprise.</p>
<p style="text-align: justify;">Dans le schéma ci-dessus, la première ligne correspond au chemin</p>
<p style="text-align: justify;">(C10)&#8211;&gt;(C3)&#8211;&gt;(C1)&#8211;&gt;(C7)&#8211;&gt;(D2)&lt;&#8211;(C8)&#8211;&gt;(C2)&#8211;&gt;(C9)</p>
<p style="text-align: justify;">(avec A1&nbsp;: C10, B1&nbsp;: C7, B2&nbsp;: C8 et A2&nbsp;: C9).</p>
<p style="text-align: justify;"></div></p>
<h1 style="text-align: justify;">Technique hybrides</h1>
<p style="text-align: justify;">Plutôt que de gérer la totalité des doublons dans la base de données graphes, en se servant uniquement des Data Quality tools pour corriger les adresses et détecter les homonymes d&#8217;entreprises, on peut aussi considérer une technique hybride. On peut par exemple considérer une première phase, basée sur un Data Quality tool, de fusion de tous les enregistrements qui constituent à coup sûr un doublon (ou avec un niveau de certitude choisi)&nbsp;: par exemple, exactement la même dénomination, exactement la même adresse (les outils avancés permettent bien sûr de faire des choses bien plus complexes que ceci, gérant des dénominations similaires plutôt qu&#8217;exactes). Nous avons par exemple dans une base de données que nous exploitons plus de 1000 fois la même entreprise décrite, avec le même nom et la même adresse (mais où le numéro d&#8217;entreprise n&#8217;a pas été déclaré).</p>
<p style="text-align: justify;">Les données ainsi « compactées » pourront alors être intégrées dans une base de données graphe, dans laquelle on recherchera des structures de doublons plus complexes (en se servant également d&#8217;autres informations, comme les travailleurs ou mandataires communs, ou plus généralement le voisinage), ou plus faible.</p>
<p style="text-align: justify;">On pourrait aussi utiliser les techniques décrites ci-dessus pour fusionner, directement dans la base de données graphe, tous les nœuds considérés comme des doublons. Cela permettra de simplifier les requêtes par la suite, tout en permettant de garder une certaine souplesse&nbsp;: on fusionnera uniquement les cas « sûrs » (selon des critères que l&#8217;on devra définir), et laissera la possibilité de considérer des doublons moins certains dans les requêtes.</p>
<h1 style="text-align: justify;">Conclusion</h1>
<p style="text-align: justify;">Notre expérience dans la lutte contre la fraude nous a montré ces dernières années qu&#8217;il est primordial de tenir compte de la qualité des données sur lesquelles on travaille. Mais elle nous a aussi montré que, dans le cadre d&#8217;un travail de « datamining », traiter la totalité de la problématique de qualité en amont, dans une phase de pré-traitement, n&#8217;est pas toujours optimal. Le degré de certitude exigé peut varier d&#8217;une analyse à l&#8217;autre et une certaine souplesse peut être nécessaire dans des phases plus avancées.</p>
<p style="text-align: justify;">Néanmoins, en aucun cas il ne sera envisageable de se passer des outils de Data Quality&nbsp;:</p>
<ul>
<li style="text-align: justify;">Nous n&#8217;évoquons ici que l&#8217;aspect « détection de (présomption de) doublons » ; les outils de Data Quality ont de nombreuses autres fonctionnalités indispensables.</li>
<li style="text-align: justify;">Notre approche suppose que l&#8217;on est capable de déterminer que deux dénominations d&#8217;entreprises sont « considérées comme identiques », même s&#8217;il y a des différentes orthographiques ou syntaxiques. Si l&#8217;on veut pour ce faire utiliser des méthodes plus avancées que des simples distances de Levenshtein, l&#8217;utilisation d&#8217;outil adapté sera nécessaire.</li>
<li style="text-align: justify;">Nous supposons également que nous sommes capable d&#8217;identifier que deux adresses sont identiques, ce qui est bien plus complexe que de vérifier la similitude entre deux chaînes de caractères. Pour cette tâche, l&#8217;utilisation d&#8217;outils disposant de base de connaissance sera indispensable.</li>
</ul>
<p style="text-align: justify;">L&#8217;approche que nous proposons ici permet de combiner, pour la problématique du dédoublonnage et dans le cadre d&#8217;une analyse effectuée sur une base de données graphe, travail partiel de Data Quality en pré-traitement et analyse métier tenant compte des résultats obtenus. L&#8217;idée générale sera d&#8217;appliquer le principe de « Keep the power where it belongs »&nbsp;: combiner de façon optimale un outil de Data Quality (pour la comparaison de contenus textuels) et Graph Database (pour l&#8217;exploitation des relations).</p>
<p style="text-align: justify;">En appliquant cette méthodologie sur des cas concrets, de multiples cas problématiques (c&#8217;est-à-dire des suspicions de fraude) ont pu être trouvés et soumis à divers services d&#8217;inspection, que des analyses plus classiques n&#8217;avaient jusqu&#8217;ici pas permis de déceler.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Data simplification and abstraction (Part II)&#160;: pistes opérationnelles &#038; ROI</title>
		<link>https://www.smalsresearch.be/data-simplification-and-abstraction-part-ii-pistes-operationnelles-roi/</link>
		
		<dc:creator><![CDATA[Isabelle Boydens]]></dc:creator>
		<pubDate>Wed, 28 Oct 2015 06:51:07 +0000</pubDate>
				<category><![CDATA[Blog post]]></category>
		<category><![CDATA[data governance]]></category>
		<category><![CDATA[data quality]]></category>
		<category><![CDATA[Data Quality Tools]]></category>
		<category><![CDATA[Database Modelling]]></category>
		<category><![CDATA[egov]]></category>
		<category><![CDATA[Information management]]></category>
		<category><![CDATA[Master Data Management]]></category>
		<guid isPermaLink="false">/?p=9000</guid>

					<description><![CDATA[Dans son rapport publié le 27 août 2015, l&#8217;ASA (Agence pour la Simplification Administrative) &#8211; DAV (Dienst Administratieve Vereenvouding) indique que les &#8220;les charges administratives ont connu une diminution globale en 2014 d&#8217;environ 400 millions d&#8217;euros&#8221; en Belgique, notamment via l&#8217;adoption de nouvelles réglementations et l&#8217;utilisation croissante de la facturation électronique. Nous proposons d&#8217;aborder ici un [&#8230;]]]></description>
										<content:encoded><![CDATA[<p style="text-align: justify;">Dans son rapport publié le 27 août 2015,<a href="https://www.simplification.be/actualites/les-charges-administratives-ont-baisse-d%E2%80%99environ-400-million-d%E2%80%99euros-en-2014" target="_blank"> l&#8217;ASA (<em>Agence pour la Simplification Administrative</em>) &#8211; DAV (Dienst Administratieve Vereenvouding</a>) indique que les &#8220;<strong>les charges administratives ont connu une diminution globale en 2014 d&#8217;environ 400 millions d&#8217;euros</strong>&#8221; en Belgique, notamment via l&#8217;adoption de <strong>nouvelles réglementations</strong> et l&#8217;utilisation croissante <strong>de la facturation électronique</strong>. Nous proposons d&#8217;aborder ici un ensemble de &#8220;bonnes pratiques&#8221; concrètes en vue de simplifier dans ce sens la gestion des données administratives. A cet égard, des <strong>systèmes de mesure du ROI</strong>, tels que le <a href="https://www.simplification.be/content/modele-de-mesure-kafka" target="_blank">modèle Kafka</a> et le modèle AIR (évoqué plus bas) développés par l&#8217;ASA-DAV sont des préalables indispensables.</p>
<p style="text-align: justify;"><a href="/wp-content/uploads/2015/09/RiverMap.png"><img loading="lazy" decoding="async" class="alignleft wp-image-9003" src="/wp-content/uploads/2015/09/RiverMap.png" alt="RiverMap" width="336" height="258" srcset="https://www.smalsresearch.be/wp-content/uploads/2015/09/RiverMap.png 676w, https://www.smalsresearch.be/wp-content/uploads/2015/09/RiverMap-300x230.png 300w" sizes="auto, (max-width: 336px) 100vw, 336px" /></a>Comme nous l&#8217;avons vu dans <a href="/data-simplification-and-abstraction-part-i/" target="_blank">la première partie de ce post</a>, il n’y a jamais de projection biunivoque nécessaire entre un domaine d’application empirique et le système d&#8217;information correspondant. La métaphore de la carte et du territoire proposée par l&#8217;informaticien William Kent en fournit une illustration imagée dans son excellent ouvrage &#8220;<em>Data and reality. Basic Assumption in Data Processing Reconsidered</em>&#8221; :</p>
<p style="text-align: justify;"><em>“A message to mapmakers&nbsp;: h</em><em>ighways are not painted red. </em><em>Rivers don’t have county lines running down the middle a</em><em>nd you can’t see contour lines on a mountain.” </em>(I) <em> </em></p>
<p style="text-align: justify;">Comme Kent l&#8217;indique, le processus de généralisation et d&#8217;abstraction d&#8217;une réalité est toutefois indispensable en vue de conférer un pouvoir opérationnel aux données dans le contexte informatique. Nous avons observé de ce fait, à travers la notion de &#8220;temporalités étagée&#8221;, qu&#8217;il y a, dans le domaine de l&#8217;administration publique, des interactions permanentes entre l&#8217;évolution asynchrone des trois ordres de réalité suivants&nbsp;:</p>
<ul style="text-align: justify;">
<li>les textes légaux;</li>
<li>les systèmes d&#8217;information administratifs censés les représenter et en assurer la mise en oeuvre opérationnelle</li>
<li>et, enfin, de la réalité correspondante, le monde de la population assujetie à la législation.</li>
</ul>
<p style="text-align: justify;">La prise en compte de ces trois niveaux de réalité hétérogènes et de leurs interactions permet d&#8217;avoir une vue d&#8217;ensemble sur les données, préalable indispensable en vue d&#8217;en envisager la simplification. Nous en avons présenté, sur la base d&#8217;exemples dans la partie I de ce post, une schématisation originale référencée ci-dessous. Ce modèle,  que nous avons proposé pour la première fois dans (Boydens I., &#8220;<em>Informatique, normes et temps&#8221;</em>, &#8230; voir II) est cité et développé par David Bade, de l&#8217;Université de Chicago, dans sa recension parue en 2011 (III)  et fut récemment appliqué à grande échelle et cité lors de la  &#8220;<a href="https://www.springer.com/gp/book/9783319136738" target="_blank">Metadata and Semantics Research &#8211; 8th Research Conference, MTSR 2014</a>&#8220;, qui s&#8217;est tenue à Karlsruhe (VII).<span class="Apple-converted-space"><span style="font-family: Arial;"> </span></span>Celle-ci permet de formuler des recommandations opérationnelles afin de simplifier et faciliter la gestion des données que nous allons présenter ici.</p>
<p style="text-align: justify;"><a href="/wp-content/uploads/2015/06/tempoeta.png"><img loading="lazy" decoding="async" class=" wp-image-8587 aligncenter" src="/wp-content/uploads/2015/06/tempoeta.png" alt="tempoeta" width="602" height="319" /></a></p>
<p style="text-align: center;"><strong><em>Transformation mechanisms to interpret administrative data</em></strong><span style="font-family: Arial;"><span class="Apple-converted-space"> </span></span></p>
<p style="text-align: center;"><span style="font-family: Arial;">(source</span><em><span style="font-family: Arial;"><span class="Apple-converted-space"> </span>:</span><span class="Apple-converted-space"><span style="font-family: Arial;"> </span></span></em>I. Boydens, &#8220;Strategic Issues Relating to Data Quality for E-government: Learning from an Approach Adopted in Belgium<em>&#8220;.<span class="Apple-converted-space"><span style="font-family: Arial;"> </span></span></em>In Assar S., Boughazala I. et Boydens I., éds.<em>, &#8220;Practical Studies in E-Government&nbsp;: Best Practices from Around the World&#8221;,<span class="Apple-converted-space"><span style="font-family: Arial;"> </span></span></em>New York, Springer, 2011, p. 120.)<span class="Apple-converted-space"> </span></p>
<p style="text-align: justify;"><strong>I. Approche pragmatique&nbsp;: synergies et collaborations</strong></p>
<p style="text-align: justify;">Théoriquement, afin de faciliter et de simplifier la gestion d&#8217;un tel ensemble,<strong> deux positions extrêmes</strong> et caricaturales pourraient être formulées &nbsp;:</p>
<ul style="text-align: justify;">
<li>L&#8217;informatique, au service du législateur, peut tout faire, quelle que soit la complexité des lois, leur enchevêtrement au fil des ans et la quantité d&#8217;exceptions (point de vue juridique extrême)</li>
<li>Si la loi était formulée de manière logique et univoque, sous une forme statique, déterministe et algébrique, aucun problème de qualité et d&#8217;interprétation de données ne se poserait sur le plan opérationnel (point de vue informatique extrême).</li>
</ul>
<p style="text-align: justify;">Face à ces deux assertions, il est possible de répondre que, d&#8217;une part, l&#8217;informatique ne peut pas tout modéliser à n&#8217;importe quel coût et que l&#8217;abondance d&#8217;exceptions et de définitions hétérogènes est ingérable pratiquement. Et d&#8217;autre part, nous pouvons affirmer que la loi doit nécessairement traiter une réalité complexe et évolutive, avec l&#8217;évolution parfois imprévisible des moeurs et des droits sociaux, au fil des négociations entre partenaires, réalité qui ne peut répondre a priori a un formalisme purement logique.</p>
<p style="text-align: justify;"><a href="/wp-content/uploads/2015/06/datapuzzle.jpg"><img loading="lazy" decoding="async" class="alignleft wp-image-8581" src="/wp-content/uploads/2015/06/datapuzzle.jpg" alt="datapuzzle" width="369" height="246" srcset="https://www.smalsresearch.be/wp-content/uploads/2015/06/datapuzzle.jpg 640w, https://www.smalsresearch.be/wp-content/uploads/2015/06/datapuzzle-300x200.jpg 300w" sizes="auto, (max-width: 369px) 100vw, 369px" /></a>Aussi, nous efforcerons-nous, dans l&#8217;esprit des initiatives menées par l&#8217;ASA, d&#8217;avoir un <strong>point de vue réaliste</strong>, entre ces deux points de vues extrêmes. Nous insisterons sur les <strong>synergies </strong>nécessaires et les <strong>bonnes pratiques</strong> à adopter idéalement, tant sur le plan juridique, que sur le plan opérationnel de la gestion d&#8217;un système d&#8217;information. Une <strong>collaboration</strong> entre les différents intervenants étant la seule piste envisageable. A cette fin, nous nous inspirons d&#8217;initiatives récentes menées en 2015 tant en <strong>Belgique</strong> qu&#8217;à l&#8217;<strong>étranger</strong> (<a href="https://ec.europa.eu/isa/news/2015/semic-2015-5th-semantic-interoperability-conference_en.htm" target="_blank">Union Européenne</a>, <a href="https://www.oecd.org/gov/public-innovation/open-government-data.htm" target="_blank">OCDE</a>, <a href="https://workspace.unpan.org/sites/Internet/Documents/UNPAN95253.pdf" target="_blank">United Nations</a>, &#8230;) et ce, tant dans les secteurs <strong>publics</strong> que <strong><a href="https://www.itworks.be/INTOD6-Integratie-Oplossingen-1" target="_blank">privés</a>.</strong></p>
<p style="text-align: justify;"><strong>2. Initiatives de simplification sur le plan juridique</strong></p>
<p style="text-align: justify;">Dans l&#8217;esprit pragmatique d&#8217;une synergie, plusieurs initiatives concernent tendantiellement davantage l&#8217;environnement juridique.</p>
<p style="text-align: justify;">Une <strong>analyse d&#8217;impact</strong> de la réglementation, tel que le <a href="https://www.simplification.be/content/analyse-d-impact-air" target="_blank">modèle AIR</a> de l&#8217;ASA-DAV, permet potentiellement d&#8217;évaluer les conséquences transversales de certaines modifications sur l&#8217;environnement concerné.</p>
<p>A propos de la simplification des lois ou de la réglementation<strong>, </strong>il existe un<strong> arbitrage</strong> entre <strong>deux approches </strong>:</p>
<ul>
<li style="text-align: justify;">l&#8217;élaboration de <strong>spécifications très détaillées</strong> qui peut demander un temps important de négociation et est moins résistante au changement;</li>
<li style="text-align: justify;">l&#8217;élaboration de spécifications <strong>plus génériques</strong>, éventuellement plus clairement négociées, plus résistantes au changement mais laissant la place à un certain flou dans la mise en oeuvre pratique.</li>
</ul>
<p>La <strong>seconde piste</strong> peut être recommandée, quand la teneur des réalités à réglementer le permet, pour sa <strong>résistance au temps</strong>, sa généricité et sa <strong>simplicité</strong>, elle demande toutefois lors de sa <strong>traduction pratique et opérationnelle</strong> les précautions suivantes&nbsp;:</p>
<ul>
<li style="text-align: justify;">une grande <strong>rigueur </strong>de mise en oeuvre pratique au niveau des <strong>business rules</strong> au sein des bases de données;</li>
<li style="text-align: justify;">une <strong>collaboration continue</strong> entre les intervenants concernés en vue de maintenir une <strong>interprétation cohérente et homogène;</strong></li>
<li style="text-align: justify;">une prise en compte de la <strong>hiérarchie des normes</strong>, des conventions collectives particulières et sectorielles pouvant toujours spécifier un arrêté royal, par exemple.</li>
</ul>
<p><strong>3. Initiatives de simplification sur le plan des systèmes d&#8217;information administratifs et IT</strong></p>
<p>Plusieurs recommandations concernent en particulier le niveau IT&nbsp;:</p>
<ul>
<li style="text-align: justify;">une bonne <strong>gouvernance</strong>, afin <strong>d&#8217;éviter</strong> l&#8217;émergence de silos d&#8217;information hétérogènes (on parle de risque de &#8220;<strong><em>death by silos</em></strong>&#8220;) en établissant des liens entre équipes, la société privée Colruyt Group mais aussi le dernier rapport des Nations Unies en matière d&#8217;egovernment (année 2014) appellent le principe du <strong>&#8220;(wo)man in the middle&#8221; </strong>via des<strong> &#8220;overlapping teams&#8221;.</strong></li>
<li style="text-align: justify;">la mise en oeuvre continue des bonnes pratiques en matière de <strong>data quality</strong> (voir notre post : &#8220;<a href="/dix-bonnes-pratiques-pour-ameliorer-et-maintenir-la-qualite-des-donnees/" target="_blank">Dix bonnes pratiques en vue d&#8217;améliorer et de maintenir la qualité des données</a>&#8220;, juin 2014) à haut potentiel en terme de <strong>ROI</strong> et de <strong>simplification structurelle</strong> de la gestion de l&#8217;information.</li>
<li style="text-align: justify;">la mise en oeuvre de certaines technologies qui en facilitent l&#8217;application, telles que l&#8217;harmonisation des systèmes d&#8217;accès à l&#8217;information (&#8220;<strong>electronic identity management</strong>&#8220;) pour le monitoring des services online.</li>
</ul>
<p><strong>4. En conclusion : nécessité d&#8217;un <span style="font-family: Arial;"><span style="color: #373737;">partenariat</span><span style="font-family: Arial;"><span style="color: #373737;"> entre les</span></span></span> <span style="color: #373737;">niveaux législatif<span style="color: #333333;">, </span></span><span style="color: #373737;">administratif et IT </span></strong></p>
<p><span style="color: #373737;"><span style="font-family: Arial;">Afin d&#8217;assurer</span> <span style="font-family: Arial;">le lien entre les initiatives préconisées ci-dessus</span><strong><span style="font-family: Arial;">,</span></strong><span style="font-family: Arial;"> il</span> est fondamental&nbsp;:</span></p>
<ul>
<li style="text-align: justify;">d&#8217;établir un <strong>contact permanent </strong>entre les <strong>juristes en charge de la réglementation</strong> et les <strong>analystes</strong> et spécialistes <strong>IT</strong> en charge des <strong>bases de données opérationnelles</strong> correspondantes afin de maintenir la<span style="font-family: Arial;"> cohérence entre l&#8217;évolution des lois et des systèmes d&#8217;information administratifs. A cet égard, l&#8217;ASA-DAV préconise la désignation, par service public fédéral et organisme public d&#8217;un &#8220;<strong>agent de simplicitation</strong>&#8221; en charge de la coordination de telles initiatives. </span></li>
<li style="text-align: justify;">qu&#8217;une<span style="font-family: Arial;"> collaboration étroite</span><span style="font-family: Arial;"> existe entre les initiatives de</span><span style="font-family: Arial;"> <strong><em>synergie </em>IT</strong> (Gcloud, mutualisations technologiques)</span><span style="font-family: Arial;"> et les</span> projets <strong>d&#8217;harmonisation administratifs</strong> comme la Loi &#8220;<a href="https://www.simplification.be/content/only-once-loi-2014" target="_blank">O<em>nly Once</em></a>&#8221; du 5 mai 2014 relative à la collecte unique des données.</li>
</ul>
<p style="text-align: center;">***</p>
<p style="text-align: center;"><strong>Références bibliographiques</strong></p>
<p style="text-align: justify;">I. Kent W., <em>Data and reality. Basic Assumption in Data Processing Reconsidered. </em>New York&nbsp;: Elsevier North-Holland Inc<em>., </em>1981.p. I.</p>
<p style="text-align: justify;">II.  Boydens I.,<span class="Apple-converted-space"><span style="font-family: Arial;"> </span></span><em>Informatique, normes et temps</em>. Bruxelles&nbsp;: Bruylant, 1999, 570 p.  (Cet ouvrage s’est vu décerner le prix de la Fondation L. Davin, conféré par l&#8217;Académie Royale des sciences, des lettres et des beaux-arts de Belgique, 1999).</p>
<p style="text-align: justify;">III. Bade, D.:<span class="Apple-converted-space"><span style="font-family: Arial;"> </span></span><em>It’s about Time!: Temporal Aspects of Metadata Management in the Work of Isabelle Boydens&#8221;</em>. Cataloging &amp; Classification Quarterly 49(4), 2011, pp. 328–338.</p>
<p style="text-align: justify;">IV. Boydens I., &#8220;Strategic Issues Relating to Data Quality for E-government: Learning from an Approach Adopted in Belgium<em>&#8220;. </em>In Assar S., Boughazala I. et Boydens I., éds.<em>, &#8220;Practical Studies in E-Government&nbsp;: Best Practices from Around the World&#8221;, </em>New York, Springer, 2011</p>
<p>&nbsp;</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Dix bonnes pratiques pour améliorer et maintenir la qualité des données</title>
		<link>https://www.smalsresearch.be/dix-bonnes-pratiques-pour-ameliorer-et-maintenir-la-qualite-des-donnees/</link>
		
		<dc:creator><![CDATA[Isabelle Boydens]]></dc:creator>
		<pubDate>Mon, 16 Jun 2014 07:07:55 +0000</pubDate>
				<category><![CDATA[Blog post]]></category>
		<category><![CDATA[data quality]]></category>
		<category><![CDATA[Data Quality Tools]]></category>
		<category><![CDATA[Information management]]></category>
		<guid isPermaLink="false">/?p=7175</guid>

					<description><![CDATA[(dernière mise à jour&#160;: décembre 2021) Les bases de données se prêtent aux métaphores financières. Ne les désigne-t-on pas souvent par le terme « banques de données » ? Elles évoqueraient ainsi un capital d’information sur lequel on peut faire des retraits à la demande. A condition que le compte soit correctement approvisionné…(*) Vu l&#8217;actualité des enjeux soulevés, dès [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><strong><em>(dernière mise à jour&nbsp;: décembre 2021)</em></strong></p>
<p style="text-align: justify;">Les bases de données se prêtent aux métaphores financières. Ne les désigne-t-on pas souvent par le terme « banques de données » ? Elles évoqueraient ainsi un capital d’information sur lequel on peut faire des retraits à la demande. A condition que le compte soit correctement approvisionné…(*)</p>
<p style="text-align: justify;">Vu l&#8217;actualité des enjeux soulevés, dès lors que l&#8217;information est un instrument d&#8217;action sur le réel, nous envisageons successivement ici les coûts de la &#8220;non qualité&#8221; des données, leurs causes les plus fréquentes et ensuite dix bonnes pratiques en vue d&#8217;améliorer et de maintenir dans le temps la qualité de l&#8217;information (**).</p>
<p><strong>Les coûts de la « non qualité des données »</strong></p>
<p style="text-align: justify;">En 2016, T. Redman chiffrait ainsi les coûts de la &#8220;non qualité&#8221; aux USA, dans son livre &#8220;<a href="https://dataqualitysolutions.com/articles-and-books/" target="_blank" rel="noopener noreferrer"><em>Getting in front on Data</em></a>&#8221; (p. 25)&nbsp;: &#8220;<strong><em>$3,1 Trillions/year in the US, which is about 20 percent of the Gross Domestic Product</em></strong>.&#8221; Les chiffres précis et récents sont rares : pour des raisons d’image, les entreprises ne les communiquent pas volontiers publiquement … On estime que de nombreuses bases de données dans les secteurs financiers, bancaires, médicaux ou administratifs incluent en moyenne <a href="https://www.ulb.ac.be/cours/iboydens/annales.pdf" target="_blank" rel="noopener noreferrer">10 % d’anomalies</a> formelles sur la totalité des valeurs répertoriées. La qualité des données désigne leur adéquation relative aux usages et objectifs attendus (on parle de « <em>fitness for use</em> »). Elle relève toujours d’un arbitrage de type « coût-bénéfice ». Ces coûts peuvent être ventilés en terme&nbsp;:</p>
<ul style="text-align: justify;">
<li>de frais de <em>manpower</em> de vérification de l’information et de traitement des incohérences;</li>
<li>de traitement des plaintes, procès et réparation éventuelle des préjudices, en cas où des données dotées d’un statut juridique de force probante occasionnent un préjudice à une autre partie ;</li>
<li>d’investissements humains et techniques lors d’un reengineering ou de l’introduction d’une nouvelle technologie.</li>
</ul>
<p style="text-align: justify;">Ils incluent également des paramètres critiques non mesurables :</p>
<ul style="text-align: justify;">
<li>pertinence du service rendu (application de la législation, soin apporté aux patients, par exemple);</li>
<li>crédibilité;</li>
<li>stratégie à long terme.</li>
</ul>
<p style="text-align: justify;">On pourra chiffrer plus précisément les coûts et le ROI liés à une approche &#8220;qualité&#8221; lorsque l&#8217;on précise le topic abordé, comme dans l&#8217;étude &#8220;<a href="/book-available/" target="_blank" rel="noopener noreferrer">Email address reliability</a>&#8220;.</p>
<p><strong>A quoi sont dus les problèmes de « non qualité » des données ?</strong></p>
<p style="text-align: justify;">L’émergence toujours actuelle de problèmes dus à la « non qualité » tient principalement aux facteurs suivants :</p>
<ol>
<li style="text-align: justify;">Une vision à « court terme » lors de la conception d’un projet, l’accent étant trop souvent exclusivement porté sur les aspects purement  techniques, au détriment de l’analyse du domaine d’application qui est négligée (en témoignent les problèmes qu’a connue la mise en œuvre de la réforme « <em>Obamacare</em> » aux USA en 2013 : les blocages du portail fédéral étaient dus à une analyse insuffisante de la complexité du domaine assurantiel). Ce n’est d’ailleurs que depuis peu que la <a href="https://blogresearch.smalsrech.be/?p=5398" target="_blank" rel="noopener noreferrer">communauté purement IT</a> s’intéresse de près à la question de la qualité de l’information.</li>
<li>Une attention insuffisante accordée&nbsp;:
<ol>
<li style="list-style-type: none;">
<ul>
<li style="text-align: justify;">aux usages et au partage des données (l’adage &#8220;<em>use it or lose it</em>&#8221; illustre le fait que la qualité de données peu utilisées et peu partagées se détériore au fil du temps)</li>
</ul>
</li>
</ol>
<ul>
<li style="list-style-type: none;">
<ul>
<li style="text-align: justify;">à la documentation des données et des processus</li>
</ul>
</li>
</ul>
<ul>
<li style="list-style-type: none;">
<ul>
<li style="text-align: justify;">à la gouvernance des données sur le long terme, pourtant indispensable en raison de la complexité de nombreux domaines d’application empiriques évolutifs (pensons aux domaines législatifs, médicaux, scientifiques, …)</li>
</ul>
</li>
</ul>
<ul>
<li style="list-style-type: none;">
<ul>
<li style="text-align: justify;">à la génération d’une redondance non contrôlée d’information, faute de source authentique, au sein d’une même entité&nbsp;: le concept de « <em>ghost factory</em> » (usine fantôme) désigne le temps et l’argent consacrés par une entreprise à produire des défauts et à les corriger…</li>
</ul>
</li>
</ul>
</li>
</ol>
<p><strong>Dix bonnes pratiques</strong></p>
<p style="text-align: justify;">En raison de l’importance  de la problématique, nous rappelons dix bonnes pratiques afin d’améliorer et de maintenir la qualité des données dans le temps.</p>
<ol style="text-align: justify;">
<li><strong>Définir les objectifs et usages des données en fonction des enjeux selon le principe du «  <em>fitness for use</em> »</strong> évoqué plus haut : dans certains cas, une tolérance à l’erreur sera acceptable (exploitation marketing, statistique, …) alors que dans d’autres, l’ensemble du système d’information devra être traité avec la plus grande précision (en cas d’impact juridique, médical, financier, …). Dès que l’on se penche sur un domaine d’application « grandeur nature », ce travail de définition s’avère complexe et demande des choix et des arbitrages explicites. En effet, dans tout domaine d’application empirique (sujet à interprétation humaine), <a href="https://www2.ulb.ac.be/cours/iboydens/annales.pdf" target="_blank" rel="noopener noreferrer">le système d’information est susceptible d’évoluer dans le temps</a> avec l’interprétation des valeurs qu’il permet d’appréhender (ce sera le cas des nomenclatures des catégories d’activités d’une entreprise, par exemple, sachant que l’univers socio-économique évolue de manière continue).</li>
<li><strong>Etablir une organisation pluridisciplinaire impliquant le management, des spécialistes du domaine d’application et des informaticiens en charge du suivi transversal de la qualité de l’information</strong> (à travers toutes les bases de données et processus inclus dans l’entreprise et impactés par les mêmes concepts). Cette organisation doit être <strong>souple et flexible</strong>. Son ampleur varie <strong>en fonction des ressources et des enjeux du domaine d’application</strong>. La mise en place d’une organisation trop lourde ne sera pas suivie d’effet et sera contre-productive.</li>
<li>Une fois les objectifs définis et l’organisation mise en place,<strong> identifier les flux d’alimentation, les processus, les champs les plus critiques au sein du système ainsi que les événements principaux susceptibles de les affecter</strong> (suppression, modification de définition, …) ; l’identifiant unique d’une entreprise ayant plus d’importance que son numéro de fax, par exemple. Une fois ces éléments identifiés, c’est sur ceux-ci que les efforts seront concentrés dans un premier temps.</li>
<li><strong>Distinguer les bases de données de gestion des sources authentiques</strong> et dans le cadre d’une <strong>gestion collaborative des anomalies</strong>, se référer prioritairement à la source authentique et la traiter en premier lieu pour tous les concepts stratégiques identifiés <span class="Apple-style-span" style="color: #373737;"><span class="Apple-style-span" style="color: #373737;">(voir&nbsp;: J. Bizingre, J. Paumier et P. Rivière, “Les référentiels du système d’information. Données de référence et architecture d’entreprise”, Paris, Dunod, 2013). </span></span></li>
<li><strong>Etablir pour ceux-ci un ensemble d’indicateurs de qualité quantifiables</strong> (par exemple, nombre de valeurs absentes pour un champ, nombre de valeurs incohérentes en comparaison avec une source authentique, …), <a href="/data-quality-anomalies-transactions-management-system-atms-prototype-work-in-progress/" target="_blank" rel="noopener noreferrer"><strong>dont l’historique sera associé à la base de données</strong></a> et inclura la prise en compte du suivi du traitement des anomalies formelles (valeurs violant les contraintes d’intégrité de la base de données). A ces indicateurs, permettant d’assurer le suivi de la qualité, il faudra <strong>associer des objectifs à atteindre en fonction des enjeux ainsi que des mesures d’amélioration potentielles </strong>pour remédier aux problèmes « types » connus (par exemple, mieux documenter les instructions de saisie de la base de données quand des problèmes d’interprétation sont à la source d’erreurs massives). Ces mesures pourront s’enrichir avec le temps, en fonction de l’évolution du domaine et des objectifs stratégiques.</li>
<li><strong>Prendre conscience que la définition des indicateurs, des objectifs à attendre et des solutions associées repose sur des compromis</strong> (tel que l’arbitrage entre la fiabilité de l’information et sa rapidité de sa diffusion, ou encore, entre la précision et l’exhaustivité des données, …).</li>
<li><strong>Mettre en place des stratégies de gestion continues transversales reposant sur ces indicateurs et objectifs&nbsp;: </strong>
<ol>
<li><strong>le suivi des anomalies formelles permet par exemple de détecter, dans les domaines d’application empiriques fortement évolutifs,<a href="/anomalies-transactions-management-system-atms-enjeux-concepts-realisations-et-travail-en-cours/" target="_blank" rel="noopener noreferrer"> l’émergence de nouveaux phénomènes observables demandant une adaptation régulière des contraintes d’intégrité et du schéma </a></strong>de la base de données en vue de diminuer le nombre d’anomalies fictives à traiter. Ainsi, en Belgique, lors de la mise en place d’une directive administrative en faveur du secteur non marchand, la question s’est posée (au regard de la réalité qui avait été progressivement appréhendée au sein de la base) de savoir s’il fallait inclure dans ce secteur les maisons de repos privées, qui en étaient a priori exclues du fait de leur finalité lucrative. Initialement considérées comme des cas erronés au regard du domaine de définition spécifiant le secteur non marchand, ces entreprises y ont finalement été intégrées après interprétation juridique (ce qui a impliqué une restructuration du schéma de la base de données). <strong>Dans ce cas, la restructuration d’une base de données résulte d’une décision humaine tendant à rendre le modèle conforme (au moins transitoirement) aux nouvelles observations. En l’absence d’une telle intervention, l’écart entre la base de données et le réel se creuserait.</strong> En effet, si l’on omet d’adapter le schéma, les anomalies correspondant à ces cas vont continuer d’apparaître et devenir de plus en plus nombreuses, nécessitant un examen manuel potentiellement lourd et susceptible de ralentir considérablement le traitement des dossiers administratifs. Pour la sécurité sociale belge, la mise en œuvre de cette méthode a permis d’améliorer la précision et la rapidité du traitement des cotisations sociales en <strong>réduisant potentiellement de 50 % le volume des anomalies formelles</strong>.</li>
<li><strong>une méthode originale de « <a href="/data-quality-back-tracking-depuis-les-premieres-experimentations-a-la-parution-dun-arrete-royal/" target="_blank" rel="noopener noreferrer">back tracking</a> » </strong>(inspirée du « data tracking » de Thomas Redman) permettant, sur la base d’un échantillon d’anomalies représentatives, d’en détecter l’origine à la source et d’y <strong>remédier structurellement </strong>(erreur de programmation, d’interprétation de la loi, …)<strong>.</strong> Les expériences menées à ce propos ont donné le jour à un <strong>ROI</strong> très important ainsi qu&#8217;à la parution d&#8217;un<strong> Arrêté Royal, </strong>le 2/2/2017<strong>, </strong>assurant la mise en place de la méthode dans le secteur de la sécurité sociale belge. <strong>Voir en particulier l&#8217;article suivant publié en juillet 2021 dans une revue scientifique à Paris et synthétisant toute l&#8217;approche Data quality depuis ses débuts incluant les dernières nouveautés de décembre 2021 sur les &#8220;data quality tools&#8221;</strong>&nbsp;: Boydens I., Hamiti G. et Van Eeckhout R., <em style="font-size: revert; color: initial;"><a href="https://www.insee.fr/fr/information/5398691?sommaire=5398695" target="_blank" rel="noopener">Un service au cœur de la qualité des données. Présentation d’un prototype d’ATMS</a>. </em><span style="font-size: revert; color: initial;">In Le Courrier des statistiques, Paris, INSEE, juin-juillet 2021, n°6,  p. 100-122.</span></li>
</ol>
</li>
<li><strong>Pour les bases de données « legacy » incluant des erreurs (présomptions de duplicats, adresses nationales ou internationales incohérentes, &#8230;) ou les projets de migration, recourir à une approche curitative via les <a href="/?wpfb_dl=62" target="_blank" rel="noopener noreferrer">data quality tools</a> (</strong>et selon les besoins, à leurs fonctionnalités de<a href="https://mastic.ulb.ac.be/2019/01/cours-conference-data-quality-tools-concepts-and-practical-lessons-from-a-vast-operational-environment-par-gani-hamiti-13-mars-2019-a-18-heures/" target="_blank" rel="noopener"><strong> <em>profiling</em>, <em>standardisation</em> </strong>ou<strong> <em>matching</em>)</strong></a>, <a href="/data-quality-tools-retours-dexperience-et-nouveautes/" target="_blank" rel="noopener">on line (via une REST API) ou en batch</a>, en vue de la <a href="https://www.smalsresearch.be/tag/data-quality/" target="_blank" rel="noopener noreferrer">détection semi automatique des présomptions de doubles et d&#8217;incohérences ainsi que de leur traitement</a>. En particulier, il est conseillé de recourir tôt et fréquemment au<em> data</em> <em>profiling</em>. Il s&#8217;agit d&#8217;une approche complémentaire à l&#8217;approche &#8220;préventive&#8221; du back tracking, vue au point précédent.</li>
<li><strong><a href="https://www.ulb.ac.be/cours/iboydens/e-gouvernement.pdf" target="_blank" rel="noopener noreferrer">Documenter la base de données et les indicateurs dans le temps</a>, dont les définitions sont validées via un workflow d’approbation (dans le cadre des solutions de &#8220;case management&#8221;).</strong> Un <a href="https://books.google.be/books?id=DzZk-Riel_MC&amp;pg=PA113&amp;lpg=PA113&amp;dq=Isabelle+Boydens&amp;source=bl&amp;ots=tvh3D5fX6_&amp;sig=RBEI35wYjdFzYi13LpEIQc63OGY&amp;hl=fr&amp;ei=QQP4TOiXA4uShAeUmbHnAg&amp;sa=X&amp;oi=book_result&amp;ct=result&amp;resnum=1&amp;ved=0CBYQ6AEwADgo#v=onepage&amp;q&amp;f=false" target="_blank" rel="noopener">système de documentation performant</a> repose sur :
<ol>
<li>une organisation transversale (recourant au <a href="https://liliendahl.com/2021/03/30/the-most-annoying-way-of-presenting-data/" target="_blank" rel="noopener">Master Data Management</a> et éventuellement, à des recommandations européennes, telles que ISA, <em><a href="https://ec.europa.eu/isa/" target="_blank" rel="noopener noreferrer">Interoperability Solutions for European Public Administrations</a>);</em></li>
<li>un worklflow de validation (avec prise en compte du multilinguisme);</li>
<li>une gestion des versions et un historique des modifications;</li>
<li>une conception aussi économe que possible recourant au principe de l’héritage de façon à minimiser l’ampleur du travail de mise à jour manuel et le risque d’erreur;</li>
<li>le principe du « WOPM » « <em>Write Once Publish Many</em> » de façon à exploiter chaque mise à jour à des fins opérationnelles (en vue de l’adaptation des contraintes d’intégrités et des tables de référence) et documentaires (en vue de la diffusion de ces mêmes mises à jour sous des formats lisibles par l’être humain);</li>
<li>une documentation du processus de traitement des anomalies en vue de s’assurer que la base de données est mise à jour de manière homogène et cohérente.</li>
</ol>
</li>
<li><strong>Assurer une formation continue des gestionnaires et utilisateurs de la base de données, </strong>tirer les enseignements des difficultés rencontrées et communiquer les <em>success stories. </em></li>
</ol>
<p style="text-align: justify;">Une approche en vue d’évaluer, d’améliorer et de maintenir la qualité d’une base de données est nécessairement continue, itérative et sujette à adaptation dans le temps. Recourir aux dix bonnes pratiques que nous venons d’évoquer, en fonction des enjeux de l’information et des budgets disponibles, permet assurément de tendre vers cet objectif et d’en mesurer les effets.</p>
<p style="text-align: justify;">(*) Extrait de&nbsp;: Boydens I., &#8220;<a href="https://www.ulb.ac.be/cours/iboydens/32-34Boydens.pdf" target="_blank" rel="noopener noreferrer">Les bases de données sont-elles solubles dans le temps&nbsp;?</a>&#8220;. In &#8220;La Recherche&#8221;, Hors série n°9, Paris, 2002, p. 32-34.</p>
<p style="text-align: justify;">(**) On trouvera la définition précise de concepts importants évoqués dans ce post (&#8220;données&#8221;,  &#8220;base de données&#8221;, &#8230;) dans plusieurs de nos publications antérieures, telles que&nbsp;: Boydens I. &#8220;<a href="https://books.google.be/books?id=DzZk-Riel_MC&amp;pg=PA113&amp;lpg=PA113&amp;dq=Isabelle+Boydens&amp;source=bl&amp;ots=tvh3D5fX6_&amp;sig=RBEI35wYjdFzYi13LpEIQc63OGY&amp;hl=fr&amp;ei=QQP4TOiXA4uShAeUmbHnAg&amp;sa=X&amp;oi=book_result&amp;ct=result&amp;resnum=1&amp;ved=0CBYQ6AEwADgo#v=onepage&amp;q&amp;f=false" target="_blank" rel="noopener noreferrer"><em>Strategic Issues Relating to Data Quality for E-government: Learning from an Approach Adopted in Belgium</em></a>&#8220;. In Assar S., Boughzala I. et Boydens I., éds., &#8220;Practical Studies in E-Government&nbsp;: Best Practices from Around the World&#8221;, New York, Springer, 2011, p. 113-130 (chapter 7). Voir aussi&nbsp;: Boydens I., Informatique, normes et temps. Bruxelles, Bruylant, 1999. Boydens I., &#8220;<a href="https://www.ulb.ac.be/cours/iboydens/annales.pdf" target="_blank" rel="noopener noreferrer">L&#8217;océan des données et le canal des normes</a>&#8220;, In Carrieu-Costa M.-J., Bryden A. et Couveinhes P., eds, Les Annales des Mines, Series &#8220;Responsabilité et Environnement&#8221; (thematic issue&nbsp;: &#8220;La normalisation&nbsp;: principes, histoire, évolutions et perspectives&#8221;), Paris, n° 67, Juillet 2012, pp. 22-29</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>&#8220;Mapping the World of Data Problems&#8221;&#160;: la qualité des données vue par la communauté IT</title>
		<link>https://www.smalsresearch.be/mapping-the-world-of-data-problems-la-qualite-des-donnees-vue-par-la-communaute-it-geek/</link>
		
		<dc:creator><![CDATA[Isabelle Boydens]]></dc:creator>
		<pubDate>Wed, 03 Apr 2013 15:08:50 +0000</pubDate>
				<category><![CDATA[Blog post]]></category>
		<category><![CDATA[big data]]></category>
		<category><![CDATA[data quality]]></category>
		<category><![CDATA[Data Quality Tools]]></category>
		<category><![CDATA[Database Modelling]]></category>
		<category><![CDATA[Information management]]></category>
		<category><![CDATA[Long Data]]></category>
		<category><![CDATA[Predictive Analytics]]></category>
		<guid isPermaLink="false">/?p=5398</guid>

					<description><![CDATA[ En novembre 2012, O’Reilly Media a édité un “livre-événement” en matière de &#8220;data quality&#8221;&#160;: Q. E. McCallum, Bad Data Handbook, Mapping the World of Data Problems, O’Reilly Media, 2012, 246 p. Cet ouvrage collectif  sur la qualité des données est inédit car il émane exclusivement de la communauté des web software developpers (Python, Perl script,  Parallel [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><img loading="lazy" decoding="async" class="size-medium wp-image-5399 alignleft" style="width: 323px; height: 158px;" alt="baddata" src="/wp-content/uploads/2013/04/baddata-300x109.jpg" width="310" height="144" /> En novembre 2012, O’Reilly Media a édité un “livre-événement” en matière de &#8220;data quality&#8221;&nbsp;:<a href="https://cdn.oreillystatic.com/oreilly/booksamplers/9781449321888_sampler.pdf" target="_blank"> Q. E. McCallum, Bad Data Handbook, Mapping the World of Data Problems</a>, O’Reilly Media, 2012, 246 p.</p>
<p>Cet ouvrage collectif  sur la qualité des données est inédit car il émane exclusivement de la communauté des <em>web software developpers</em> (Python, Perl script,  Parallel R, NLP, cloud computing,  …), <em>web predictive analytics et architectes IT</em> … Il compte même un  <em>hacker</em> parmi ses co-auteurs. Ces auteurs n’avaient a priori aucune prédilection pour l&#8217;étude des données : « <em>In fact, I dare say that I don’t quite care for data</em> » (p. 1). Mais, quotidiennement affectés par les problèmes de data quality dans leur job, ils ont programmé une pause entre deux lignes de code pour partager leur longue et douloureuse expérience dans les domaines d’application les plus variés :  &#8220;<em>Bad Data …. include data that eats up your time, causes you to stay late at the office, drives you to tear out your hair in frustration. It’s data that you can’t access, data that you had and then lost, data that’s not the same today as it was yesterday</em>…” (p. 1).</p>
<p>En soi, les principaux apports pratiques de cet ouvrage, en ce qui concerne le thème &#8220;Database Quality&#8221;, sont déjà connus par certains (&#8220;<em>The ideas presented here are born from (often painful) experience and are likely not new to anyone who has spent any extended time looking at data</em>&#8220;, p. 226). Ils sont par exemple plus largement intégrés dans l&#8217;approche opérationnelle  du <a href="https://www.smalsresearch.be/tag/data-quality/" target="_blank">Data Quality Competence Center de Smals </a>(voir le <a href="/?p=4269" target="_blank">data tracking</a>, <a href="https://www.smals.be/fr/content/data-quality-best-practices" target="_blank">la gestion intégrée des anomalies, le recours aux &#8220;Data Quality Tools&#8221;, la documentation du système ou encore, la mise en place d&#8217;une organisation</a>). S&#8217;agissant de l&#8217;egovernment, nos travaux sont synthétisés dans un <a title="BOYDENS I., &quot;Strategic Issues Relating to Data Quality for E-government: Learning from an Approach Adopted in Belgium&quot;. In ASSAR S., BOUGHZALA I. et BOYDENS I., éds., &quot;Practical Studies in E-Government&nbsp;: Best Practices from Around the World&quot;, Springer, 2011, p. 113-130" href="https://books.google.be/books?id=DzZk-Riel_MC&amp;pg=PA113&amp;lpg=PA113&amp;dq=Isabelle+Boydens&amp;source=bl&amp;ots=tvh3D5fX6_&amp;sig=RBEI35wYjdFzYi13LpEIQc63OGY&amp;hl=fr&amp;ei=QQP4TOiXA4uShAeUmbHnAg&amp;sa=X&amp;oi=book_result&amp;ct=result&amp;resnum=1&amp;ved=0CBYQ6AEwADgo#v=onepage&amp;q&amp;f=false" target="_blank">ouvrage coédité à New York chez Springer en 2011</a> et dans un article paru aux <a title="BOYDENS I., L&#039;océan des données et le canal des normes. In CARRIEU-COSTA M.-J., BRYDEN A. et COUVEINHES P. éds, Les Annales des Mines, Série &quot;Responsabilité et Environnement&quot; (numéro thématique&nbsp;: &quot;La normalisation&nbsp;: principes, histoire, évolutions et perspectives&quot;), Paris, n° 67, juillet 2012, pp. 22-29" href="https://www.ulb.ac.be/cours/iboydens/annales.pdf" target="_blank">Annales des Mines à Paris en 2012</a> : ils placent la question de <a href="https://catalogingandclassificationquarterly.com/ccq49nr4.html#intobs" target="_blank">l&#8217;évolution de l&#8217;information dans le temps</a> au coeur <a title="BOYDENS I. et VAN HOOLAND S., Hermeneutics applied to the quality of empirical databases. In Journal of documentation, volume 67, issue 2, 2011, pp. 279-289" href="https://www.emeraldinsight.com/journals.htm?articleid=1911713&amp;show=abstract" target="_blank">de la réflexion conceptuelle</a>,  appliquant la critique historique aux sources informatiques à des fins opérationnelles en termes de coûts-bénéfices et de gestion.</p>
<p>Nous présentons toutefois ici un aperçu de ce <a href="https://cdn.oreillystatic.com/oreilly/booksamplers/9781449321888_sampler.pdf" target="_blank">&#8220;Bad Data Handbook&#8221;</a> et des catégories de questions qu&#8217;il aborde car il comporte au moins<strong> quatre aspects très intéressants et, en soi, particulièrement innovants</strong> &nbsp;:</p>
<ul>
<li>les très nombreux <strong>cases studies</strong> présentés sont extraordinairement riches, inédits et variés dans des domaines d&#8217;applications stratégiques (police criminelle, marchés financiers internationaux, chimie urologique, egov, &#8230;);</li>
<li>c&#8217;est la <strong>première fois que la communauté &#8220;geek&#8221;</strong> des développeurs &amp; architectes IT aborde la question &#8220;data quality&#8221;, sujet sur lequel elle ne publie en général jamais, se concentrant essentiellement sur la complexité technique, algorithmique et mathématique;</li>
<li>on y trouve une<strong> reconnaissance des impacts financiers énormes</strong> que suscite l’inadéquation des données aux usages (&#8220;non qualité&#8221;) &nbsp;: &#8220;<em>For large entreprises, this could be a multi-million dollar problem&#8221;</em> (p. 163);</li>
<li>sans aucune référence bibliographique explicite, plusieurs auteurs font preuve <strong>d&#8217;une finesse d&#8217;analyse et d&#8217;une acuité assez impressionnantes sur le plan épistémologique</strong> (certains d&#8217;entre eux ont fait leur thèse de doctorat en physique théorique, ce qui explique sans doute que <a href="https://en.wikipedia.org/wiki/Karl_Popper" target="_blank">K. Popper</a> ne leur soit pas étranger).</li>
</ul>
<p>Les apports de l&#8217;ouvrage retenus sont ici structurés en deux catégories logiquement liées et utiles non seulement pour les développeurs IT et les architectes mais aussi, la communauté des bases de données, les décideurs et utilisateurs finaux</p>
<p><strong>A. “Data format, storage &amp; infrastructure&#8221;&nbsp;: 5 pistes pour faciliter l’accès aux données</strong></p>
<p><img loading="lazy" decoding="async" class="size-medium wp-image-5410 alignleft" alt="accès" src="/wp-content/uploads/2013/04/accès-300x300.jpg" width="261" height="232" />Avant d’aborder la qualité de l’information, … il s’agit d’abord d’accéder physiquement et logiquement aux données.  Or, notre longue expérience en &#8220;data profiling&#8221; le confirme, c’est souvent l’étape la plus fastidieuse.</p>
<p>Ceci est encore plus vrai dans le cadre du Web, espace ouvert, dynamique et non contrôlé&nbsp;: “<i>in some (regrettably rare) cases, all the information about the data is provided</i>” (K. Fink, p. 9); “<em>the first, and sometimes, hardest part of doing any data analysis is acquiring the data from which you hope to extract information</em>” (A. Laiacano, p. 69). Ceci amène les auteurs à s’interroger sur l’opacité des Media sociaux dont l&#8217;étude soulève de nombreux défis (<a href="https://cdn.oreillystatic.com/oreilly/booksamplers/9781449321888_sampler.pdf" target="_blank">P. Warden, How to Feed and Care for Your Machine-Learning Experts, ch. 16</a>), qu&#8217;il s&#8217;agisse d&#8217;effectuer une “root cause analysis” des Web sites (<a href="https://cdn.oreillystatic.com/oreilly/booksamplers/9781449321888_sampler.pdf" target="_blank">R. Draper, Data Traceability, ch. 17</a>) ou encore, de vérifier l’impact des données effacées, de liens en liens, sur les réseaux sociaux (<a href="https://cdn.oreillystatic.com/oreilly/booksamplers/9781449321888_sampler.pdf" target="_blank">J. Valeski, Social Media: Erasable Ink?, ch. 18</a>). Cela étant dit, voici 5 pistes concrètes en vue de faciliter l&#8217;accès aux données.</p>
<ol>
<li><strong>Eviter, à la source, la production non organisée de volumineux ensembles de données stratégiques dans un format peu lisible par la machine, comme les spreadsheets</strong>. Il est très fréquent que les utilisateurs &#8220;business&#8221; utilisent de tels formats qui conviennent bien à la lecture humaine mais génèrent des &#8220;silos de données&#8221; redondants dont le traitement automatisé ultérieur est ardu. S’appuyant sur son expérience en matière de statistiques dans le domaine scolaire en Nouvelle Zélande, P. Murell propose des conseils de développement en R pour coder des données issues de tableurs dans un format réutilisable (<a href="https://cdn.oreillystatic.com/oreilly/booksamplers/9781449321888_sampler.pdf" target="_blank">P. Murrell, Data Intended for Human Consumption, Not Machine Consumption, ch. 3</a>). Dans un autre chapitre appliqué au domaine de la chimie, R. Cotton plaide en faveur de processus de codage organisés, incluant contrôles et gestion des versions  (<a href="https://cdn.oreillystatic.com/oreilly/booksamplers/9781449321888_sampler.pdf" target="_blank">R. Cotton, Blood,Sweat, and Urine, ch. 8</a>), proposant une cure de “<em>Rehab for Chemists (and Other Spreadsheet Abusers</em>)” (p. 115) et s’exclamant au passage&nbsp;: &#8220;<em>Live Fast, Die Young and Leave a Good-Looking Corpse Code Repository</em>” (p. 114).</li>
<li><strong>Prendre en considération la variété des systèmes d’encodage hétérogènes sur le web</strong> (ASCII, différentes normes ISO, UTF, …).  J. Levy propose des conseils de programmation (&#8220;text processing &#8220;) en Python à cette fin offrant même au lecteur intéressé une série d’exercices (<a href="https://cdn.oreillystatic.com/oreilly/booksamplers/9781449321888_sampler.pdf" target="_blank">J. Levy, Bad Data Lurking in Plain Text, ch. 4</a>).</li>
<li><strong>Identifier le pattern d’organisation des sites web analysés et en conserver l’historique des versions off line en vue d’un parsing ultérieur</strong>. En raison du caractère imprévisible et dynamique de la mise à jour des sites web, cette démarche est indispensable. A. Laiacano propose plusieurs exemples de parsing et de reengineering du pattern de sites web en Python, Ajax et MATLAB scripts (<a href="https://cdn.oreillystatic.com/oreilly/booksamplers/9781449321888_sampler.pdf" target="_blank">A. Laiacano, (Re)Organizing the Web’s Data, ch. 5</a>).</li>
<li><strong>Evaluer les avantages et inconvénients des différents modèles logiques de bases de données, en fonction des usages et des modèles de coûts</strong>. Deux chapitres discutent cette question essentielle pour le stockage et l&#8217;analyse des données issues du Web. S’inspirant d’une étude des &#8220;social media&#8221;, l’un plaide en faveur d’un format simple de type &#8220;plain text&#8221; avec des flat files, lorsque les données sont volumineuses et statiques.  Ceci en facilite la préservation à long terme, la rapidité de traitement et la sauvegarde, contrairement à certaines bases de données NoSql reposant sur le MapReduce paradigm (<a href="https://cdn.oreillystatic.com/oreilly/booksamplers/9781449321888_sampler.pdf" target="_blank">T. McNamara, When Databases Attack: A Guide for When to Stick to Files, ch. 12</a>).  L’autre évalue les coûts de gestion en terme de performance des différents modèles, reconnaissant la précision du modèle relationnel qui peut cependant être coûteux en terme de performance, évoquant &#8220;<em>the Delicate Sound of a Combinatorial Explosion…”</em> (p. 167). Il conseille un modèle en graphe qui constitue une abstraction simplifiée mais utile quand il s’agit de gérer à la fois la complexité des interactions entre données et la performance de leur gestion (<a href="https://cdn.oreillystatic.com/oreilly/booksamplers/9781449321888_sampler.pdf" target="_blank">B. Norton, Crouching Table, Hidden Network, ch. 13</a>).</li>
<li><strong>Utiliser le “cloud computing” avec prudence, en fonction du domaine d’application</strong>. Sur la base d’un exemple réaliste, les risques de perte de performance, de coûts élevés et de pertes de données, lorsque le « cloud computing » est appliqué sans précaution sont évoqués (<a href="https://cdn.oreillystatic.com/oreilly/booksamplers/9781449321888_sampler.pdf" target="_blank">S. Francia, Myths of Cloud Computing, ch. 14</a>).</li>
</ol>
<p><strong>B. From “big data” to “long data”&nbsp;: 5 pistes pour faciliter l’interprétation des données</strong></p>
<p><img loading="lazy" decoding="async" class="size-medium wp-image-5411 alignleft" alt="magritte" src="/wp-content/uploads/2013/04/magritte-300x207.jpg" width="300" height="207" srcset="https://www.smalsresearch.be/wp-content/uploads/2013/04/magritte-300x207.jpg 300w, https://www.smalsresearch.be/wp-content/uploads/2013/04/magritte-768x531.jpg 768w, https://www.smalsresearch.be/wp-content/uploads/2013/04/magritte-1024x707.jpg 1024w, https://www.smalsresearch.be/wp-content/uploads/2013/04/magritte.jpg 1300w" sizes="auto, (max-width: 300px) 100vw, 300px" />Une fois les données accédées, il s’agit de les interpréter pour les exploiter. Il est impensable d’étudier le phénomène <strong>“big data”</strong> sur le web sans prendre en considération la <strong>question historique du temps</strong>. Dans un <a href="https://internetactu.blog.lemonde.fr/2013/02/15/sortir-de-la-tyrannie-du-present/" target="_blank">blog publié en février 2013 par le journal Le Monde</a>, la notion de <strong> &#8220;long data&#8221;</strong> est préconisée pour envisager la prise en compte de l’évolution des phénomènes dans le temps. Certains changements &#8220;brutaux&#8221; et récents (étude de la surpêche, de la déforestation, du climat, …) prennent par exemple leur source dans des évolutions datant de plusieurs siècles. Mais cette étude est complexe car elle demande l’examen de l’évolution du sens des données et des mots dans le temps et dans l’espace. Dans cet esprit, citons par exemple l’application <a href="https://books.google.com/ngrams" target="_blank">Google Ngrams</a>, &#8220;<em>qui vise à tracer l&#8217;historique de l&#8217;usage d&#8217;un mot depuis l&#8217;an 1500, grâce à une analyse des livres numérisés par Google Books. Évidemment, cela ne commence qu&#8217;à l’invention de l&#8217;imprimerie et le fonds n&#8217;est pas exhaustif. Mais c&#8217;est un début qui a lancé un nouveau champ d&#8217;études, la culturomique, reposant sur une analyse quantitative des termes étudiés</em>.&#8221;</p>
<p>Associant le concept de « big data » à celui de « long data », voici 5 conseils relevés dans l’ouvrage en vue de faciliter l’interprétation des données.</p>
<ol>
<li style="text-align: left;"><strong>Prendre en considération le caractère interdisciplinaire d’une approche « data quality », à travers des échanges permanents entre « connaissance métier » et « culture technique ». </strong> Dans son chapitre déjà cité, <a href="https://cdn.oreillystatic.com/oreilly/booksamplers/9781449321888_sampler.pdf" target="_blank">&#8220;Blood, Sweat, and Urine” (Ch 8), R. Cotton</a> présente une expérience  dans ce sens dans le domaine de la chimie urologique. Pendant une semaine, en tant que développeur IT, il a échangé son poste avec celui d’un chimiste en vue d&#8217;un apprentissage réciproque. Dans un paragraphe éloquent,« <em>How Chemists Make Up Numbers</em>” (p. 108),  <strong>il relate sa stupeur devant l’exigence de précision de l’approche scientifique face à la complexité du réel observable et l’importance des enjeux humains et médicaux associés</strong>. Il en tire avec humour les conclusions hypothétiques pour son propre métier d’informaticien&nbsp;: “<em>They have an endless list of documents and rules on good laboratory practice, how to conduct experiments, how to maintain the instruments … The formal adherence to all these rules was a huge culture shock to me. All the chemists are required to carry a lab book around, in which they have to record the details of how they conducted each experiment. And if they forget to write it down&nbsp;? Oops, the experiment is invalid. Run it again. I sometimes wonder what would happen if the same principles were applied to data scientists. You didn’t document this function. Delete. I can’t determine the origin of this dataset. Delete. There is no reference for this algorithm. Delete, delete, delete. The outcry would be enormous, but I’m sure standards would improve</em>.” (p. 108). <strong>A l’inverse, cet échange permet à son collègue chimiste, spécialiste du domaine d’application, de tirer des &#8220;best practices&#8221; quant au traitement des données</strong> (éviter l’encodage intensif et non contrôlé sur des tableurs (cfr supra), à la source de redondance et de &#8220;data silos&#8221;, remplacer le double encodage humain et les phases de réencodage (à la source d’erreurs et coûteuses en terme de manpower) par un workflow structuré organisant tâches humaines de validation et contrôles automatisés ou encore, associer d’emblée aux données un modèle de base de données auquel correspondent des business rules, des règles de validation et une gestion des versions. L’auteur conclut&nbsp;: « <em>Sometimes, technology just works…”</em> (p. 116).</li>
<li><strong>Adopter une approche statistique itérative face à la complexité du domaine d’application incluant des facteurs exogènes imprévus sur le Web</strong>. Dans un chapitre à propos des<strong> taux de consultation des données et du trafic sur le Web</strong>, qu’il s’agisse du <strong>“Pay per click”</strong> ou de la consultation de<strong> Wikipedia</strong>, <a href="https://cdn.oreillystatic.com/oreilly/booksamplers/9781449321888_sampler.pdf" target="_blank">F. Fink (It Just Me, or Does This Data Smell Funny ?, ch. 2)</a>  montre comment aux effets saisonniers qui diminuent structurellement le taux de consultation («<em>Superbowl Sunday</em>” aux USA, congés scolaires, week-ends) se mêlent malicieusement des bugs dans les logs de Wikipedia qui complexifient l’interprétation des séries temporelles . On trouve un phénomène analogue dans un chapitre (<a href="https://cdn.oreillystatic.com/oreilly/booksamplers/9781449321888_sampler.pdf" target="_blank">J. Perkins,  “Detecting Liars and the Confused in Contradictory Online Reviews”, ch.6</a>) consacré à <strong>l’analyse des sentiments sur le web</strong> (à propos des restaurants, par exemple) où l’auteur découvre des contradictions (apparemment intentionnelles) entre les scores (ratings) attribués et les commentaires associés qui incluent parfois des doubles négations, sources de confusion en langage naturel. Dans l’approche, l’auteur  montre comment construire un &#8220;<em>sentiment classifier&#8221; </em>en Python Natural Language sur la base d’un training set et d’une étude itérative en vue de détecter ces &#8220;mensonges volontaires&#8221;.</li>
<li><strong>Face à certaines anomalies non élucidées par le modèle d’observation, ne pas hésiter à retourner sur le terrain pour réinspecter le domaine d’application (quand c&#8217;est matériellement possible). </strong>Le chapitre correspondant (<a href="https://cdn.oreillystatic.com/oreilly/booksamplers/9781449321888_sampler.pdf" target="_blank">P. K. Janert, Will the Bad Data Please Stand Up, ch. 7</a>) est introduit en ces termes&nbsp;: &#8220;<em>there is no such thing as bad weather – only inappropriate clothing  ; there is no such thing as bad data – only inappropriate approaches&#8221;</em> (p. 95). L’auteur relate  plusieurs expériences d’analyse des données en industrie visant à évaluer, sous contrainte de coût, le nombre d’appels en entreprise ou encore, les critères de production des produits défectueux. <strong>Les modèles statistiques employés (courbe de Gauss, modèle de Poisson), ont chaque fois permis de détecter des exceptions qui ont requis une nouvelle inspection du domaine d’application</strong> (par exemple, au sein de la chaîne de production, des sources de destruction accidentelles n’avaient pas été intégrées dans la structure de l’échantillon). L’auteur plaide pour une approche empirique scientifique invitant à un réexamen régulier du modèle d’observation et des hypothèses associées&nbsp;: “<em>It was not the data that was the problem. The problem was de discrepancy between the data and our ideas (assumptions) about what the data should be like </em> …  <em>this discrepancy can lead to a form of “creative tension, which brings with it the opportunity for additional</em> insights” (p. 104).</li>
<li><strong>Prendre en considération le fait que des données non valides peuvent avoir, à l’insu de l’observateur, un impact (financier, par exemple) sur le réel empirique étudié. </strong>Dans certains cas, l’inadéquation des données au modèle d’observation a un impact direct sur les réalités observées (<em>S. Burns, When Data and Reality Don’t Match, ch. 9</em>).  Ainsi, <strong>les données sur l’état des marchés financiers diffusées sur Internet (Google Finance – Yahoo! Finance</strong>) peuvent faire, en quelques minutes, partie intégrante du marché étudié où l’on observe &#8220;<em>a tight feedback loop where data about the state of the market affects the market (e.g. rising prices may cause people to push prices up further)</em>” (p. 119). Même si un algorithme de « data cleansing » permet a posteriori de détecter facilement les anomalies, celles-ci ont eu, entre temps, un impact concret sur le marché. Ainsi, le cas s’est-il présenté le 6 septembre 2008, lorsque le spider de Google News a diffusé par défaut à la date du jour des données plus anciennes non datées (et en fait obsolètes) concernant la banqueroute d’une valeur cotée sur le marché.  En quelques minutes, cette information a donné lieu à des mouvements de vente massifs de la part des traders, avant que l’on ne se rende compte de l’erreur (p. 125). De tels phénomènes se sont souvent produits dans le secteur financier. Comment considérer le statut de ces données formellement erronées ex post, lorsqu’elles ont agi sur le marché réel&nbsp;? D’importantes questions d’interprétation doivent être en effet abordées, lorsqu’on étudie un domaine d’application empirique critique, au sein duquel le système d’information est un instrument d’action sur les réalités qu’il représente.</li>
<li><strong>Accepter les compromis, dans le cadre d’un double arbitrage “fitness for use” &amp; &#8220;coût-bénéfice&#8221;. </strong>On déduira facilement des recommandations qui précèdent que la &#8220;qualité parfaite&#8221; n’existe pas (<a href="https://cdn.oreillystatic.com/oreilly/booksamplers/9781449321888_sampler.pdf" target="_blank">Vaisman M., The Dark Side of Data Science, ch. 15</a>) . <strong>Dans le domaine de la police criminelle</strong>, par exemple, au sein du <strong>Chicago Police Department’s Predictive Analytics Group </strong>(<a href="https://cdn.oreillystatic.com/oreilly/booksamplers/9781449321888_sampler.pdf" target="_blank">B. J.  Goldstein,  Don’t Let the Perfect Be the Enemy of the Good: Is Bad Data Really Bad?, ch. 11</a>),  les séries statistiques temporelles relatives aux appels d’urgence (&#8220;<em>Reported Crime Information</em>&#8220;, &#8220;<em>Sale of Narcotics</em>&#8220;, …) sont exploitées en vue de prévoir l’émergence de crimes par secteur géographique. Naturellement, dans la pratique, certains appels ne donnent pas lieu à la détection d’un délit (parce que les auteurs ont été prévenus entre-temps, par exemple). Ces informations sont toutefois utiles, pragmatiquement. Ainsi, le responsable du département conclut en ces termes &nbsp;:  &#8220;<em>In order to make informed strategic and tactical decisions in an environment with imperfect data, one must make compromises. … Still, I have repeatedly noted that it is better to have an informed decision built on imperfect data than to have decision built on no data at all. When one accepts that imperfection, it opens up the ability to integrate data into all supports of projects and policies</em>” (p. 148). On trouve le même type d’analyse dans le domaine du recensement aux USA et des enquêtes réalisées par le<strong> Congressional Budget Office</strong> ou la <strong>U. S. Social Security Administration</strong> (<a href="https://cdn.oreillystatic.com/oreilly/booksamplers/9781449321888_sampler.pdf" target="_blank">J. A. Schwabish, Subtle Sources of Bias and Error, ch. 10</a>).   C’est sur cette sage relativité que l’ouvrage se termine, privilégiant le pragmatisme et l’expérience à toute velléité stérile d’une représentation idéale du réel (<a href="https://cdn.oreillystatic.com/oreilly/booksamplers/9781449321888_sampler.pdf" target="_blank">Q. E. McCallum &amp; K. Gleason, Data Quality Analysis Demystified: Knowing When Your Data Is Good Enough, ch. 19</a>)&nbsp;:</li>
</ol>
<p style="text-align: center;"><em>“Things change (and break)</em></p>
<p style="text-align: center;"><em> … </em></p>
<p style="text-align: center;"><em>Indeed”.</em></p>
<p> <img loading="lazy" decoding="async" class="size-full wp-image-5412 aligncenter" alt="StrangeLoopLogo_tc" src="/wp-content/uploads/2013/04/StrangeLoopLogo_tc.png" width="222" height="158" /></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>A propos du code mort</title>
		<link>https://www.smalsresearch.be/a-propos-du-code-mort/</link>
		
		<dc:creator><![CDATA[Jean-Pierre Latour]]></dc:creator>
		<pubDate>Thu, 16 Feb 2012 13:46:08 +0000</pubDate>
				<category><![CDATA[Blog post]]></category>
		<category><![CDATA[coding]]></category>
		<category><![CDATA[complexity]]></category>
		<category><![CDATA[cost cutting]]></category>
		<category><![CDATA[Data Quality Tools]]></category>
		<category><![CDATA[Managing IT costs]]></category>
		<category><![CDATA[software engineering]]></category>
		<guid isPermaLink="false">/?p=3875</guid>

					<description><![CDATA[Le code mort est le code devenu inutile car plus jamais utilisé dans une application. Pourquoi du code mort&#160;? Lors des opérations de maintenance correctives ou évolutives les développeurs (disciplinés) créent assez spontanément une nouvelle version de leur code &#8230; mais n&#8217;élimine que trop (très) peu souvent le code devenu inutile. Au mieux est-il commenté, [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><span id="more-3875"></span></p>
<p>Le code mort est le code devenu inutile car plus jamais utilisé dans une application.</p>
<p>Pourquoi du code mort&nbsp;? Lors des opérations de maintenance correctives ou évolutives les développeurs (disciplinés) créent assez spontanément une nouvelle version de leur code &#8230; mais n&#8217;élimine que trop (très) peu souvent le code devenu inutile. Au mieux est-il commenté, ce qui finira de toutes façons par constituer une gêne. Autre phénomène tout aussi fréquent&nbsp;: la désynchronisation des commentaires d&#8217;avec le code (ou comment apparaissent des commentaires eux-mêmes morts).</p>
<p>Le code mort rend le code utile plus confus et plus complexe, avec comme conséquence immédiate une augmentation des coûts de maintenance.</p>
<p>Selon certaines études le pourcentage de code mort se situerait entre 10 et 15% pour les applications de 5 ans d&#8217;âge, et entre 30 et 40% pour les applications au delà de 20 ans d&#8217;âge.</p>
<p>D&#8217;autres études situent le coût d&#8217;une ligne de code autour de 3 à 4 euros, tests compris. L&#8217;éradication du code mort peut donc constituer une belle économie sur le budget de maintenance.</p>
<p>L&#8217;intérêt pour l&#8217;éradication du code mort est encore plus vrai et immédiat dans le cas d&#8217;une migration. Confronté par exemple à l&#8217;abandon de son mainframe (voulu ou obligé) toute organisation aurait intérêt à se poser la question de l&#8217;opportunité d&#8217;une telle opération avant de se lancer dans la migration de son code. Que ce soit par la voie d&#8217;une traduction automatisée ou par réécriture.</p>
<p>Dans le premier cas la facturation se faisant généralement à la ligne de code l&#8217;explication est simple. Et à supposer que la balance entre la réduction du coût de la traduction et le coût de l&#8217;éradication du code mort ne soit pas positive , ou pas assez, la justification peut être facilement trouvée dans la volonté de profiter du moment de la migration pour réduire la dette technique (dont l&#8217;éradication du code mort est une composante importante).</p>
<p>Dans le second cas, la qualité des documentations étant habituellement ce que nous savons tous, éliminer le code mort ne pourra être que profitable lorsqu&#8217;il s&#8217;agit de &#8220;plonger&#8221; dans le code pour en rédécouvrir la finalité. Pas de temps perdu à la redécouverte de code inutile, et pas de parasitage sur la compréhension du code utile par le code inutile.</p>
<p>Une opération d&#8217;éradication du code mort se doit d&#8217;être automatisée. Des outils existent pour ce faire, tel que l&#8217;outil Kris de la firme Telebig, spécialisée dans la migration de systèmes legacy. Il est possible de télécharger une version gratuite qui vous permet de situer votre code mort mais pas de l&#8217;éliminer. Il semble que la solution devrait à terme être rendue disponible en mode SaaS.</p>
<p>L&#8217;éradication du code mort&nbsp;? Un outil de réduction des coûts, de gestion de la qualité et une source d&#8217;économie sans doute importante dans une opération de migration.</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
