<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Predictive Analytics &#8211; Smals Research</title>
	<atom:link href="https://www.smalsresearch.be/tag/predictive-analytics/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.smalsresearch.be</link>
	<description></description>
	<lastBuildDate>Thu, 09 Apr 2026 12:15:42 +0000</lastBuildDate>
	<language>en-GB</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://www.smalsresearch.be/wp-content/uploads/2026/01/cropped-cropped-Smals_Research-32x32.png</url>
	<title>Predictive Analytics &#8211; Smals Research</title>
	<link>https://www.smalsresearch.be</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Working Predictive Analytics (4): Driven by Results</title>
		<link>https://www.smalsresearch.be/working-predictive-analytics-4-driven-by-results/</link>
					<comments>https://www.smalsresearch.be/working-predictive-analytics-4-driven-by-results/#comments</comments>
		
		<dc:creator><![CDATA[Dries Van Dromme]]></dc:creator>
		<pubDate>Mon, 08 Sep 2014 23:01:09 +0000</pubDate>
				<category><![CDATA[Blog post]]></category>
		<category><![CDATA[analytics]]></category>
		<category><![CDATA[Information management]]></category>
		<category><![CDATA[methodology]]></category>
		<category><![CDATA[Predictive Analytics]]></category>
		<guid isPermaLink="false">/?p=7519</guid>

					<description><![CDATA[Het mooie aan Predictive Analytics is dat de techniek zich zo natuurlijk leent tot een resultaatgedreven aanpak. En dat willen we allemaal, toch? We willen nu weten welk resultaat we straks mogen verwachten. En als voor straks een ongewenst resultaat verwacht wordt, we willen nu weten wat we eraan kunnen doen. Ook al beseffen we [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Het mooie aan Predictive Analytics is dat de techniek zich zo natuurlijk leent tot een resultaatgedreven aanpak. En dat willen we allemaal, toch? We willen <em>nu</em> weten welk resultaat we straks mogen verwachten. En als voor straks een ongewenst resultaat verwacht wordt, we willen <em>nu</em> weten wat we eraan kunnen doen. Ook al beseffen we dat de uitkomst van complexe processen nooit 100% voorspeld kan worden, toch kunnen Predictive Analytics-technieken enorm helpen om processen meer te <em>sturen</em> naar het gewenste resultaat, en de betrouwbaarheid ervan te kwantificeren.</p>
<p><strong>Driven by Results, Governed by Risks</strong></p>
<p>De meeste business-processen zijn uiteraard ingericht met een welbepaald doel voor ogen. Bij de behandeling van een patiënt: genezing. Bij de opvolging van verschuldigde betalingen van ondernemingen aan de overheid: tijdige inning. Enzovoort.</p>
<p>We stellen echter vast dat de complexiteit van business-processen, het aantal stappen, vertakkingen, acties en uitzonderingen, veelal is ingegeven is door <strong>risicobeheersing</strong>. Het doel is immers in wezen: genezing zonder complicaties en zonder negatieve bijwerkingen op langere termijn. (We zwijgen hier best over wat het doel moet zijn als genezing niet mogelijk is. Maar in die context moet de vraag zeker ook gesteld worden.) In het geval van de regelmatige inning, kan het doel ook de langdurige financiële gezondheid van beide partijen zijn, met zo positief mogelijke invloed op tewerkstelling.</p>
<p><strong>Welk proces is</strong> in deze omstandigheden <strong>optimaal?</strong> In het geval van een zijtak die een specifieke risicogroep anders afhandelt, welke criteria bepalen het behoren tot deze risicogroep? In het bijzonder, wanneer er manuele stappen zijn, wanneer er keuzes gemaakt moeten worden die zich beroepen op de ervaring van de business-user, kan men zich de vraag stellen: wat is optimaal? Is de leidraad, die ooit is opgesteld, wel optimaal? En als hij destijds goed was, is hij nog wel aangepast aan de huidige omstandigheden?</p>
<p><a href="/wp-content/uploads/2014/09/man-glas-SOLUTION.jpg"><img decoding="async" class="alignleft  wp-image-7533" src="/wp-content/uploads/2014/09/man-glas-SOLUTION-300x200.jpg" alt="Businessman pushing solution button concept" width="245" height="167" /></a>In zulke context nemen wij resoluut de stelling in dat het <em>nodig</em> is &#8211; op zijn minst <em>nuttig</em>, en vaak strategisch &#8211; om wetenschappelijk verantwoord te <strong>kwantificeren</strong> in hoeverre procescriteria een voorspellende waarde (<a title="predictive power" href="https://en.wikipedia.org/wiki/Predictive_power" target="_blank">predictive power</a>) hebben voor een welbepaald resultaat (annex neveneffecten). Dit kunnen we doen met Predictive Analytics-technieken, een deelverzameling van datamining. Kort gezegd betekent dit dat we de voorhanden zijnde historiek van procesintelligentie (gestructureerde data), als training-data gebruiken voor een <strong>predictief model</strong> (meer info en <em>how to</em>: zie <a title="mijn vorige post" href="/working-predictive-analytics-3-feedback/" target="_blank">mijn vorige post</a>), gericht op vastgestelde procesresultaten. Een goede typering van procesresultaten op lange termijn, is in deze optiek cruciaal. Zulk een datamining-model levert dan niet alleen een formule om te berekenen welk resultaat op lange termijn we mogen verwachten in functie van de op heden gemeten procesgegevens, maar ook met welke betrouwbaarheid deze projectie gebeurt, en welk relatief aandeel de verschillende procescriteria hebben.</p>
<p><strong>Next steps &#8211; procesvernieuwing</strong></p>
<p>Natuurlijk is het kwantificeren van de voorspellende waarde van de huidige procescriteria al reeds nuttig. Maar voor Predictive Analytics is dat maar de eerste stap. Omkaderd door een gedegen business-analyse zal men immers in staat zijn met Predictive Analytics nieuwe indicatoren, nieuwe criteria, en nieuwe, resultaatgerichte acties voor te stellen, en daarvan de relatieve meerwaarde te kwantificeren. Zo weet men of het sop de kool wel waard zal zijn als men gaat ingrijpen in een bestaand business-proces. En zo ja, welke criteria het meest lijken door te wegen.</p>
<p>We kunnen ons voorstellen dat de hierboven beschreven aanpak aan de basis kan liggen van alle Business Process Re-engineeringen van de toekomst &#8230;</p>
<p><strong>Conclusie</strong></p>
<p>Ons inziens kan geen enkele resultaatgerichte Business Process Re-engineering aan de slag zonder zich minstens te inspireren op conclusies die, wetenschappelijk verantwoord, gekwantificeerd kunnen worden dankzij data-driven predictive analytics.</p>
<p>De organisatie van de toekomst is analytics-driven, en zal minstens haar kernprocessen sturen aan de hand van criteria waarvan de predictive power dankzij analytics is gekwantificeerd.</p>
<p>In dit artikel wensten we vooral de aandacht te vestigen op de resultaatgerichte aspecten van predictive analytics, hoe er resultaatgericht gedacht moet worden bij elk business-proces, en hoe predictive analytics hierbij helpen.</p>
<p>Tot slot nog enkele praktische tips voor de analytics-driven organisatie:</p>
<ol>
<li>Breng voor elk business-proces de resultaten en neveneffecten op lange termijn in kaart; stel voldoende in vraag wat het doel eigenlijk is (vaak is dit slechts impliciet gesteld); typeer de resultaten en zorg dat ze geregistreerd zijn zodat datamining mogelijk is.</li>
<li>Zorg voor voldoende procesintelligentie: zorg dat de acties die in verschillende processtappen genomen worden, geregistreerd zijn; evalueer ook het potentieel van logging-informatie.</li>
<li>Bekijk, vooral in de context van risicobeheersing, de huidige procescriteria kritisch, kwantificeer de &#8220;as is&#8221;, en tracht samen met de business-kenners nieuwe kandidaat-criteria te vinden en te kwantificeren.</li>
<li>Goede criteria drukken zich typisch uit in functie van karakteristieken, gebeurtenissen, en <strong>gedrag</strong>, in een bepaalde tijdspanne, voorafgaand aan de vaststelbare resultaten uit 1.</li>
</ol>
<p>Succes!</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.smalsresearch.be/working-predictive-analytics-4-driven-by-results/feed/</wfw:commentRss>
			<slash:comments>1</slash:comments>
		
		
			</item>
		<item>
		<title>Working Predictive Analytics (3): Feedback</title>
		<link>https://www.smalsresearch.be/working-predictive-analytics-3-feedback/</link>
		
		<dc:creator><![CDATA[Dries Van Dromme]]></dc:creator>
		<pubDate>Thu, 03 Apr 2014 11:11:05 +0000</pubDate>
				<category><![CDATA[Blog post]]></category>
		<category><![CDATA[analytics]]></category>
		<category><![CDATA[BPM]]></category>
		<category><![CDATA[Information management]]></category>
		<category><![CDATA[methodology]]></category>
		<category><![CDATA[Predictive Analytics]]></category>
		<guid isPermaLink="false">/?p=6939</guid>

					<description><![CDATA[Learning by doing. Feedback is cruciaal. Nadat we vorig jaar in de infosessie “Streamlining Analytics” enkele praktische aspecten in detail konden belichten (in a nutshell: overwinnen van barrières bij de introductie van Analytics in de organisatie &#8211; architectuur, data quality, methodologie &#8211; cfr. slideshare, research note), is het hoog tijd om een andere belangrijke succesfactor [&#8230;]]]></description>
										<content:encoded><![CDATA[<p dir="ltr"><em><strong>Learning by doing. Feedback is cruciaal.</strong></em></p>
<p><a href="/wp-content/uploads/2014/04/StreamliningAnalytics_small.png"><img decoding="async" class="alignleft  wp-image-6955" alt="StreamliningAnalytics_small" src="/wp-content/uploads/2014/04/StreamliningAnalytics_small-300x225.png" width="126" height="95" srcset="https://www.smalsresearch.be/wp-content/uploads/2014/04/StreamliningAnalytics_small-300x225.png 300w, https://www.smalsresearch.be/wp-content/uploads/2014/04/StreamliningAnalytics_small.png 637w" sizes="(max-width: 126px) 100vw, 126px" /></a>Nadat we vorig jaar in de infosessie “Streamlining Analytics” enkele praktische aspecten in detail konden belichten (in a nutshell: overwinnen van barrières bij de introductie van Analytics in de organisatie &#8211; architectuur, data quality, methodologie &#8211; cfr. <a href="https://www.smals.be/nl/content/streamlining-analytics" target="_blank">slideshare</a>, <a href="/publications/document/?docid=71" target="_blank">research note</a>), is het hoog tijd om een andere belangrijke succesfactor voor Predictive Analytics onder de loep te nemen: <em>feedback</em>.</p>
<p>Een predictief model heeft slechts <strong>waarde</strong> als het ook ingezet wordt in processen. Dit wil zeggen dat de voorspelling die het model levert, geëxploiteerd wordt om <strong>actie</strong> te ondernemen: om in te grijpen in het productieproces of om beslissingen te nemen in een business-proces, met een welbepaald <strong>doel</strong>. Het is vervolgens van het allergrootste belang om de <strong>werkelijke uitkomst</strong> te registreren en te confronteren met de voorspelde. Die ‘werkelijke uitkomst’, voorzien van de juiste metadata, noemen we de <em>feedback</em>.</p>
<p><a href="/wp-content/uploads/2014/04/feedback-compass_small.png"><img decoding="async" class="alignright  wp-image-6951" alt="feedback compass_small" src="/wp-content/uploads/2014/04/feedback-compass_small-300x227.png" width="126" height="95" /></a>Waarom is deze feedback-registratie zo belangrijk? De ervaring die we in afgelopen en doorlopende projecten opdeden, leert ons dat nauwkeurige feedback-registratie een cruciaal, zoniet het belangrijkste, element vormt voor de realisatie van meerwaarde op de volgende vlakken:</p>
<ol>
<li>opvangen van het gebrek aan trainingsdata &#8211; de verwachte nauwkeurigheid opdrijven;</li>
<li>kwantificeren van de werkelijke nauwkeurigheid &#8211; rapporteren;</li>
<li>opvangen van evolutie &#8211; nauwkeurig blijven;</li>
<li>innovatie en procesinnovatie mogelijk maken.</li>
</ol>
<p><strong>Opvangen van het gebrek aan trainingsdata &#8211; de verwachte nauwkeurigheid opdrijven</strong></p>
<p dir="ltr">De karakteristieken van het trainingsproces doen ons dit onmiddellijk inzien. Even recapituleren om wat termen in te voeren en het predictive-analyticsproces te verduidelijken:</p>
<ul>
<li>Predictive analytics bedient zich in een trainingsfase van algoritmen en invoerdata om een formule (een model, een patroon) op te stellen. Deze formule drukt zich uit in termen van variabelen uit de invoerdata (de zogenaamde ‘onafhankelijke’ variabelen), en berekent een verwachte waarde voor een doelvariabele (de ‘afhankelijke’ variabele). De doelvariabele drukt uit waar het voor de business om te doen is. Bv. de onafhankelijke variabelen zijn afgeleid van reeksen biometrische waarden, gemeten bij een gemonitorde patiënt; de afhankelijke variabele is het optreden van nierfalen binnen een zekere tijd.</li>
<li>Predictive Analytics moet dus teruggrijpen naar historische data, waarbij voor een voldoende groot gedeelte de doelvariabele, de uitkomst van wat men wenst te voorspellen, bekend is (‘gelabelde’ data).</li>
<li>De verwachte nauwkeurigheid van een predictief model kan dan worden berekend in functie van hoeveel keer de berekende verwachte waarde van de doelvariabele correct of incorrect blijkt.</li>
<li>Als de verwachte nauwkeurigheid voldoende groot is, en het model is voldoende stabiel, dan kan de formule van het model ‘predictief’ ingezet worden, om de verwachte uitkomst te berekenen voor nieuwe invoerdata waarvan de doelvariabele nog niet bekend is (‘ongelabelde’ data).</li>
</ul>
<p>Het is een statistische wetmatigheid, en in de praktijk ondervinden we het ook zo, dat de (verwachte) nauwkeurigheid van een predictief model verhoogt naarmate er meer gelabelde trainingsdata voorhanden zijn. Een tweede wetmatigheid zegt dat hoe meer (onafhankelijke) invoervariabelen er zijn, dus hoe complexer of rijker het model, hoe meer trainingsdata er minimaal nodig zijn voor een stabiel, robuust model. Een derde stelt dat de ongelijke verdeling van de doelvariabele een invloed heeft op de nauwkeurigheid waarmee het model in staat is de verschillende voorkomende waarden van de doelvariabele te voorspellen.</p>
<p dir="ltr">In de praktijk is het echter meestal zo dat er <strong>te weinig gelabelde data</strong> voorhanden zijn, of toch minder dan wenselijk. Dit omdat het duur of moeilijk is om ze te bemachtigen (denk bv. aan medische experimenten). Bij ongelijke verdeling van de doelvariable zal men typisch geconfronteerd zijn met het feit dat net de interessantste waarde het minst voorkomt.</p>
<p>Besluit:</p>
<p dir="ltr">Wie bij het inzetten van een predictief model in een proces, ook zorgt voor een nauwgezette registratie van de werkelijke uitkomst, beschikt na verloop van tijd over méér gelabelde data, en zal dus in staat zijn betere predictieve modellen te bouwen: nauwkeuriger, robuuster, gerichter.</p>
<p><strong>Kwantificeren van de werkelijke nauwkeurigheid &#8211; rapporteren</strong></p>
<p dir="ltr">The proof is in the pudding. Het is weinig interessant te beschikken over een model dat een hoge verwachte nauwkeurigheid kent, als het in de praktijk niet werkt. Het is evident dat slechts de registratie van de werkelijke uitkomst ons in staat stelt te rapporteren over de werkelijke nauwkeurigheid, de ‘performantie’ van het model.</p>
<p dir="ltr">Waar de werkelijke nauwkeurigheid sterk afwijkt van de verwachte, valt ongetwijfeld veel te leren uit het bestuderen van individuele cases waar de predictie verschilt van de geregistreerde uitkomst = feedback. Dit verhoogt het inzicht in de eigen business-context.</p>
<p dir="ltr">Verder hoeft het geen betoog dat de feedbackregistratie best gestructureerd, elektronisch, gebeurt. Dit maakt een regelmatige, automatische rapportering mogelijk, en maakt het ook mogelijk de performantie van een predictief model op te volgen in de tijd. Wat ons naadloos brengt tot het volgende punt.</p>
<p><strong>Opvangen van evolutie &#8211; nauwkeurig blijven</strong></p>
<p dir="ltr">De werkelijkheid evolueert. De context van elk proces zal in de tijd dus steeds veranderen. Men mag dus verwachten dat ook een predictief model mettertijd gaat slijten. Dankzij feedback-registratie zijn we nu niet alleen in staat deze daling in perfomantie waar te nemen, maar kunnen we er nu ook iets aan doen! Het volstaat immers de ‘oudste’ gelabelde data te laten vallen en te vervangen door ‘nieuwe’, waarvoor de uitkomst dus werd geregistreerd.</p>
<p dir="ltr">In het geval de feedback elektronisch is geregistreerd, is het ook mogelijk dit in een continu proces te gieten, waarbij een glijdend tijdsvenster wordt gebruikt bij automatisch opstellen van trainingsdata. Aldus berekent men op regelmatige wijze een nieuw predictief model, en blijft men constant “leren” in de evoluerende context.</p>
<p><strong>Innovatie en procesinnovatie mogelijk maken</strong></p>
<p dir="ltr"><a href="/wp-content/uploads/2014/04/fresh-ideas-chrono_small.png"><img loading="lazy" decoding="async" class="alignleft  wp-image-6953" alt="fresh ideas chrono_small" src="/wp-content/uploads/2014/04/fresh-ideas-chrono_small-300x210.png" width="168" height="118" /></a>Met predictive analytics wil men vaak een nieuw probleem aanpakken, een nieuwe opportuniteit aanboren, een risico of fenomeen dat men voorheen niet expliciet, of expliciet genoeg, registreerde. Bv. voor fraudebestrijding: misschien deed men dit voorheen niet, of niet expliciet op een data-gedreven manier. Of bv. in de context van de medische wetenschap: het kan zijn dat men voorheen slechts een algemeen nierfalen benoemde, herkende, en registreerde, daar waar men nu voor een specifiek of gevaarlijk subtype een gerichtere, nauwkeurigere diagnose- of zorgondersteuning wenst uit te bouwen.</p>
<p dir="ltr">In die gevallen start men dan zonder gelabelde data, of in het beste geval met ‘onnauwkeurig getypeerde’ data. Bv. voor fraudebestrijding heeft men boetes geregistreerd, maar men kan fraude niet onderscheiden van vergissingen e.a. Bv. nierfalen: aanvankelijk heeft men slechts trainingsdata voor het algemeen type.</p>
<p dir="ltr">In elk geval dient men een nieuw afhandelproces te definiëren, waarbij men voor nieuwe dingen aandacht heeft, en waarbij men nauwkeurig, met de juiste metadata, de uitkomst registreert. Deze feedback kan dan op termijn wel geëxploiteerd worden in een echt predictief model.</p>
<p><a href="/wp-content/uploads/2012/09/improvementCycle.png"><img loading="lazy" decoding="async" class="aligncenter size-medium wp-image-4594" alt="improvementCycle" src="/wp-content/uploads/2012/09/improvementCycle-300x163.png" width="300" height="163" srcset="https://www.smalsresearch.be/wp-content/uploads/2012/09/improvementCycle-300x163.png 300w, https://www.smalsresearch.be/wp-content/uploads/2012/09/improvementCycle.png 738w" sizes="auto, (max-width: 300px) 100vw, 300px" /></a></p>
<p><strong>Conclusie</strong></p>
<p dir="ltr">We willen hiermee vooral de goede raad meegeven om van bij het begin het ganse proces te beschouwen, en in het afhandelproces (na actie in functie van predictie) te voorzien om goed getypeerde feedback te registreren. Zodanig dat die feedback, liefst volledig geautomatiseerd, geëxploiteerd kan worden voor het opvolgen van modelperformantie en voor constante bijsturing van predictieve modellen. Het adagium is: “<strong>Learning by Doing, and Continue to Learn</strong>”.</p>
<p dir="ltr">Hoe slimmer de feedbackregistratie is opgezet, hoe meer mogelijkheden de organisatie zal hebben om haar inzicht te vergroten en predictieve modellen te richten op voorheen onontgonnen terreinen.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Analytics behind the scenes: humans and computers versus big data</title>
		<link>https://www.smalsresearch.be/analytics-behind-the-scenes-humans-and-computers-versus-big-data/</link>
		
		<dc:creator><![CDATA[Jan Meskens]]></dc:creator>
		<pubDate>Wed, 04 Sep 2013 12:15:58 +0000</pubDate>
				<category><![CDATA[Blog post]]></category>
		<category><![CDATA[analytics]]></category>
		<category><![CDATA[big data]]></category>
		<category><![CDATA[data center]]></category>
		<category><![CDATA[Predictive Analytics]]></category>
		<guid isPermaLink="false">/?p=5935</guid>

					<description><![CDATA[&#8220;Analytics&#8221; is een term die in de data-analyse wereld vaak gebruikt wordt, maar waar weinig consensus over de inhoud van deze term bestaat. Zo beschrijft men analytics vaak als een manier  om een antwoord te bieden aan vragen over de inhoud van de data (descriptive analytics) of over toekomstige ontwikkelingen die kunnen voorspeld worden op [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><img loading="lazy" decoding="async" class="alignleft" style="margin-left: 10px; margin-right: 10px;" alt="" src="https://www.growhack.com/wp-content/uploads/2012/12/analytics1.jpg" width="196" height="126" />&#8220;Analytics&#8221; is een term die in de data-analyse wereld vaak gebruikt wordt, maar waar weinig consensus over de inhoud van deze term bestaat. Zo beschrijft men analytics vaak als een <em>manier  </em>om een antwoord te bieden aan vragen over de inhoud van de data (<em>descriptive analytics</em>) of over toekomstige ontwikkelingen die kunnen voorspeld worden op basis van de huidige data (<a href="https://en.wikipedia.org/wiki/Predictive_analytics" target="_blank"><em>predictive analytics</em></a>). Daarnaast kan men analytics ook classifiseren volgens de methodes/technieken die gebruikt worden om een antwoord te bieden aan de voornoemde vraagstukken. In dit laatste geval spreken we dan vaak over methodes zoals statistische analyses, data mining, artificiele intelligentie, classificaties of machine learning.</p>
<h2>Human versus computational analytics</h2>
<p>In deze blogpost gaan we analytics op een andere manier indelen: volgens de <em>actor</em> die analytics uitvoert. Actors zijn diegenen die de analytics technieken uitvoeren en beoordelen, om vervolgens de nodige conclusies te trekken.  Zo kunnen we spreken over twee soorten analytics:</p>
<ul>
<li><em><strong>Human analytics</strong></em>, wat alle technieken omvat waar men manueel op zoek gaat naar patronen, afwijkingen, &#8230; in de data. Dit zijn meestal technieken die gebaseerd zijn op visualisaties van bepaalde parameters. Deze technieken laten toe om de finesses van een bepaald soort data leren te kennen, de volledigheid in te schatten en te bepalen welke variabelen belangrijk zijn of niet. Een groot voordeel van deze techniek is dat hij kan ingezet worden voor heel veel verschillende types problemen en types van data. Een nadeel is dat men vaak slechts een beperkt aantal parameters kan visualiseren/interpreteren en dat men bij hele grote volumes data vaak met steekproeven dient te werken om een niet te cluttered beeld van de data te verkrijgen.</li>
<li><em><strong>Computational analytics</strong></em>, zijn alle technieken waar de computer autonoom (i.e. volgens bepaalde regels en algoritmes) op zoek gaat naar patronen in de data. Dit zijn meestal methodes die gebaseerd zijn op <a href="https://en.wikipedia.org/wiki/Artificial_intelligence" target="_blank">artificiele intelligentie </a>(<a href="https://en.wikipedia.org/wiki/Neural_network" target="_blank">neurale netwerken</a>, <a href="https://en.wikipedia.org/wiki/Support_vector_machine" target="_blank">support vector machines)</a>, <a href="https://en.wikipedia.org/wiki/Machine_learning" target="_blank">machine learning</a> (<a href="https://en.wikipedia.org/wiki/Decision_tree" target="_blank">decision trees</a>) of geavanceerde statistiek (verscheidene<a href="https://en.wikipedia.org/wiki/Regression_analysis" target="_blank"> regressie analyse </a>technieken). Een groot voordeel aan deze technieken is dat ze automatisch op regelmatige tijdstippen of ten gevolge van bepaalde events kunnen uitgevoerd worden en de nodige resultaten leveren. Computational analytics mogen we echter niet aanzien als een magische oplossing voor alle analyse problemen. Zo verwachten bijna al deze technieken een zeer strikt data-schema (de eerste normaalvorm), wat heel wat transformaties vooraf nodig maakt. Deze transformaties dienen door mensen bedacht en beschreven te worden, wat de nodige tijd kost. Voorts is niet elke techniek even geschikt voor elk probleem: soms is techniek één goed voor een binaire keuze uit een set numerieke variabelen daar waar techniek twee met heel veel verscheidene soorten variabelen en een ongebalanceerde data-verdeling overweg kan.</li>
</ul>
<h2>Het human-computational data-analyse proces</h2>
<p>De opdeling uit de vorige sectie laat ons nu toe om een typisch data-analyse proces te beschrijven waar zowel human als computational analytics noodzakelijk zijn. De stappen die we in zo een typisch human-computational data-analyse proces nemen zijn de volgende:</p>
<ol>
<li><span style="line-height: 13px;">We passen éérst <strong>human-analytics technieken</strong> toe om de data die relevant is voor een bepaald probleem te leren kennen. Zo kunnen we de impact van bepaalde variabelen inschatten en de links tussen bepaalde bronnen leren kennen. In deze eerste fase kunnen we de geproduceerde, human-readable, visualisaties gebruiken tijdens overleg met de klant om bepaalde keuzes beter af te wegen.</span></li>
<li>Nadat we tijdens de eerste fase de data hebben leren kennen kunnen we de nodige<strong> data-transformaties</strong> implementeren. Deze data-transformaties dienen gebouwd te worden om in de volgende fase de computational-analytics technieken van input te voorzien. Typische transformaties die hier gebouwd worden zijn: het discretiseren/omvormen van continue variabelen, het omzetten van netwerkdata naar een reeks van variabelen en het herkennen van features in multimedia data.</li>
<li>Nu we een reeks van variabelen gebouwd hebben dmv van data-transformaties kunnen we het <strong>computational-analytics</strong> algoritme van input voorzien. Dit gebeurt in twee stappen:</li>
</ol>
<ul>
<ul>
<li>De <strong>trainingsfase</strong>, een subset van de data (de trainingsset) wordt door het algoritme geanalyseerd. Dit leidt tot een predictief model dat bepaalde beslissingen over de data kan nemen op basis van nieuwe inputdata.</li>
<li>De <strong>toepassingsfase</strong>, het predictief model wordt losgelaten op de nieuwe data, wat zal leiden tot een reeks van voorspellingen/schattingen over deze nieuwe data.</li>
</ul>
</ul>
<p>Bovenstaand proces toont aan dat de rol van de computer &#8211; computational analytics &#8211; slechts beperkt is in de hele data-analyse. Mensen &#8211; analisten &#8211; dienen eerst de data voldoende te begrijpen, de nodige transformaties te bouwen en het juiste algoritme te kiezen alvorens een computer de data op regelmatige basis kan analyseren. Bovendien is het belangrijk op te merken dat dit een iteratief proces is. Zo zal men initieel vaak transformaties maken op basis van de visualisaties, maar blijken deze niet significant voor het uiteindelijke predictief model. Dan dient men terug te grijpen naar nieuwe, meer gedetailleerdere visualisaties, om andere transformaties te maken die vervolgens het resultaat van het predictief model positief kunnen beinvloeden.</p>
<h2>De uitdaging: &#8220;Big(ger) Data&#8221;</h2>
<p>Door technieken als human en computational analytics te combineren kunnen we data via een vast stramien gaan analyseren en het resulterende model later op een structurele manier exploiteren. Toch schuilt er een addertje onder het gras: het volume aan data dat we analyseren heeft een grote invloed op de snelheid van het proces. Zo is het moeilijk om hele grote volumes aan data te visualiseren op een een begrijpbare, niet cluttered manier (er zijn immers slechts ~3 miljoen pixels die kunnen benut worden in een visualisatie). Dit zal leiden tot foute interpretaties, wat vervolgens de aanleiding kan zijn voor niet optimale transformaties en kwalitatief minder goeie input voor de predictieve modellen. Bovendien duurt het uitvoeren van de transformaties op grote hoeveelheden data ook veel langer en vraagt het bouwen van een visualisatie uit een grote data-set ook meer tijd.</p>
<p>Om om te gaan met de problematiek van &#8220;big(ger) data&#8221; zien we twee interessante ontwikkelingen:</p>
<ul>
<li><span style="line-height: 13px;"><strong>krachtigere en gedistribueerde server-infrastructuren</strong>, die het mogelijk maken om bijzonder grote hoeveelheden informatie op een heel korte tijd te verwerken. We denken hier eenerzijds aan cluster of gedistribueerde infrastructuren die verscheidene servers in parallel gebruiken om queries uit te voeren. Anderzijds denken we aan data warehouse appliances die via een compleet getunede architectuur bijzonder snel analytics vraagstukken kunnen oplossen.</span></li>
<li><strong>nieuwe visualisatietechnieken</strong>, die het mogelijk maken om ondanks een bijzonder grote hoeveelheid data toch door het bos de bomen nog te zien. Visualisatietechnieken die hierbij een belangrijke rol spelen zijn <strong><em>smoothing</em>, </strong><strong><em>aggregatie (binning) </em></strong>en<em> </em><strong><em>interactie:</em></strong>
<ul>
<li>Smoothing zal bepaalde lokale effecten uitvlakken (gebruik makende van bv. piecewise regression) om een globaal beeld op de data te werpen.</li>
<li>Aggregatie deelt data op in bins met als maximum aantal bins het aantal pixels die beschikbaar zijn voor de visualisatie. Van elk van deze bins gaat men vervolgens een aantal summary statistics bouwen die men visualiseert op het scherm. Zo krijgt men een idee van welke data zich in elke bin bevindt.</li>
<li>Via interactie-technieken kan men dan inzoomen op bepaalde bins om details over deze bins te bekijken, kan men bepaalde parameters interactief filteren, data op een andere manier voorstellen, &#8230; .</li>
</ul>
</li>
</ul>
<h2>Besluit</h2>
<p>Analytics is geen magische techniek die een arbitraire hoeveelheid data als input krijgt om vervolgens de nodige conclusies te trekken. Er is een belangrijke rol weggelegd voor de menselijke analist, die de data dient te analyseren en transformeren alvorens hij door een computer kan geinterpreteerd worden dmv computational analytics. Daarnaast worden analytics technieken enorm beinvloed door de hoeveelheid data die men wenst te analyseren. Om op een goede manier met grote volumes aan data om te gaan is de vooruitgang in processing power voor analytics en visualisatie- en interactietechnieken cruciaal.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>&#8220;Mapping the World of Data Problems&#8221;&#160;: la qualité des données vue par la communauté IT</title>
		<link>https://www.smalsresearch.be/mapping-the-world-of-data-problems-la-qualite-des-donnees-vue-par-la-communaute-it-geek/</link>
		
		<dc:creator><![CDATA[Isabelle Boydens]]></dc:creator>
		<pubDate>Wed, 03 Apr 2013 15:08:50 +0000</pubDate>
				<category><![CDATA[Blog post]]></category>
		<category><![CDATA[big data]]></category>
		<category><![CDATA[data quality]]></category>
		<category><![CDATA[Data Quality Tools]]></category>
		<category><![CDATA[Database Modelling]]></category>
		<category><![CDATA[Information management]]></category>
		<category><![CDATA[Long Data]]></category>
		<category><![CDATA[Predictive Analytics]]></category>
		<guid isPermaLink="false">/?p=5398</guid>

					<description><![CDATA[ En novembre 2012, O’Reilly Media a édité un “livre-événement” en matière de &#8220;data quality&#8221;&#160;: Q. E. McCallum, Bad Data Handbook, Mapping the World of Data Problems, O’Reilly Media, 2012, 246 p. Cet ouvrage collectif  sur la qualité des données est inédit car il émane exclusivement de la communauté des web software developpers (Python, Perl script,  Parallel [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><img loading="lazy" decoding="async" class="size-medium wp-image-5399 alignleft" style="width: 323px; height: 158px;" alt="baddata" src="/wp-content/uploads/2013/04/baddata-300x109.jpg" width="310" height="144" /> En novembre 2012, O’Reilly Media a édité un “livre-événement” en matière de &#8220;data quality&#8221;&nbsp;:<a href="https://cdn.oreillystatic.com/oreilly/booksamplers/9781449321888_sampler.pdf" target="_blank"> Q. E. McCallum, Bad Data Handbook, Mapping the World of Data Problems</a>, O’Reilly Media, 2012, 246 p.</p>
<p>Cet ouvrage collectif  sur la qualité des données est inédit car il émane exclusivement de la communauté des <em>web software developpers</em> (Python, Perl script,  Parallel R, NLP, cloud computing,  …), <em>web predictive analytics et architectes IT</em> … Il compte même un  <em>hacker</em> parmi ses co-auteurs. Ces auteurs n’avaient a priori aucune prédilection pour l&#8217;étude des données : « <em>In fact, I dare say that I don’t quite care for data</em> » (p. 1). Mais, quotidiennement affectés par les problèmes de data quality dans leur job, ils ont programmé une pause entre deux lignes de code pour partager leur longue et douloureuse expérience dans les domaines d’application les plus variés :  &#8220;<em>Bad Data …. include data that eats up your time, causes you to stay late at the office, drives you to tear out your hair in frustration. It’s data that you can’t access, data that you had and then lost, data that’s not the same today as it was yesterday</em>…” (p. 1).</p>
<p>En soi, les principaux apports pratiques de cet ouvrage, en ce qui concerne le thème &#8220;Database Quality&#8221;, sont déjà connus par certains (&#8220;<em>The ideas presented here are born from (often painful) experience and are likely not new to anyone who has spent any extended time looking at data</em>&#8220;, p. 226). Ils sont par exemple plus largement intégrés dans l&#8217;approche opérationnelle  du <a href="https://www.smalsresearch.be/tag/data-quality/" target="_blank">Data Quality Competence Center de Smals </a>(voir le <a href="/?p=4269" target="_blank">data tracking</a>, <a href="https://www.smals.be/fr/content/data-quality-best-practices" target="_blank">la gestion intégrée des anomalies, le recours aux &#8220;Data Quality Tools&#8221;, la documentation du système ou encore, la mise en place d&#8217;une organisation</a>). S&#8217;agissant de l&#8217;egovernment, nos travaux sont synthétisés dans un <a title="BOYDENS I., &quot;Strategic Issues Relating to Data Quality for E-government: Learning from an Approach Adopted in Belgium&quot;. In ASSAR S., BOUGHZALA I. et BOYDENS I., éds., &quot;Practical Studies in E-Government&nbsp;: Best Practices from Around the World&quot;, Springer, 2011, p. 113-130" href="https://books.google.be/books?id=DzZk-Riel_MC&amp;pg=PA113&amp;lpg=PA113&amp;dq=Isabelle+Boydens&amp;source=bl&amp;ots=tvh3D5fX6_&amp;sig=RBEI35wYjdFzYi13LpEIQc63OGY&amp;hl=fr&amp;ei=QQP4TOiXA4uShAeUmbHnAg&amp;sa=X&amp;oi=book_result&amp;ct=result&amp;resnum=1&amp;ved=0CBYQ6AEwADgo#v=onepage&amp;q&amp;f=false" target="_blank">ouvrage coédité à New York chez Springer en 2011</a> et dans un article paru aux <a title="BOYDENS I., L&#039;océan des données et le canal des normes. In CARRIEU-COSTA M.-J., BRYDEN A. et COUVEINHES P. éds, Les Annales des Mines, Série &quot;Responsabilité et Environnement&quot; (numéro thématique&nbsp;: &quot;La normalisation&nbsp;: principes, histoire, évolutions et perspectives&quot;), Paris, n° 67, juillet 2012, pp. 22-29" href="https://www.ulb.ac.be/cours/iboydens/annales.pdf" target="_blank">Annales des Mines à Paris en 2012</a> : ils placent la question de <a href="https://catalogingandclassificationquarterly.com/ccq49nr4.html#intobs" target="_blank">l&#8217;évolution de l&#8217;information dans le temps</a> au coeur <a title="BOYDENS I. et VAN HOOLAND S., Hermeneutics applied to the quality of empirical databases. In Journal of documentation, volume 67, issue 2, 2011, pp. 279-289" href="https://www.emeraldinsight.com/journals.htm?articleid=1911713&amp;show=abstract" target="_blank">de la réflexion conceptuelle</a>,  appliquant la critique historique aux sources informatiques à des fins opérationnelles en termes de coûts-bénéfices et de gestion.</p>
<p>Nous présentons toutefois ici un aperçu de ce <a href="https://cdn.oreillystatic.com/oreilly/booksamplers/9781449321888_sampler.pdf" target="_blank">&#8220;Bad Data Handbook&#8221;</a> et des catégories de questions qu&#8217;il aborde car il comporte au moins<strong> quatre aspects très intéressants et, en soi, particulièrement innovants</strong> &nbsp;:</p>
<ul>
<li>les très nombreux <strong>cases studies</strong> présentés sont extraordinairement riches, inédits et variés dans des domaines d&#8217;applications stratégiques (police criminelle, marchés financiers internationaux, chimie urologique, egov, &#8230;);</li>
<li>c&#8217;est la <strong>première fois que la communauté &#8220;geek&#8221;</strong> des développeurs &amp; architectes IT aborde la question &#8220;data quality&#8221;, sujet sur lequel elle ne publie en général jamais, se concentrant essentiellement sur la complexité technique, algorithmique et mathématique;</li>
<li>on y trouve une<strong> reconnaissance des impacts financiers énormes</strong> que suscite l’inadéquation des données aux usages (&#8220;non qualité&#8221;) &nbsp;: &#8220;<em>For large entreprises, this could be a multi-million dollar problem&#8221;</em> (p. 163);</li>
<li>sans aucune référence bibliographique explicite, plusieurs auteurs font preuve <strong>d&#8217;une finesse d&#8217;analyse et d&#8217;une acuité assez impressionnantes sur le plan épistémologique</strong> (certains d&#8217;entre eux ont fait leur thèse de doctorat en physique théorique, ce qui explique sans doute que <a href="https://en.wikipedia.org/wiki/Karl_Popper" target="_blank">K. Popper</a> ne leur soit pas étranger).</li>
</ul>
<p>Les apports de l&#8217;ouvrage retenus sont ici structurés en deux catégories logiquement liées et utiles non seulement pour les développeurs IT et les architectes mais aussi, la communauté des bases de données, les décideurs et utilisateurs finaux</p>
<p><strong>A. “Data format, storage &amp; infrastructure&#8221;&nbsp;: 5 pistes pour faciliter l’accès aux données</strong></p>
<p><img loading="lazy" decoding="async" class="size-medium wp-image-5410 alignleft" alt="accès" src="/wp-content/uploads/2013/04/accès-300x300.jpg" width="261" height="232" />Avant d’aborder la qualité de l’information, … il s’agit d’abord d’accéder physiquement et logiquement aux données.  Or, notre longue expérience en &#8220;data profiling&#8221; le confirme, c’est souvent l’étape la plus fastidieuse.</p>
<p>Ceci est encore plus vrai dans le cadre du Web, espace ouvert, dynamique et non contrôlé&nbsp;: “<i>in some (regrettably rare) cases, all the information about the data is provided</i>” (K. Fink, p. 9); “<em>the first, and sometimes, hardest part of doing any data analysis is acquiring the data from which you hope to extract information</em>” (A. Laiacano, p. 69). Ceci amène les auteurs à s’interroger sur l’opacité des Media sociaux dont l&#8217;étude soulève de nombreux défis (<a href="https://cdn.oreillystatic.com/oreilly/booksamplers/9781449321888_sampler.pdf" target="_blank">P. Warden, How to Feed and Care for Your Machine-Learning Experts, ch. 16</a>), qu&#8217;il s&#8217;agisse d&#8217;effectuer une “root cause analysis” des Web sites (<a href="https://cdn.oreillystatic.com/oreilly/booksamplers/9781449321888_sampler.pdf" target="_blank">R. Draper, Data Traceability, ch. 17</a>) ou encore, de vérifier l’impact des données effacées, de liens en liens, sur les réseaux sociaux (<a href="https://cdn.oreillystatic.com/oreilly/booksamplers/9781449321888_sampler.pdf" target="_blank">J. Valeski, Social Media: Erasable Ink?, ch. 18</a>). Cela étant dit, voici 5 pistes concrètes en vue de faciliter l&#8217;accès aux données.</p>
<ol>
<li><strong>Eviter, à la source, la production non organisée de volumineux ensembles de données stratégiques dans un format peu lisible par la machine, comme les spreadsheets</strong>. Il est très fréquent que les utilisateurs &#8220;business&#8221; utilisent de tels formats qui conviennent bien à la lecture humaine mais génèrent des &#8220;silos de données&#8221; redondants dont le traitement automatisé ultérieur est ardu. S’appuyant sur son expérience en matière de statistiques dans le domaine scolaire en Nouvelle Zélande, P. Murell propose des conseils de développement en R pour coder des données issues de tableurs dans un format réutilisable (<a href="https://cdn.oreillystatic.com/oreilly/booksamplers/9781449321888_sampler.pdf" target="_blank">P. Murrell, Data Intended for Human Consumption, Not Machine Consumption, ch. 3</a>). Dans un autre chapitre appliqué au domaine de la chimie, R. Cotton plaide en faveur de processus de codage organisés, incluant contrôles et gestion des versions  (<a href="https://cdn.oreillystatic.com/oreilly/booksamplers/9781449321888_sampler.pdf" target="_blank">R. Cotton, Blood,Sweat, and Urine, ch. 8</a>), proposant une cure de “<em>Rehab for Chemists (and Other Spreadsheet Abusers</em>)” (p. 115) et s’exclamant au passage&nbsp;: &#8220;<em>Live Fast, Die Young and Leave a Good-Looking Corpse Code Repository</em>” (p. 114).</li>
<li><strong>Prendre en considération la variété des systèmes d’encodage hétérogènes sur le web</strong> (ASCII, différentes normes ISO, UTF, …).  J. Levy propose des conseils de programmation (&#8220;text processing &#8220;) en Python à cette fin offrant même au lecteur intéressé une série d’exercices (<a href="https://cdn.oreillystatic.com/oreilly/booksamplers/9781449321888_sampler.pdf" target="_blank">J. Levy, Bad Data Lurking in Plain Text, ch. 4</a>).</li>
<li><strong>Identifier le pattern d’organisation des sites web analysés et en conserver l’historique des versions off line en vue d’un parsing ultérieur</strong>. En raison du caractère imprévisible et dynamique de la mise à jour des sites web, cette démarche est indispensable. A. Laiacano propose plusieurs exemples de parsing et de reengineering du pattern de sites web en Python, Ajax et MATLAB scripts (<a href="https://cdn.oreillystatic.com/oreilly/booksamplers/9781449321888_sampler.pdf" target="_blank">A. Laiacano, (Re)Organizing the Web’s Data, ch. 5</a>).</li>
<li><strong>Evaluer les avantages et inconvénients des différents modèles logiques de bases de données, en fonction des usages et des modèles de coûts</strong>. Deux chapitres discutent cette question essentielle pour le stockage et l&#8217;analyse des données issues du Web. S’inspirant d’une étude des &#8220;social media&#8221;, l’un plaide en faveur d’un format simple de type &#8220;plain text&#8221; avec des flat files, lorsque les données sont volumineuses et statiques.  Ceci en facilite la préservation à long terme, la rapidité de traitement et la sauvegarde, contrairement à certaines bases de données NoSql reposant sur le MapReduce paradigm (<a href="https://cdn.oreillystatic.com/oreilly/booksamplers/9781449321888_sampler.pdf" target="_blank">T. McNamara, When Databases Attack: A Guide for When to Stick to Files, ch. 12</a>).  L’autre évalue les coûts de gestion en terme de performance des différents modèles, reconnaissant la précision du modèle relationnel qui peut cependant être coûteux en terme de performance, évoquant &#8220;<em>the Delicate Sound of a Combinatorial Explosion…”</em> (p. 167). Il conseille un modèle en graphe qui constitue une abstraction simplifiée mais utile quand il s’agit de gérer à la fois la complexité des interactions entre données et la performance de leur gestion (<a href="https://cdn.oreillystatic.com/oreilly/booksamplers/9781449321888_sampler.pdf" target="_blank">B. Norton, Crouching Table, Hidden Network, ch. 13</a>).</li>
<li><strong>Utiliser le “cloud computing” avec prudence, en fonction du domaine d’application</strong>. Sur la base d’un exemple réaliste, les risques de perte de performance, de coûts élevés et de pertes de données, lorsque le « cloud computing » est appliqué sans précaution sont évoqués (<a href="https://cdn.oreillystatic.com/oreilly/booksamplers/9781449321888_sampler.pdf" target="_blank">S. Francia, Myths of Cloud Computing, ch. 14</a>).</li>
</ol>
<p><strong>B. From “big data” to “long data”&nbsp;: 5 pistes pour faciliter l’interprétation des données</strong></p>
<p><img loading="lazy" decoding="async" class="size-medium wp-image-5411 alignleft" alt="magritte" src="/wp-content/uploads/2013/04/magritte-300x207.jpg" width="300" height="207" srcset="https://www.smalsresearch.be/wp-content/uploads/2013/04/magritte-300x207.jpg 300w, https://www.smalsresearch.be/wp-content/uploads/2013/04/magritte-768x531.jpg 768w, https://www.smalsresearch.be/wp-content/uploads/2013/04/magritte-1024x707.jpg 1024w, https://www.smalsresearch.be/wp-content/uploads/2013/04/magritte.jpg 1300w" sizes="auto, (max-width: 300px) 100vw, 300px" />Une fois les données accédées, il s’agit de les interpréter pour les exploiter. Il est impensable d’étudier le phénomène <strong>“big data”</strong> sur le web sans prendre en considération la <strong>question historique du temps</strong>. Dans un <a href="https://internetactu.blog.lemonde.fr/2013/02/15/sortir-de-la-tyrannie-du-present/" target="_blank">blog publié en février 2013 par le journal Le Monde</a>, la notion de <strong> &#8220;long data&#8221;</strong> est préconisée pour envisager la prise en compte de l’évolution des phénomènes dans le temps. Certains changements &#8220;brutaux&#8221; et récents (étude de la surpêche, de la déforestation, du climat, …) prennent par exemple leur source dans des évolutions datant de plusieurs siècles. Mais cette étude est complexe car elle demande l’examen de l’évolution du sens des données et des mots dans le temps et dans l’espace. Dans cet esprit, citons par exemple l’application <a href="https://books.google.com/ngrams" target="_blank">Google Ngrams</a>, &#8220;<em>qui vise à tracer l&#8217;historique de l&#8217;usage d&#8217;un mot depuis l&#8217;an 1500, grâce à une analyse des livres numérisés par Google Books. Évidemment, cela ne commence qu&#8217;à l’invention de l&#8217;imprimerie et le fonds n&#8217;est pas exhaustif. Mais c&#8217;est un début qui a lancé un nouveau champ d&#8217;études, la culturomique, reposant sur une analyse quantitative des termes étudiés</em>.&#8221;</p>
<p>Associant le concept de « big data » à celui de « long data », voici 5 conseils relevés dans l’ouvrage en vue de faciliter l’interprétation des données.</p>
<ol>
<li style="text-align: left;"><strong>Prendre en considération le caractère interdisciplinaire d’une approche « data quality », à travers des échanges permanents entre « connaissance métier » et « culture technique ». </strong> Dans son chapitre déjà cité, <a href="https://cdn.oreillystatic.com/oreilly/booksamplers/9781449321888_sampler.pdf" target="_blank">&#8220;Blood, Sweat, and Urine” (Ch 8), R. Cotton</a> présente une expérience  dans ce sens dans le domaine de la chimie urologique. Pendant une semaine, en tant que développeur IT, il a échangé son poste avec celui d’un chimiste en vue d&#8217;un apprentissage réciproque. Dans un paragraphe éloquent,« <em>How Chemists Make Up Numbers</em>” (p. 108),  <strong>il relate sa stupeur devant l’exigence de précision de l’approche scientifique face à la complexité du réel observable et l’importance des enjeux humains et médicaux associés</strong>. Il en tire avec humour les conclusions hypothétiques pour son propre métier d’informaticien&nbsp;: “<em>They have an endless list of documents and rules on good laboratory practice, how to conduct experiments, how to maintain the instruments … The formal adherence to all these rules was a huge culture shock to me. All the chemists are required to carry a lab book around, in which they have to record the details of how they conducted each experiment. And if they forget to write it down&nbsp;? Oops, the experiment is invalid. Run it again. I sometimes wonder what would happen if the same principles were applied to data scientists. You didn’t document this function. Delete. I can’t determine the origin of this dataset. Delete. There is no reference for this algorithm. Delete, delete, delete. The outcry would be enormous, but I’m sure standards would improve</em>.” (p. 108). <strong>A l’inverse, cet échange permet à son collègue chimiste, spécialiste du domaine d’application, de tirer des &#8220;best practices&#8221; quant au traitement des données</strong> (éviter l’encodage intensif et non contrôlé sur des tableurs (cfr supra), à la source de redondance et de &#8220;data silos&#8221;, remplacer le double encodage humain et les phases de réencodage (à la source d’erreurs et coûteuses en terme de manpower) par un workflow structuré organisant tâches humaines de validation et contrôles automatisés ou encore, associer d’emblée aux données un modèle de base de données auquel correspondent des business rules, des règles de validation et une gestion des versions. L’auteur conclut&nbsp;: « <em>Sometimes, technology just works…”</em> (p. 116).</li>
<li><strong>Adopter une approche statistique itérative face à la complexité du domaine d’application incluant des facteurs exogènes imprévus sur le Web</strong>. Dans un chapitre à propos des<strong> taux de consultation des données et du trafic sur le Web</strong>, qu’il s’agisse du <strong>“Pay per click”</strong> ou de la consultation de<strong> Wikipedia</strong>, <a href="https://cdn.oreillystatic.com/oreilly/booksamplers/9781449321888_sampler.pdf" target="_blank">F. Fink (It Just Me, or Does This Data Smell Funny ?, ch. 2)</a>  montre comment aux effets saisonniers qui diminuent structurellement le taux de consultation («<em>Superbowl Sunday</em>” aux USA, congés scolaires, week-ends) se mêlent malicieusement des bugs dans les logs de Wikipedia qui complexifient l’interprétation des séries temporelles . On trouve un phénomène analogue dans un chapitre (<a href="https://cdn.oreillystatic.com/oreilly/booksamplers/9781449321888_sampler.pdf" target="_blank">J. Perkins,  “Detecting Liars and the Confused in Contradictory Online Reviews”, ch.6</a>) consacré à <strong>l’analyse des sentiments sur le web</strong> (à propos des restaurants, par exemple) où l’auteur découvre des contradictions (apparemment intentionnelles) entre les scores (ratings) attribués et les commentaires associés qui incluent parfois des doubles négations, sources de confusion en langage naturel. Dans l’approche, l’auteur  montre comment construire un &#8220;<em>sentiment classifier&#8221; </em>en Python Natural Language sur la base d’un training set et d’une étude itérative en vue de détecter ces &#8220;mensonges volontaires&#8221;.</li>
<li><strong>Face à certaines anomalies non élucidées par le modèle d’observation, ne pas hésiter à retourner sur le terrain pour réinspecter le domaine d’application (quand c&#8217;est matériellement possible). </strong>Le chapitre correspondant (<a href="https://cdn.oreillystatic.com/oreilly/booksamplers/9781449321888_sampler.pdf" target="_blank">P. K. Janert, Will the Bad Data Please Stand Up, ch. 7</a>) est introduit en ces termes&nbsp;: &#8220;<em>there is no such thing as bad weather – only inappropriate clothing  ; there is no such thing as bad data – only inappropriate approaches&#8221;</em> (p. 95). L’auteur relate  plusieurs expériences d’analyse des données en industrie visant à évaluer, sous contrainte de coût, le nombre d’appels en entreprise ou encore, les critères de production des produits défectueux. <strong>Les modèles statistiques employés (courbe de Gauss, modèle de Poisson), ont chaque fois permis de détecter des exceptions qui ont requis une nouvelle inspection du domaine d’application</strong> (par exemple, au sein de la chaîne de production, des sources de destruction accidentelles n’avaient pas été intégrées dans la structure de l’échantillon). L’auteur plaide pour une approche empirique scientifique invitant à un réexamen régulier du modèle d’observation et des hypothèses associées&nbsp;: “<em>It was not the data that was the problem. The problem was de discrepancy between the data and our ideas (assumptions) about what the data should be like </em> …  <em>this discrepancy can lead to a form of “creative tension, which brings with it the opportunity for additional</em> insights” (p. 104).</li>
<li><strong>Prendre en considération le fait que des données non valides peuvent avoir, à l’insu de l’observateur, un impact (financier, par exemple) sur le réel empirique étudié. </strong>Dans certains cas, l’inadéquation des données au modèle d’observation a un impact direct sur les réalités observées (<em>S. Burns, When Data and Reality Don’t Match, ch. 9</em>).  Ainsi, <strong>les données sur l’état des marchés financiers diffusées sur Internet (Google Finance – Yahoo! Finance</strong>) peuvent faire, en quelques minutes, partie intégrante du marché étudié où l’on observe &#8220;<em>a tight feedback loop where data about the state of the market affects the market (e.g. rising prices may cause people to push prices up further)</em>” (p. 119). Même si un algorithme de « data cleansing » permet a posteriori de détecter facilement les anomalies, celles-ci ont eu, entre temps, un impact concret sur le marché. Ainsi, le cas s’est-il présenté le 6 septembre 2008, lorsque le spider de Google News a diffusé par défaut à la date du jour des données plus anciennes non datées (et en fait obsolètes) concernant la banqueroute d’une valeur cotée sur le marché.  En quelques minutes, cette information a donné lieu à des mouvements de vente massifs de la part des traders, avant que l’on ne se rende compte de l’erreur (p. 125). De tels phénomènes se sont souvent produits dans le secteur financier. Comment considérer le statut de ces données formellement erronées ex post, lorsqu’elles ont agi sur le marché réel&nbsp;? D’importantes questions d’interprétation doivent être en effet abordées, lorsqu’on étudie un domaine d’application empirique critique, au sein duquel le système d’information est un instrument d’action sur les réalités qu’il représente.</li>
<li><strong>Accepter les compromis, dans le cadre d’un double arbitrage “fitness for use” &amp; &#8220;coût-bénéfice&#8221;. </strong>On déduira facilement des recommandations qui précèdent que la &#8220;qualité parfaite&#8221; n’existe pas (<a href="https://cdn.oreillystatic.com/oreilly/booksamplers/9781449321888_sampler.pdf" target="_blank">Vaisman M., The Dark Side of Data Science, ch. 15</a>) . <strong>Dans le domaine de la police criminelle</strong>, par exemple, au sein du <strong>Chicago Police Department’s Predictive Analytics Group </strong>(<a href="https://cdn.oreillystatic.com/oreilly/booksamplers/9781449321888_sampler.pdf" target="_blank">B. J.  Goldstein,  Don’t Let the Perfect Be the Enemy of the Good: Is Bad Data Really Bad?, ch. 11</a>),  les séries statistiques temporelles relatives aux appels d’urgence (&#8220;<em>Reported Crime Information</em>&#8220;, &#8220;<em>Sale of Narcotics</em>&#8220;, …) sont exploitées en vue de prévoir l’émergence de crimes par secteur géographique. Naturellement, dans la pratique, certains appels ne donnent pas lieu à la détection d’un délit (parce que les auteurs ont été prévenus entre-temps, par exemple). Ces informations sont toutefois utiles, pragmatiquement. Ainsi, le responsable du département conclut en ces termes &nbsp;:  &#8220;<em>In order to make informed strategic and tactical decisions in an environment with imperfect data, one must make compromises. … Still, I have repeatedly noted that it is better to have an informed decision built on imperfect data than to have decision built on no data at all. When one accepts that imperfection, it opens up the ability to integrate data into all supports of projects and policies</em>” (p. 148). On trouve le même type d’analyse dans le domaine du recensement aux USA et des enquêtes réalisées par le<strong> Congressional Budget Office</strong> ou la <strong>U. S. Social Security Administration</strong> (<a href="https://cdn.oreillystatic.com/oreilly/booksamplers/9781449321888_sampler.pdf" target="_blank">J. A. Schwabish, Subtle Sources of Bias and Error, ch. 10</a>).   C’est sur cette sage relativité que l’ouvrage se termine, privilégiant le pragmatisme et l’expérience à toute velléité stérile d’une représentation idéale du réel (<a href="https://cdn.oreillystatic.com/oreilly/booksamplers/9781449321888_sampler.pdf" target="_blank">Q. E. McCallum &amp; K. Gleason, Data Quality Analysis Demystified: Knowing When Your Data Is Good Enough, ch. 19</a>)&nbsp;:</li>
</ol>
<p style="text-align: center;"><em>“Things change (and break)</em></p>
<p style="text-align: center;"><em> … </em></p>
<p style="text-align: center;"><em>Indeed”.</em></p>
<p> <img loading="lazy" decoding="async" class="size-full wp-image-5412 aligncenter" alt="StrangeLoopLogo_tc" src="/wp-content/uploads/2013/04/StrangeLoopLogo_tc.png" width="222" height="158" /></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Working Predictive Analytics (2): ROI</title>
		<link>https://www.smalsresearch.be/putting-predictive-analytics-to-work-lessons-learned-2-roi/</link>
		
		<dc:creator><![CDATA[Dries Van Dromme]]></dc:creator>
		<pubDate>Thu, 13 Sep 2012 09:08:50 +0000</pubDate>
				<category><![CDATA[Blog post]]></category>
		<category><![CDATA[analytics]]></category>
		<category><![CDATA[cost cutting]]></category>
		<category><![CDATA[egov]]></category>
		<category><![CDATA[Information management]]></category>
		<category><![CDATA[Managing IT costs]]></category>
		<category><![CDATA[Predictive Analytics]]></category>
		<category><![CDATA[ROI]]></category>
		<guid isPermaLink="false">/?p=4586</guid>

					<description><![CDATA[Iets waar elke gezonde organisatie en elk verantwoordelijk management van wakker ligt is uiteraard ROI. In onze context: de ROI van predictive analytics die we sinds dit jaar concreet inzetten. Nu is de berekening van ROI (die vaak een of meerdere benaderingen, hypotheses, of schattingen inhoudt) in het algemeen een moeilijke zaak. O ironie! Voor [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><img loading="lazy" decoding="async" class="size-medium wp-image-4588 alignleft" title="trend-graph" alt="" src="/wp-content/uploads/2012/09/trend-graph-300x225.jpg" width="210" height="158" srcset="https://www.smalsresearch.be/wp-content/uploads/2012/09/trend-graph-300x225.jpg 300w, https://www.smalsresearch.be/wp-content/uploads/2012/09/trend-graph.jpg 560w" sizes="auto, (max-width: 210px) 100vw, 210px" />Iets waar elke gezonde organisatie en elk verantwoordelijk management van wakker ligt is uiteraard <strong>ROI</strong>. In onze context: de ROI van predictive analytics die we sinds dit jaar concreet inzetten.<br />
Nu is de berekening van ROI (die vaak een of meerdere benaderingen, hypotheses, of schattingen inhoudt) in het algemeen een moeilijke zaak. O ironie! Voor de berekening van de ROI die we met predictive analytics bereiken, dienen we gebruik te maken van &#8211; jawel &#8211; predictive analytics …</p>
<p>Een woordje uitleg.</p>
<p>Stel dat u in het zweet uws aanschijns, op basis van procesparameters, statussen, business object-karakteristieken en -categorieën, ja zelfs historiek, een <strong>predictief model</strong> hebt kunnen opstellen dat op statistisch verantwoorde wijze en met een bepaalde nauwkeurigheid het optreden van een “event” voorspelt (1).<br />
Uiteraard hebt u ervoor gezorgd dat uw nieuwe business-processen toelaten om snel en gericht <strong>actie</strong> te ondernemen op basis van deze voorspelling. Uw agenten en/of processen anticiperen op het “event” en genereren zo een <strong>meerwaarde</strong> in het geval van een gewenst event of <strong>vermijden kosten</strong> in het geval van een ongewenst event.<br />
Wenst u nu te weten wat de ROI van deze nieuwe business-processen en acties is, dan zal u het resultaat moeten <strong>monitoren</strong> en dit vergelijken met <em>wat het resultaat zou geweest zijn indien men geen actie zou ondernomen hebben</em>. Hoe kan men dit bereiken?<br />
De berekening van de ROI kan dan geschieden door het predictief model toe te passen op historische gegevens</p>
<ul>
<li>waarvan het <em>resultaat</em> (vóór de invoering van vernieuwde business-processen en geïnformeerde acties) <em>bekend</em> is, en</li>
<li>die <em>vergelijkbaar</em> zijn met de gevallen waarvoor gerichte acties worden ondernomen.</li>
</ul>
<p>Dit klinkt logisch, maar hoe bepaalt u wat <em>vergelijkbaar</em> is? Op welke basis dient de vergelijking op te gaan? Opnieuw biedt het predictief model een antwoord: kijk immers naar de variabelen die <strong>door het predictief model als meest significant</strong> worden beschouwd. Dan kan u voor de berekeningen aan de slag met de bekende resultaten, waarvan bv. het gemiddelde genomen kan worden van een groep vergelijkbare gevallen uit de historiek. Eventueel kan men bij dit laatste ook gebruik maken van descriptive analytics (zoals clustering).</p>
<p>(1) Het “optreden van een event” dient hier heel <strong>ruim</strong> geïnterpreteerd te worden. Het kan immers echt om het even wat zijn – als het maar strategisch interessant is, gelinkt aan een doelstelling van de organisatie, aan een gewenst of ongewenst resultaat. Wanneer gaat een klant weg, faalt een machine-onderdeel, of overschrijdt de waarde van een resultaatvariabele een welbepaalde drempel? Voorbeelden zijn legio.</p>
<p>Let wel, bij dit alles geldt: TIMTOWDI – “there is more than one way to do it” (denk bv. aan keuze van algoritmen, parameters, performance measures). Maar welke benadering ook gekozen wordt, er dient duidelijk over <strong>gecommuniceerd</strong> te worden, en men heeft er alle belang bij de keuzes die werden gemaakt, te motiveren en te documenteren.</p>
<p><strong>Lessons learned</strong>:</p>
<ul>
<li>spreek op voorhand goed af met de business;</li>
<li>spreek op voorhand goed af met de business hoe de resultaten van predictive analytics aanleiding kunnen geven tot concrete acties in concrete business processen;</li>
<li>spreek op voorhand goed af met de business hoe de resultaten van zulke acties aanleiding kunnen geven tot een meetbare waarde, en hoe dit gemonitord kan worden;</li>
<li>spreek op voorhand goed af met de business hoe de ROI dan op basis van het voorgaande kan en mag berekend worden;</li>
<li>monitor de evolutie van de ROI en wees klaar om modellen bij te sturen;</li>
<li>blijf daarom continu de business betrekken in dit proces.</li>
</ul>
<p><a href="/wp-content/uploads/2012/09/improvementCycle.png"><img loading="lazy" decoding="async" class="aligncenter size-medium wp-image-4594" title="improvementCycle" alt="" src="/wp-content/uploads/2012/09/improvementCycle-300x163.png" width="300" height="163" srcset="https://www.smalsresearch.be/wp-content/uploads/2012/09/improvementCycle-300x163.png 300w, https://www.smalsresearch.be/wp-content/uploads/2012/09/improvementCycle.png 738w" sizes="auto, (max-width: 300px) 100vw, 300px" /></a></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Working Predictive Analytics (1): lessons learned</title>
		<link>https://www.smalsresearch.be/putting-predictive-analytics-to-work-lessons-learned/</link>
		
		<dc:creator><![CDATA[Dries Van Dromme]]></dc:creator>
		<pubDate>Mon, 05 Mar 2012 12:06:01 +0000</pubDate>
				<category><![CDATA[Blog post]]></category>
		<category><![CDATA[analytics]]></category>
		<category><![CDATA[business intelligence]]></category>
		<category><![CDATA[Data Integration]]></category>
		<category><![CDATA[Data Mining]]></category>
		<category><![CDATA[Information management]]></category>
		<category><![CDATA[Predictive Analytics]]></category>
		<guid isPermaLink="false">/?p=4012</guid>

					<description><![CDATA[We hadden het al gelezen:  het potentieel is enorm, maar (zoals met zovele zaken) de kous is niet af met het kopen van software. Er komt heel wat bij kijken om Predictive Analytics succesvol, met ROI, in te zetten. Dat wisten we dus al &#8211; maar wat nu we een tijdje verder zijn, de eerste [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>We hadden het al gelezen:  het potentieel is enorm, maar (zoals met zovele zaken) de kous is niet af met het kopen van software. Er komt heel wat bij kijken om Predictive Analytics <em><strong>succesvol</strong></em>, met ROI, in te zetten.</p>
<p>Dat wisten we dus al &#8211; maar wat nu we een tijdje verder zijn, de eerste successen geboekt zijn? <strong>Enkele lessen</strong> kunnen getrokken worden, nu we dit aan den lijve hebben kunnen ondervinden. We geven ze hier al kort mee; elk van deze deelaspecten kan het onderwerp vormen van aparte blogs, waarin we er telkens wat meer aan besteden &#8230;</p>
<ul>
<li>men heeft specifieke skills nodig (business analyse, data mining, &#8230;) die verder gaan dan deze die nodig zijn voor Data Integration en Statistics;</li>
<li>men moet rekening houden met evolutie in de modellen, onderliggend aan analytics, en dient dus een model management te voorzien;</li>
<li>men moet een goed idee hebben van hoe (en met welk personeel) men zal afhandelen (workflow, case management, business processen, &#8230;) wat men met analytics detecteert;</li>
<li>afhankelijk van de behoeften van de business (bv. (near) real-time detectie), is er misschien nood aan specifieke implementatie-architectuur (bv. Complex-event Processing, of moderne BI-architecturen, Data Virtualisatie) bij de koppeling van analytics aan de productiesystemen. Klassieke DWH-gebaseerde architecturen kunnen immers tekort schieten! Veel hangt ook af van de aanwezige Enterprise Architectuur.</li>
</ul>
<p>Zeker en vast &#8220;to be continued&#8221;, dus &#8230; blijf ons volgen!</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
