<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Dries Van Dromme &#8211; Smals Research</title>
	<atom:link href="https://www.smalsresearch.be/author/vandromme/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.smalsresearch.be</link>
	<description></description>
	<lastBuildDate>Thu, 09 Apr 2026 12:18:23 +0000</lastBuildDate>
	<language>en-GB</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://www.smalsresearch.be/wp-content/uploads/2026/01/cropped-cropped-Smals_Research-32x32.png</url>
	<title>Dries Van Dromme &#8211; Smals Research</title>
	<link>https://www.smalsresearch.be</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>&#8220;Datamining zorgt voor ongelijke behandeling en reduceert controleurs tot aapjes&#8221;: een reactie</title>
		<link>https://www.smalsresearch.be/datamining-zorgt-voor-ongelijke-behandeling-en-reduceert-controleurs-tot-aapjes-een-reactie/</link>
		
		<dc:creator><![CDATA[Dries Van Dromme]]></dc:creator>
		<pubDate>Thu, 12 Mar 2015 09:51:30 +0000</pubDate>
				<category><![CDATA[Blog post]]></category>
		<category><![CDATA[big data]]></category>
		<category><![CDATA[Data Mining]]></category>
		<category><![CDATA[egov]]></category>
		<category><![CDATA[Information management]]></category>
		<category><![CDATA[methodology]]></category>
		<category><![CDATA[Risk Management]]></category>
		<guid isPermaLink="false">/?p=8238</guid>

					<description><![CDATA[Een artikel in DeMorgen kopt: &#8220;Slimme software herleidt belastingcontroleurs &#8216;tot aapjes'&#8221;, en daaronder: &#8220;Digitale selectie zorgt voor ongelijke behandeling belastingplichtigen&#8221;. We begrijpen uit het artikel dat Financiën zich voor haar controles nu voor 80% baseert op risicoprofielen die door datamining naar voren worden geschoven, en dat dit tot grote frustratie leidt bij inspecteurs en controleurs. [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><a title="Slimme software herleidt belastingcontroleurs &#039;tot aapjes&#039;" href="https://www.demorgen.be/economie/slimme-software-herleidt-belastingcontroleurs-tot-aapjes-a2247854/" target="_blank">Een artikel in DeMorgen</a> kopt: &#8220;Slimme software herleidt belastingcontroleurs &#8216;tot aapjes'&#8221;, en daaronder: &#8220;Digitale selectie zorgt voor ongelijke behandeling belastingplichtigen&#8221;. We begrijpen uit het artikel dat Financiën zich voor haar controles nu voor 80% baseert op risicoprofielen die door datamining naar voren worden geschoven, en dat dit tot grote frustratie leidt bij inspecteurs en controleurs. Een bekend probleem, waar een en ander over te vertellen valt. Een poging.</p>
<p><a href="/wp-content/uploads/2015/03/risk.jpg"><img decoding="async" class="alignleft wp-image-8254" src="/wp-content/uploads/2015/03/risk-300x300.jpg" alt="RISK in Magnifying glass on blue background" width="220" height="220" srcset="https://www.smalsresearch.be/wp-content/uploads/2015/03/risk-300x300.jpg 300w, https://www.smalsresearch.be/wp-content/uploads/2015/03/risk-768x768.jpg 768w, https://www.smalsresearch.be/wp-content/uploads/2015/03/risk-1536x1536.jpg 1536w, https://www.smalsresearch.be/wp-content/uploads/2015/03/risk-2048x2048.jpg 2048w, https://www.smalsresearch.be/wp-content/uploads/2015/03/risk-150x150.jpg 150w, https://www.smalsresearch.be/wp-content/uploads/2015/03/risk-1024x1024.jpg 1024w" sizes="(max-width: 220px) 100vw, 220px" /></a>Aan de ene kant laten computerprogramma&#8217;s, meer bepaald datamining-algoritmes, toe om te leren uit vaststellingen gemaakt in het verleden, en kunnen zij op wetenschappelijk verantwoorde wijze aanleiding geven tot proactieve risicobepaling. De gebruikers dienen wel te beseffen dat het gaat om risico&#8217;s, en geen bewijzen. Controle ten gronde, of zelfs ter plaatse, is nodig. Maar datamining kan dus duidelijk bijdragen tot het efficiënter en doelgerichter werken van de overheid.<br />
Bovendien kan automatisatie inderdaad willekeur en voorkeursbehandeling tegengaan, als daar sprake van zou zijn. Zo stelt ook de fiscus, volgens het artikel: &#8220;Sinds enkele jaren gebruikt de fiscus een computersysteem om te bepalen wie een controleur op bezoek krijgt. Op die manier wil de overheid willekeur en voorkeursbehandelingen vermijden.&#8221;<br />
De tegenstanders, vaak inspecteurs en controleurs zèlf (maar lang niet allemaal), kunnen argumenteren dat de digitale selectie op basis van risicoprofielen <strong>net voor een ongelijke behandeling</strong> zorgt. Moeten we daar dan uit besluiten dat gelijke behandeling alleen kan mits controledoelen volledig <em>random</em> geselecteerd worden?</p>
<p>Een moderne overheid, die met minder middelen meer resultaat wil, zal niet iedereen kunnen controleren. Het is ook niet haalbaar, dat iedereen om de zoveel jaar gecontroleerd zou worden. Met het huidig effectief, zouden er immers teveel jaren tussen liggen. Maar controles ten gronde zijn nodig, omdat op basis van aangiftes en andere beschikbare digitale gegevens alleen, de juistheid en <strong>waarheid</strong> van aangegeven data niet kan bepaald worden (cfr. BOYDENS I., &#8220;Strategic Issues Relating to Data Quality for E-government: Learning from an Approach Adopted in Belgium&#8221;. In ASSAR S., BOUGHZALA I. et BOYDENS I., éds., &#8220;Practical Studies in E-Government&nbsp;: Best Practices from Around the World&#8221;, New York, Springer, 2011, p. 116 e.v.).</p>
<p>Gegeven dat selectie dus nodig is &#8211; is ieder selectieprincipe, dat niet volledig random (en dus blind) is, dan ongelijk en oneerlijk?</p>
<p><a href="/wp-content/uploads/2015/03/yin-yang-ID-10043360.jpg"><img decoding="async" class=" alignright wp-image-8249" title="Image courtesy of digitalart at FreeDigitalPhotos.net" src="/wp-content/uploads/2015/03/yin-yang-ID-10043360-300x300.jpg" alt="yin yang ID-10043360" width="178" height="178" srcset="https://www.smalsresearch.be/wp-content/uploads/2015/03/yin-yang-ID-10043360-300x300.jpg 300w, https://www.smalsresearch.be/wp-content/uploads/2015/03/yin-yang-ID-10043360-150x150.jpg 150w, https://www.smalsresearch.be/wp-content/uploads/2015/03/yin-yang-ID-10043360.jpg 400w" sizes="(max-width: 178px) 100vw, 178px" /></a></p>
<p><strong>Ongelijk misschien wel, maar is dat oneerlijk? </strong></p>
<p>Belastingplichtigen (individuen èn organisaties) <strong>gedragen</strong> zich <strong>niet gelijk</strong> &#8211; misschien is een daarop gerichte, wetenschappelijk verantwoorde (ongelijke, zo u wil) selectie dan wel <strong>eerlijk</strong>? Zolang de behandeling en afhandeling van de gecontroleerde op gelijke (en eerbare) wijze gebeurt, kan men toch stellen dat de overheid naar de geest een gelijke behandeling nastreeft &#8211; laat staan naar de letter.</p>
<p>In mijn ervaring als dataminer blijken de beste predictieve modellen steeds diegene die zich uitdrukken (dankzij bloed, zweet en tranen in doorgedreven business-analyse) in termen van <strong>gedrag</strong> (van een systeem, en waarom ook niet van een individu of organisatie). En dus niet alleen in termen van statische variabelen. Dit is een aspect dat ik als <strong>best practice</strong> wel zou willen meegeven aan iedereen die te maken heeft met selectie, en hopelijk gelijke en eerlijke behandeling nastreeft.</p>
<p>Tegelijk moet bij dit alles een <strong>dubbele caveat</strong> geformuleerd worden.<br />
Ten eerste moet men ervoor zorgen dat de, overigens onbetwistbaar noodzakelijke, inspecteurs en controleurs niet tot &#8220;aapjes&#8221; of papegaaien gereduceerd worden, en dat hun <strong>terreinervaring blijvend gevaloriseerd</strong> wordt. Zowel <strong>bij de ontwikkeling van datamining</strong>-gedreven systemen als de evolutie ervan, en de ontwikkeling van <strong>feedback</strong>-systemen die vaststellingen en resultaten registeren. Telkens opnieuw blijkt dit cruciaal voor succes.<br />
Ten tweede, en dit sluit naadloos aan bij de terreinervaring van zulke inspecteurs en controleurs (en waarom niet, ook die van andere betrokken partijen), moet men steeds, naast datamining- en andere geautomatiseerde risicogedreven criteria, <strong>tegelijk andere</strong> selecties toelaten. Enerzijds <strong>random</strong>, om minstens de mogelijkheid te verzekeren dat iedereen aan de beurt kan komen &#8211; ook degene die onder de reeds geïnstalleerde radars doorglippen. Anderzijds kan de <strong>voeling met het terrein</strong> van onschatbare waarde zijn om snel genoeg, doelgerichte controleacties uit te voeren. Mits duidelijke afspraken en geregistreerde motivatie voor zulke keuzes, moet dit kunnen.</p>
<p><a href="/wp-content/uploads/2015/03/Pareto2.png"><img decoding="async" class="alignleft wp-image-8252" src="/wp-content/uploads/2015/03/Pareto2-300x300.png" alt="Pareto2" width="195" height="195" srcset="https://www.smalsresearch.be/wp-content/uploads/2015/03/Pareto2-300x300.png 300w, https://www.smalsresearch.be/wp-content/uploads/2015/03/Pareto2-150x150.png 150w, https://www.smalsresearch.be/wp-content/uploads/2015/03/Pareto2.png 329w" sizes="(max-width: 195px) 100vw, 195px" /></a>Verder wil ik nog inpikken op <strong>de 80/20 (%) verdeling</strong> voor de controles. Zoals gezegd in het artikel worden op dit moment 80% van de controles automatisch geselecteerd op basis van datamining. Of dit een goede verdeling is, hangt af van wat men zou kunnen noemen de <strong>dekkingsgraad</strong> van de geïmplementeerde predictieve modellen en risicoprofielen t.o.v. de zich in de werkelijkheid voordoende fenomenen en scenario&#8217;s. De datamining-modellen worden gevoed met voorbeelden van een <strong>welbepaald type probleem of doel</strong>. Indien uit de vaststellingen in het kader van de 80% op datamining geïnspireerde controles blijkt dat men steeds dezelfde, beperkte set van resultaten boekt, terwijl men vroeger (of nu, in het kader van de 20% anderszins geïnspireerde controles) meer verschillende &#8211; laat staan, belangrijkere &#8211; vaststellingen en rechtzettingen optekende, dan lijdt men er duidelijk aan teveel in dezelfde vijver te vissen, en is de 80/20 regel hier aan herziening toe. Of het dan 50/50 moet zijn? Men doet er goed aan te luisteren naar het terrein, het te proberen, en vervolgens rigoureus de resultaten te registreren en te vergelijken. Meten is weten.<br />
Opletten trouwens: de ene controle is de andere niet. Met inbegrip van de afhandeling van onderzoeken tot en met het resultaat, zijn er zwaardere dossiers en lichtere. Niets zegt dus dat de totale effort van inspecteurs en controleurs per dossier diezelfde 80/20-verdeling zal volgen. En voor de 20% anders gekozen controles, moet er ook voldoende tijd zijn om de selectie op een degelijke manier te doen.</p>
<p><strong>Besluit</strong><br />
Het is mijn stelling dat analytisch gedreven werken, het aansturen van kernprocessen op basis van data en gekwantificeerde risico&#8217;s, niet fundamenteel verkeerd, ongelijk, of oneerlijk is. Meer nog, een moderne overheid moet zich in de huidige budgettaire omstandigheden verplicht zien om efficiënt en doelgericht te werken, en de hiertoe beschikbare, wetenschappelijk verantwoorde middelen in te zetten. Echter zonder blind te worden voor de beperkingen daarvan. Er is een gulden middenweg tussen automatisatie en voeling met het terrein.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Working Predictive Analytics (4): Driven by Results</title>
		<link>https://www.smalsresearch.be/working-predictive-analytics-4-driven-by-results/</link>
					<comments>https://www.smalsresearch.be/working-predictive-analytics-4-driven-by-results/#comments</comments>
		
		<dc:creator><![CDATA[Dries Van Dromme]]></dc:creator>
		<pubDate>Mon, 08 Sep 2014 23:01:09 +0000</pubDate>
				<category><![CDATA[Blog post]]></category>
		<category><![CDATA[analytics]]></category>
		<category><![CDATA[Information management]]></category>
		<category><![CDATA[methodology]]></category>
		<category><![CDATA[Predictive Analytics]]></category>
		<guid isPermaLink="false">/?p=7519</guid>

					<description><![CDATA[Het mooie aan Predictive Analytics is dat de techniek zich zo natuurlijk leent tot een resultaatgedreven aanpak. En dat willen we allemaal, toch? We willen nu weten welk resultaat we straks mogen verwachten. En als voor straks een ongewenst resultaat verwacht wordt, we willen nu weten wat we eraan kunnen doen. Ook al beseffen we [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Het mooie aan Predictive Analytics is dat de techniek zich zo natuurlijk leent tot een resultaatgedreven aanpak. En dat willen we allemaal, toch? We willen <em>nu</em> weten welk resultaat we straks mogen verwachten. En als voor straks een ongewenst resultaat verwacht wordt, we willen <em>nu</em> weten wat we eraan kunnen doen. Ook al beseffen we dat de uitkomst van complexe processen nooit 100% voorspeld kan worden, toch kunnen Predictive Analytics-technieken enorm helpen om processen meer te <em>sturen</em> naar het gewenste resultaat, en de betrouwbaarheid ervan te kwantificeren.</p>
<p><strong>Driven by Results, Governed by Risks</strong></p>
<p>De meeste business-processen zijn uiteraard ingericht met een welbepaald doel voor ogen. Bij de behandeling van een patiënt: genezing. Bij de opvolging van verschuldigde betalingen van ondernemingen aan de overheid: tijdige inning. Enzovoort.</p>
<p>We stellen echter vast dat de complexiteit van business-processen, het aantal stappen, vertakkingen, acties en uitzonderingen, veelal is ingegeven is door <strong>risicobeheersing</strong>. Het doel is immers in wezen: genezing zonder complicaties en zonder negatieve bijwerkingen op langere termijn. (We zwijgen hier best over wat het doel moet zijn als genezing niet mogelijk is. Maar in die context moet de vraag zeker ook gesteld worden.) In het geval van de regelmatige inning, kan het doel ook de langdurige financiële gezondheid van beide partijen zijn, met zo positief mogelijke invloed op tewerkstelling.</p>
<p><strong>Welk proces is</strong> in deze omstandigheden <strong>optimaal?</strong> In het geval van een zijtak die een specifieke risicogroep anders afhandelt, welke criteria bepalen het behoren tot deze risicogroep? In het bijzonder, wanneer er manuele stappen zijn, wanneer er keuzes gemaakt moeten worden die zich beroepen op de ervaring van de business-user, kan men zich de vraag stellen: wat is optimaal? Is de leidraad, die ooit is opgesteld, wel optimaal? En als hij destijds goed was, is hij nog wel aangepast aan de huidige omstandigheden?</p>
<p><a href="/wp-content/uploads/2014/09/man-glas-SOLUTION.jpg"><img loading="lazy" decoding="async" class="alignleft  wp-image-7533" src="/wp-content/uploads/2014/09/man-glas-SOLUTION-300x200.jpg" alt="Businessman pushing solution button concept" width="245" height="167" /></a>In zulke context nemen wij resoluut de stelling in dat het <em>nodig</em> is &#8211; op zijn minst <em>nuttig</em>, en vaak strategisch &#8211; om wetenschappelijk verantwoord te <strong>kwantificeren</strong> in hoeverre procescriteria een voorspellende waarde (<a title="predictive power" href="https://en.wikipedia.org/wiki/Predictive_power" target="_blank">predictive power</a>) hebben voor een welbepaald resultaat (annex neveneffecten). Dit kunnen we doen met Predictive Analytics-technieken, een deelverzameling van datamining. Kort gezegd betekent dit dat we de voorhanden zijnde historiek van procesintelligentie (gestructureerde data), als training-data gebruiken voor een <strong>predictief model</strong> (meer info en <em>how to</em>: zie <a title="mijn vorige post" href="/working-predictive-analytics-3-feedback/" target="_blank">mijn vorige post</a>), gericht op vastgestelde procesresultaten. Een goede typering van procesresultaten op lange termijn, is in deze optiek cruciaal. Zulk een datamining-model levert dan niet alleen een formule om te berekenen welk resultaat op lange termijn we mogen verwachten in functie van de op heden gemeten procesgegevens, maar ook met welke betrouwbaarheid deze projectie gebeurt, en welk relatief aandeel de verschillende procescriteria hebben.</p>
<p><strong>Next steps &#8211; procesvernieuwing</strong></p>
<p>Natuurlijk is het kwantificeren van de voorspellende waarde van de huidige procescriteria al reeds nuttig. Maar voor Predictive Analytics is dat maar de eerste stap. Omkaderd door een gedegen business-analyse zal men immers in staat zijn met Predictive Analytics nieuwe indicatoren, nieuwe criteria, en nieuwe, resultaatgerichte acties voor te stellen, en daarvan de relatieve meerwaarde te kwantificeren. Zo weet men of het sop de kool wel waard zal zijn als men gaat ingrijpen in een bestaand business-proces. En zo ja, welke criteria het meest lijken door te wegen.</p>
<p>We kunnen ons voorstellen dat de hierboven beschreven aanpak aan de basis kan liggen van alle Business Process Re-engineeringen van de toekomst &#8230;</p>
<p><strong>Conclusie</strong></p>
<p>Ons inziens kan geen enkele resultaatgerichte Business Process Re-engineering aan de slag zonder zich minstens te inspireren op conclusies die, wetenschappelijk verantwoord, gekwantificeerd kunnen worden dankzij data-driven predictive analytics.</p>
<p>De organisatie van de toekomst is analytics-driven, en zal minstens haar kernprocessen sturen aan de hand van criteria waarvan de predictive power dankzij analytics is gekwantificeerd.</p>
<p>In dit artikel wensten we vooral de aandacht te vestigen op de resultaatgerichte aspecten van predictive analytics, hoe er resultaatgericht gedacht moet worden bij elk business-proces, en hoe predictive analytics hierbij helpen.</p>
<p>Tot slot nog enkele praktische tips voor de analytics-driven organisatie:</p>
<ol>
<li>Breng voor elk business-proces de resultaten en neveneffecten op lange termijn in kaart; stel voldoende in vraag wat het doel eigenlijk is (vaak is dit slechts impliciet gesteld); typeer de resultaten en zorg dat ze geregistreerd zijn zodat datamining mogelijk is.</li>
<li>Zorg voor voldoende procesintelligentie: zorg dat de acties die in verschillende processtappen genomen worden, geregistreerd zijn; evalueer ook het potentieel van logging-informatie.</li>
<li>Bekijk, vooral in de context van risicobeheersing, de huidige procescriteria kritisch, kwantificeer de &#8220;as is&#8221;, en tracht samen met de business-kenners nieuwe kandidaat-criteria te vinden en te kwantificeren.</li>
<li>Goede criteria drukken zich typisch uit in functie van karakteristieken, gebeurtenissen, en <strong>gedrag</strong>, in een bepaalde tijdspanne, voorafgaand aan de vaststelbare resultaten uit 1.</li>
</ol>
<p>Succes!</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.smalsresearch.be/working-predictive-analytics-4-driven-by-results/feed/</wfw:commentRss>
			<slash:comments>1</slash:comments>
		
		
			</item>
		<item>
		<title>Working Predictive Analytics (3): Feedback</title>
		<link>https://www.smalsresearch.be/working-predictive-analytics-3-feedback/</link>
		
		<dc:creator><![CDATA[Dries Van Dromme]]></dc:creator>
		<pubDate>Thu, 03 Apr 2014 11:11:05 +0000</pubDate>
				<category><![CDATA[Blog post]]></category>
		<category><![CDATA[analytics]]></category>
		<category><![CDATA[BPM]]></category>
		<category><![CDATA[Information management]]></category>
		<category><![CDATA[methodology]]></category>
		<category><![CDATA[Predictive Analytics]]></category>
		<guid isPermaLink="false">/?p=6939</guid>

					<description><![CDATA[Learning by doing. Feedback is cruciaal. Nadat we vorig jaar in de infosessie “Streamlining Analytics” enkele praktische aspecten in detail konden belichten (in a nutshell: overwinnen van barrières bij de introductie van Analytics in de organisatie &#8211; architectuur, data quality, methodologie &#8211; cfr. slideshare, research note), is het hoog tijd om een andere belangrijke succesfactor [&#8230;]]]></description>
										<content:encoded><![CDATA[<p dir="ltr"><em><strong>Learning by doing. Feedback is cruciaal.</strong></em></p>
<p><a href="/wp-content/uploads/2014/04/StreamliningAnalytics_small.png"><img loading="lazy" decoding="async" class="alignleft  wp-image-6955" alt="StreamliningAnalytics_small" src="/wp-content/uploads/2014/04/StreamliningAnalytics_small-300x225.png" width="126" height="95" srcset="https://www.smalsresearch.be/wp-content/uploads/2014/04/StreamliningAnalytics_small-300x225.png 300w, https://www.smalsresearch.be/wp-content/uploads/2014/04/StreamliningAnalytics_small.png 637w" sizes="auto, (max-width: 126px) 100vw, 126px" /></a>Nadat we vorig jaar in de infosessie “Streamlining Analytics” enkele praktische aspecten in detail konden belichten (in a nutshell: overwinnen van barrières bij de introductie van Analytics in de organisatie &#8211; architectuur, data quality, methodologie &#8211; cfr. <a href="https://www.smals.be/nl/content/streamlining-analytics" target="_blank">slideshare</a>, <a href="/publications/document/?docid=71" target="_blank">research note</a>), is het hoog tijd om een andere belangrijke succesfactor voor Predictive Analytics onder de loep te nemen: <em>feedback</em>.</p>
<p>Een predictief model heeft slechts <strong>waarde</strong> als het ook ingezet wordt in processen. Dit wil zeggen dat de voorspelling die het model levert, geëxploiteerd wordt om <strong>actie</strong> te ondernemen: om in te grijpen in het productieproces of om beslissingen te nemen in een business-proces, met een welbepaald <strong>doel</strong>. Het is vervolgens van het allergrootste belang om de <strong>werkelijke uitkomst</strong> te registreren en te confronteren met de voorspelde. Die ‘werkelijke uitkomst’, voorzien van de juiste metadata, noemen we de <em>feedback</em>.</p>
<p><a href="/wp-content/uploads/2014/04/feedback-compass_small.png"><img loading="lazy" decoding="async" class="alignright  wp-image-6951" alt="feedback compass_small" src="/wp-content/uploads/2014/04/feedback-compass_small-300x227.png" width="126" height="95" /></a>Waarom is deze feedback-registratie zo belangrijk? De ervaring die we in afgelopen en doorlopende projecten opdeden, leert ons dat nauwkeurige feedback-registratie een cruciaal, zoniet het belangrijkste, element vormt voor de realisatie van meerwaarde op de volgende vlakken:</p>
<ol>
<li>opvangen van het gebrek aan trainingsdata &#8211; de verwachte nauwkeurigheid opdrijven;</li>
<li>kwantificeren van de werkelijke nauwkeurigheid &#8211; rapporteren;</li>
<li>opvangen van evolutie &#8211; nauwkeurig blijven;</li>
<li>innovatie en procesinnovatie mogelijk maken.</li>
</ol>
<p><strong>Opvangen van het gebrek aan trainingsdata &#8211; de verwachte nauwkeurigheid opdrijven</strong></p>
<p dir="ltr">De karakteristieken van het trainingsproces doen ons dit onmiddellijk inzien. Even recapituleren om wat termen in te voeren en het predictive-analyticsproces te verduidelijken:</p>
<ul>
<li>Predictive analytics bedient zich in een trainingsfase van algoritmen en invoerdata om een formule (een model, een patroon) op te stellen. Deze formule drukt zich uit in termen van variabelen uit de invoerdata (de zogenaamde ‘onafhankelijke’ variabelen), en berekent een verwachte waarde voor een doelvariabele (de ‘afhankelijke’ variabele). De doelvariabele drukt uit waar het voor de business om te doen is. Bv. de onafhankelijke variabelen zijn afgeleid van reeksen biometrische waarden, gemeten bij een gemonitorde patiënt; de afhankelijke variabele is het optreden van nierfalen binnen een zekere tijd.</li>
<li>Predictive Analytics moet dus teruggrijpen naar historische data, waarbij voor een voldoende groot gedeelte de doelvariabele, de uitkomst van wat men wenst te voorspellen, bekend is (‘gelabelde’ data).</li>
<li>De verwachte nauwkeurigheid van een predictief model kan dan worden berekend in functie van hoeveel keer de berekende verwachte waarde van de doelvariabele correct of incorrect blijkt.</li>
<li>Als de verwachte nauwkeurigheid voldoende groot is, en het model is voldoende stabiel, dan kan de formule van het model ‘predictief’ ingezet worden, om de verwachte uitkomst te berekenen voor nieuwe invoerdata waarvan de doelvariabele nog niet bekend is (‘ongelabelde’ data).</li>
</ul>
<p>Het is een statistische wetmatigheid, en in de praktijk ondervinden we het ook zo, dat de (verwachte) nauwkeurigheid van een predictief model verhoogt naarmate er meer gelabelde trainingsdata voorhanden zijn. Een tweede wetmatigheid zegt dat hoe meer (onafhankelijke) invoervariabelen er zijn, dus hoe complexer of rijker het model, hoe meer trainingsdata er minimaal nodig zijn voor een stabiel, robuust model. Een derde stelt dat de ongelijke verdeling van de doelvariabele een invloed heeft op de nauwkeurigheid waarmee het model in staat is de verschillende voorkomende waarden van de doelvariabele te voorspellen.</p>
<p dir="ltr">In de praktijk is het echter meestal zo dat er <strong>te weinig gelabelde data</strong> voorhanden zijn, of toch minder dan wenselijk. Dit omdat het duur of moeilijk is om ze te bemachtigen (denk bv. aan medische experimenten). Bij ongelijke verdeling van de doelvariable zal men typisch geconfronteerd zijn met het feit dat net de interessantste waarde het minst voorkomt.</p>
<p>Besluit:</p>
<p dir="ltr">Wie bij het inzetten van een predictief model in een proces, ook zorgt voor een nauwgezette registratie van de werkelijke uitkomst, beschikt na verloop van tijd over méér gelabelde data, en zal dus in staat zijn betere predictieve modellen te bouwen: nauwkeuriger, robuuster, gerichter.</p>
<p><strong>Kwantificeren van de werkelijke nauwkeurigheid &#8211; rapporteren</strong></p>
<p dir="ltr">The proof is in the pudding. Het is weinig interessant te beschikken over een model dat een hoge verwachte nauwkeurigheid kent, als het in de praktijk niet werkt. Het is evident dat slechts de registratie van de werkelijke uitkomst ons in staat stelt te rapporteren over de werkelijke nauwkeurigheid, de ‘performantie’ van het model.</p>
<p dir="ltr">Waar de werkelijke nauwkeurigheid sterk afwijkt van de verwachte, valt ongetwijfeld veel te leren uit het bestuderen van individuele cases waar de predictie verschilt van de geregistreerde uitkomst = feedback. Dit verhoogt het inzicht in de eigen business-context.</p>
<p dir="ltr">Verder hoeft het geen betoog dat de feedbackregistratie best gestructureerd, elektronisch, gebeurt. Dit maakt een regelmatige, automatische rapportering mogelijk, en maakt het ook mogelijk de performantie van een predictief model op te volgen in de tijd. Wat ons naadloos brengt tot het volgende punt.</p>
<p><strong>Opvangen van evolutie &#8211; nauwkeurig blijven</strong></p>
<p dir="ltr">De werkelijkheid evolueert. De context van elk proces zal in de tijd dus steeds veranderen. Men mag dus verwachten dat ook een predictief model mettertijd gaat slijten. Dankzij feedback-registratie zijn we nu niet alleen in staat deze daling in perfomantie waar te nemen, maar kunnen we er nu ook iets aan doen! Het volstaat immers de ‘oudste’ gelabelde data te laten vallen en te vervangen door ‘nieuwe’, waarvoor de uitkomst dus werd geregistreerd.</p>
<p dir="ltr">In het geval de feedback elektronisch is geregistreerd, is het ook mogelijk dit in een continu proces te gieten, waarbij een glijdend tijdsvenster wordt gebruikt bij automatisch opstellen van trainingsdata. Aldus berekent men op regelmatige wijze een nieuw predictief model, en blijft men constant “leren” in de evoluerende context.</p>
<p><strong>Innovatie en procesinnovatie mogelijk maken</strong></p>
<p dir="ltr"><a href="/wp-content/uploads/2014/04/fresh-ideas-chrono_small.png"><img loading="lazy" decoding="async" class="alignleft  wp-image-6953" alt="fresh ideas chrono_small" src="/wp-content/uploads/2014/04/fresh-ideas-chrono_small-300x210.png" width="168" height="118" /></a>Met predictive analytics wil men vaak een nieuw probleem aanpakken, een nieuwe opportuniteit aanboren, een risico of fenomeen dat men voorheen niet expliciet, of expliciet genoeg, registreerde. Bv. voor fraudebestrijding: misschien deed men dit voorheen niet, of niet expliciet op een data-gedreven manier. Of bv. in de context van de medische wetenschap: het kan zijn dat men voorheen slechts een algemeen nierfalen benoemde, herkende, en registreerde, daar waar men nu voor een specifiek of gevaarlijk subtype een gerichtere, nauwkeurigere diagnose- of zorgondersteuning wenst uit te bouwen.</p>
<p dir="ltr">In die gevallen start men dan zonder gelabelde data, of in het beste geval met ‘onnauwkeurig getypeerde’ data. Bv. voor fraudebestrijding heeft men boetes geregistreerd, maar men kan fraude niet onderscheiden van vergissingen e.a. Bv. nierfalen: aanvankelijk heeft men slechts trainingsdata voor het algemeen type.</p>
<p dir="ltr">In elk geval dient men een nieuw afhandelproces te definiëren, waarbij men voor nieuwe dingen aandacht heeft, en waarbij men nauwkeurig, met de juiste metadata, de uitkomst registreert. Deze feedback kan dan op termijn wel geëxploiteerd worden in een echt predictief model.</p>
<p><a href="/wp-content/uploads/2012/09/improvementCycle.png"><img loading="lazy" decoding="async" class="aligncenter size-medium wp-image-4594" alt="improvementCycle" src="/wp-content/uploads/2012/09/improvementCycle-300x163.png" width="300" height="163" srcset="https://www.smalsresearch.be/wp-content/uploads/2012/09/improvementCycle-300x163.png 300w, https://www.smalsresearch.be/wp-content/uploads/2012/09/improvementCycle.png 738w" sizes="auto, (max-width: 300px) 100vw, 300px" /></a></p>
<p><strong>Conclusie</strong></p>
<p dir="ltr">We willen hiermee vooral de goede raad meegeven om van bij het begin het ganse proces te beschouwen, en in het afhandelproces (na actie in functie van predictie) te voorzien om goed getypeerde feedback te registreren. Zodanig dat die feedback, liefst volledig geautomatiseerd, geëxploiteerd kan worden voor het opvolgen van modelperformantie en voor constante bijsturing van predictieve modellen. Het adagium is: “<strong>Learning by Doing, and Continue to Learn</strong>”.</p>
<p dir="ltr">Hoe slimmer de feedbackregistratie is opgezet, hoe meer mogelijkheden de organisatie zal hebben om haar inzicht te vergroten en predictieve modellen te richten op voorheen onontgonnen terreinen.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Working Predictive Analytics (2): ROI</title>
		<link>https://www.smalsresearch.be/putting-predictive-analytics-to-work-lessons-learned-2-roi/</link>
		
		<dc:creator><![CDATA[Dries Van Dromme]]></dc:creator>
		<pubDate>Thu, 13 Sep 2012 09:08:50 +0000</pubDate>
				<category><![CDATA[Blog post]]></category>
		<category><![CDATA[analytics]]></category>
		<category><![CDATA[cost cutting]]></category>
		<category><![CDATA[egov]]></category>
		<category><![CDATA[Information management]]></category>
		<category><![CDATA[Managing IT costs]]></category>
		<category><![CDATA[Predictive Analytics]]></category>
		<category><![CDATA[ROI]]></category>
		<guid isPermaLink="false">/?p=4586</guid>

					<description><![CDATA[Iets waar elke gezonde organisatie en elk verantwoordelijk management van wakker ligt is uiteraard ROI. In onze context: de ROI van predictive analytics die we sinds dit jaar concreet inzetten. Nu is de berekening van ROI (die vaak een of meerdere benaderingen, hypotheses, of schattingen inhoudt) in het algemeen een moeilijke zaak. O ironie! Voor [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><img loading="lazy" decoding="async" class="size-medium wp-image-4588 alignleft" title="trend-graph" alt="" src="/wp-content/uploads/2012/09/trend-graph-300x225.jpg" width="210" height="158" srcset="https://www.smalsresearch.be/wp-content/uploads/2012/09/trend-graph-300x225.jpg 300w, https://www.smalsresearch.be/wp-content/uploads/2012/09/trend-graph.jpg 560w" sizes="auto, (max-width: 210px) 100vw, 210px" />Iets waar elke gezonde organisatie en elk verantwoordelijk management van wakker ligt is uiteraard <strong>ROI</strong>. In onze context: de ROI van predictive analytics die we sinds dit jaar concreet inzetten.<br />
Nu is de berekening van ROI (die vaak een of meerdere benaderingen, hypotheses, of schattingen inhoudt) in het algemeen een moeilijke zaak. O ironie! Voor de berekening van de ROI die we met predictive analytics bereiken, dienen we gebruik te maken van &#8211; jawel &#8211; predictive analytics …</p>
<p>Een woordje uitleg.</p>
<p>Stel dat u in het zweet uws aanschijns, op basis van procesparameters, statussen, business object-karakteristieken en -categorieën, ja zelfs historiek, een <strong>predictief model</strong> hebt kunnen opstellen dat op statistisch verantwoorde wijze en met een bepaalde nauwkeurigheid het optreden van een “event” voorspelt (1).<br />
Uiteraard hebt u ervoor gezorgd dat uw nieuwe business-processen toelaten om snel en gericht <strong>actie</strong> te ondernemen op basis van deze voorspelling. Uw agenten en/of processen anticiperen op het “event” en genereren zo een <strong>meerwaarde</strong> in het geval van een gewenst event of <strong>vermijden kosten</strong> in het geval van een ongewenst event.<br />
Wenst u nu te weten wat de ROI van deze nieuwe business-processen en acties is, dan zal u het resultaat moeten <strong>monitoren</strong> en dit vergelijken met <em>wat het resultaat zou geweest zijn indien men geen actie zou ondernomen hebben</em>. Hoe kan men dit bereiken?<br />
De berekening van de ROI kan dan geschieden door het predictief model toe te passen op historische gegevens</p>
<ul>
<li>waarvan het <em>resultaat</em> (vóór de invoering van vernieuwde business-processen en geïnformeerde acties) <em>bekend</em> is, en</li>
<li>die <em>vergelijkbaar</em> zijn met de gevallen waarvoor gerichte acties worden ondernomen.</li>
</ul>
<p>Dit klinkt logisch, maar hoe bepaalt u wat <em>vergelijkbaar</em> is? Op welke basis dient de vergelijking op te gaan? Opnieuw biedt het predictief model een antwoord: kijk immers naar de variabelen die <strong>door het predictief model als meest significant</strong> worden beschouwd. Dan kan u voor de berekeningen aan de slag met de bekende resultaten, waarvan bv. het gemiddelde genomen kan worden van een groep vergelijkbare gevallen uit de historiek. Eventueel kan men bij dit laatste ook gebruik maken van descriptive analytics (zoals clustering).</p>
<p>(1) Het “optreden van een event” dient hier heel <strong>ruim</strong> geïnterpreteerd te worden. Het kan immers echt om het even wat zijn – als het maar strategisch interessant is, gelinkt aan een doelstelling van de organisatie, aan een gewenst of ongewenst resultaat. Wanneer gaat een klant weg, faalt een machine-onderdeel, of overschrijdt de waarde van een resultaatvariabele een welbepaalde drempel? Voorbeelden zijn legio.</p>
<p>Let wel, bij dit alles geldt: TIMTOWDI – “there is more than one way to do it” (denk bv. aan keuze van algoritmen, parameters, performance measures). Maar welke benadering ook gekozen wordt, er dient duidelijk over <strong>gecommuniceerd</strong> te worden, en men heeft er alle belang bij de keuzes die werden gemaakt, te motiveren en te documenteren.</p>
<p><strong>Lessons learned</strong>:</p>
<ul>
<li>spreek op voorhand goed af met de business;</li>
<li>spreek op voorhand goed af met de business hoe de resultaten van predictive analytics aanleiding kunnen geven tot concrete acties in concrete business processen;</li>
<li>spreek op voorhand goed af met de business hoe de resultaten van zulke acties aanleiding kunnen geven tot een meetbare waarde, en hoe dit gemonitord kan worden;</li>
<li>spreek op voorhand goed af met de business hoe de ROI dan op basis van het voorgaande kan en mag berekend worden;</li>
<li>monitor de evolutie van de ROI en wees klaar om modellen bij te sturen;</li>
<li>blijf daarom continu de business betrekken in dit proces.</li>
</ul>
<p><a href="/wp-content/uploads/2012/09/improvementCycle.png"><img loading="lazy" decoding="async" class="aligncenter size-medium wp-image-4594" title="improvementCycle" alt="" src="/wp-content/uploads/2012/09/improvementCycle-300x163.png" width="300" height="163" srcset="https://www.smalsresearch.be/wp-content/uploads/2012/09/improvementCycle-300x163.png 300w, https://www.smalsresearch.be/wp-content/uploads/2012/09/improvementCycle.png 738w" sizes="auto, (max-width: 300px) 100vw, 300px" /></a></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Working Predictive Analytics (1): lessons learned</title>
		<link>https://www.smalsresearch.be/putting-predictive-analytics-to-work-lessons-learned/</link>
		
		<dc:creator><![CDATA[Dries Van Dromme]]></dc:creator>
		<pubDate>Mon, 05 Mar 2012 12:06:01 +0000</pubDate>
				<category><![CDATA[Blog post]]></category>
		<category><![CDATA[analytics]]></category>
		<category><![CDATA[business intelligence]]></category>
		<category><![CDATA[Data Integration]]></category>
		<category><![CDATA[Data Mining]]></category>
		<category><![CDATA[Information management]]></category>
		<category><![CDATA[Predictive Analytics]]></category>
		<guid isPermaLink="false">/?p=4012</guid>

					<description><![CDATA[We hadden het al gelezen:  het potentieel is enorm, maar (zoals met zovele zaken) de kous is niet af met het kopen van software. Er komt heel wat bij kijken om Predictive Analytics succesvol, met ROI, in te zetten. Dat wisten we dus al &#8211; maar wat nu we een tijdje verder zijn, de eerste [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>We hadden het al gelezen:  het potentieel is enorm, maar (zoals met zovele zaken) de kous is niet af met het kopen van software. Er komt heel wat bij kijken om Predictive Analytics <em><strong>succesvol</strong></em>, met ROI, in te zetten.</p>
<p>Dat wisten we dus al &#8211; maar wat nu we een tijdje verder zijn, de eerste successen geboekt zijn? <strong>Enkele lessen</strong> kunnen getrokken worden, nu we dit aan den lijve hebben kunnen ondervinden. We geven ze hier al kort mee; elk van deze deelaspecten kan het onderwerp vormen van aparte blogs, waarin we er telkens wat meer aan besteden &#8230;</p>
<ul>
<li>men heeft specifieke skills nodig (business analyse, data mining, &#8230;) die verder gaan dan deze die nodig zijn voor Data Integration en Statistics;</li>
<li>men moet rekening houden met evolutie in de modellen, onderliggend aan analytics, en dient dus een model management te voorzien;</li>
<li>men moet een goed idee hebben van hoe (en met welk personeel) men zal afhandelen (workflow, case management, business processen, &#8230;) wat men met analytics detecteert;</li>
<li>afhankelijk van de behoeften van de business (bv. (near) real-time detectie), is er misschien nood aan specifieke implementatie-architectuur (bv. Complex-event Processing, of moderne BI-architecturen, Data Virtualisatie) bij de koppeling van analytics aan de productiesystemen. Klassieke DWH-gebaseerde architecturen kunnen immers tekort schieten! Veel hangt ook af van de aanwezige Enterprise Architectuur.</li>
</ul>
<p>Zeker en vast &#8220;to be continued&#8221;, dus &#8230; blijf ons volgen!</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Open Source Data Integration met MapReduce-support</title>
		<link>https://www.smalsresearch.be/open-source-data-integration-met-mapreduce-support/</link>
		
		<dc:creator><![CDATA[Dries Van Dromme]]></dc:creator>
		<pubDate>Fri, 22 Apr 2011 14:42:30 +0000</pubDate>
				<category><![CDATA[Blog post]]></category>
		<category><![CDATA[Data Integration]]></category>
		<category><![CDATA[Open Source]]></category>
		<guid isPermaLink="false">http://blogs.smals-mvm.be/research/?p=1969</guid>

					<description><![CDATA[Even preciseren: het gaat om Talend (open source Data Integration software) en het gaat om de open source implementatie van MapReduce: Apache Hadoop. Uiteraard&#160;:-). (Talend vermeldde ik reeds als DI-onderdeel van open source BI-platformen, deel1 en deel 2, en na recente overname van Sopera, als opkomende EAI-speler die een open source alternatief biedt.) Hoe doet [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Even preciseren: het gaat om <strong><a href="https://www.talend.com">Talend</a></strong> (open source Data Integration software) en het gaat om de open source implementatie van MapReduce: <strong>Apache Hadoop</strong>. Uiteraard&nbsp;:-).</p>
<p>(<strong>Talend</strong> vermeldde ik reeds als DI-onderdeel van open source BI-platformen, deel1 en deel 2, en na recente overname van <strong>Sopera</strong>, als opkomende EAI-speler die een open source alternatief biedt.)</p>
<p><strong>Hoe doet Talend het, en wat is er zo sterk aan?</strong></p>
<p>In de eerste plaats gaat het om connectiviteit, waarbij de bron en/of het resultaat van de ETL-routines in Hadoop gaat. Tot daar nog niks spectaculairs.<br />
Maar de Talend Integration Suite gaat nog verder, en profiteert van haar mogelijkheid om native Hadoop-code te genereren, waarbij net de <em>transformatie-operaties</em> aan Hadoop gegeven worden om aldus van Hadoops performantie voor Big Data te profiteren.<br />
Dit soort ETL is niet zo bekend, maar heet <strong>ELT</strong>: &#8220;Extract-Load-Transform&#8221;, een stokpaardje van Talend.</p>
<p>Merk wel op dat de generatie van Hadoop-code enkel in de Subscription-versie (Talend Integration Suite) vervat zit, niet in de gratis versie (Talend Open Studio). Geen verrassingen hier.</p>
<p>Voor de liefhebbers: lees <a href="https://tdwi.org/articles/2010/08/18/talend-di-mapreduce.aspx">hier</a> meer.</p>
<p><strong>Conclusie</strong></p>
<p>MapReduce is niet alleen voor Analytics, en Talend is een belangrijke, groeiende speler, die ook Big Data aankan.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>LogiXML treedt het Gartner Magic Quadrant (BI Platforms) binnen</title>
		<link>https://www.smalsresearch.be/logixml-treedt-het-gartner-magic-quadrant-bi-platforms-binnen/</link>
		
		<dc:creator><![CDATA[Dries Van Dromme]]></dc:creator>
		<pubDate>Fri, 11 Feb 2011 14:30:47 +0000</pubDate>
				<category><![CDATA[Blog post]]></category>
		<category><![CDATA[business intelligence]]></category>
		<category><![CDATA[Information management]]></category>
		<guid isPermaLink="false">http://blogs.smals-mvm.be/research/?p=1616</guid>

					<description><![CDATA[In mijn post van 4 juni 2010 kondigde ik aan dat LogiXML een rising star zou kunnen zijn die we dienden in het oog te houden. LogiXML lost deze verwachtingen in, zo blijkt, want het doet zijn intrede in het Gartner Magic Quadrant for Business Intelligence Platforms (27 januari 2011). Al is het correcter te [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>In mijn <em>post</em> van <a href="https://www.smalsresearch.be/bi-logixml-overtreft-de-verwachtingen-van-edpnet/">4 juni 2010</a> kondigde ik aan dat <a href="https://www.logixml.be">LogiXML</a> een <em>rising star</em> zou kunnen zijn die we dienden in het oog te houden.<br />
LogiXML lost deze verwachtingen in, zo blijkt, want het doet zijn intrede in het <a href="https://pages.logixml.com/AR-2011MagicQuadrant.html"> Gartner Magic Quadrant for Business Intelligence Platforms</a> (27 januari 2011).<br />
Al is het correcter te stellen dat LogiXML het kwadrant van de <em>niche players</em> overstijgt om zich tussen de <em>challengers</em>te plaatsen, toch is het opvallend dat dit &#8211; als we Gartner mogen geloven &#8211; te danken is aan:</p>
<li>gebruiksvriendelijkheid, usability;</li>
<li>snelle uitrolling;</li>
<li>integreerbaarheid, <em>embeddability</em>;</li>
<li>goedkoper zijn dan de andere leveranciers van Enterprise BI-oplossingen.</li>
<p>Dit zijn inderdaad de sterke punten waarop dit product zich profileert, en volgens het Gartner-onderzoek waarderen de klanten het dan ook bij de allerhoogsten op het vlak van gebruiksvriendelijkheid, globale functionaliteit, support, software-kwaliteit en performantie.</p>
<p>Met de sterke aanwezigheid en support in België is dit dus een speler die zeker geëvalueerd moet worden bij het testen van nieuwe producten, bij informele marktverkenningen, of in het kader van eventuele lastenboeken.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Talend neemt Sopera over: open source datamanagement + applicatie-integratie</title>
		<link>https://www.smalsresearch.be/talend-neemt-sopera-over-open-source-datamanagement-applicatie-integratie/</link>
		
		<dc:creator><![CDATA[Dries Van Dromme]]></dc:creator>
		<pubDate>Thu, 18 Nov 2010 09:57:36 +0000</pubDate>
				<category><![CDATA[Blog post]]></category>
		<category><![CDATA[application integration]]></category>
		<category><![CDATA[Data Integration]]></category>
		<category><![CDATA[data quality]]></category>
		<category><![CDATA[Open Source]]></category>
		<category><![CDATA[SOA]]></category>
		<guid isPermaLink="false">http://blogs.smals-mvm.be/research/?p=1408</guid>

					<description><![CDATA[De overname van Sopera (open source SOA en middleware) door Talend (open source data integratie en data management) creëert een heel sterke pure play open source middleware vendor, die kan profiteren van de synergie tussen data management en applicatie-integratie. Dit is m.i. goed gezien, want vaak zijn de redenen voor het falen van SOA-projecten e.d. [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>De overname van Sopera (open source SOA en middleware) door Talend (open source data integratie en data management) creëert een heel sterke pure play open source middleware vendor, die kan profiteren van de synergie tussen data management en applicatie-integratie.</p>
<p>Dit is m.i. goed gezien, want vaak zijn de redenen voor het falen van SOA-projecten e.d. (verwachtingen niet ingelost, vertragingen, budget overscheden, &#8230;) te vinden in de onderliggende datakwaliteitsproblemen of moeilijkheden op het vlak van data-integratie &#8211; naast de beter bekende redenen zoals gebrekkig requirements management en slechte software-kwaliteitscontrole (SQA). Dit zou dus wel eens een vruchtbaar huwelijk kunnen blijken.</p>
<p>U kan er <a href="https://www.talend.com/campaign/campaign.php?id=144&amp;src=HomePageSpecial"> hier meer</a> over lezen.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Data Quality Tools voor Smals: het begin van een succesverhaal?</title>
		<link>https://www.smalsresearch.be/data-quality-tools-voor-smals-het-begin-van-een-succesverhaal/</link>
		
		<dc:creator><![CDATA[Dries Van Dromme]]></dc:creator>
		<pubDate>Mon, 21 Jun 2010 13:07:25 +0000</pubDate>
				<category><![CDATA[Blog post]]></category>
		<category><![CDATA[data governance]]></category>
		<category><![CDATA[data quality]]></category>
		<category><![CDATA[Data Quality Tools]]></category>
		<category><![CDATA[Information management]]></category>
		<guid isPermaLink="false">http://blogs.smals-mvm.be/research/?p=1279</guid>

					<description><![CDATA[Sinds begin 2010 beschikt Smals over Data Quality Tools: Trillium Software System (TS Discovery &#38; TS Quality), geïntroduceerd door de dienst Onderzoek na een uitgebreide studie en een tweefasig lastenboek. De cel Data Quality zet deze tools nu met succes in bij twee heel tevreden klanten (zie onder), een derde klant staat te trappelen (KSZ). [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Sinds begin 2010 beschikt Smals over <strong>Data Quality Tools</strong>: <a href="https://www.trilliumsoftware.com/home/index.aspx">Trillium Software System</a> (TS Discovery &amp; TS Quality), geïntroduceerd door de dienst Onderzoek na een uitgebreide studie en een tweefasig lastenboek.<br />
De cel Data Quality zet deze tools nu met succes in bij twee heel tevreden klanten (zie onder), een derde klant staat te trappelen (KSZ). In zeer korte tijd werden concrete, door de klant exploiteerbare resultaten bereikt. Een woordje uitleg bij dit succes.<span id="more-1279"></span></p>
<h2>FOD Economie: Adreskwaliteit KBO</h2>
<p>In het project rond de authentieke bron van de <a href="https://www.kbo-bce.be/">Kruispuntbank van Ondernemingen (KBO)</a> slagen we er met behulp van de Data Quality Tools in om de adreskwaliteit te verbeteren door</p>
<li>dubbels te detecteren;</li>
<li>straatnaam-, huisnummer-, en busnummer te parsen en overloaded informatie in de juiste velden te plaatsen;</li>
<li>straatnaam te standaardiseren en straatcode toe te kennen;</li>
<li>postcodes en gemeentenamen te corrigeren;</li>
<li>tot geldige combinaties straat-huisnummer-postcode-gemeente te komen.</li>
<p>Een illustratie hiervan op reële data <a href="https://intranet.smals.be/mayanl/livelink/4623405/adres-matching&amp;cleansing_voorbeeld2.bmp?func=doc.Fetch&amp;nodeid=4623405&amp;newtarget=true">vind je hier</a>.</p>
<p>De klant bevestigt dat de resultaten behaald met de tools een meerwaarde betekenen ten opzichte van de resultaten die de afgelopen jaren reeds op het vlak van de verbetering van adreskwaliteit werden bereikt. Er wordt regelmatig overlegd met de klant, die al herhaaldelijk zijn tevredenheid heeft uitgedrukt.</p>
<h2>RSZ, dienst Inning: 30bis, werfmeldingen</h2>
<p>Ook de RSZ is tevreden met de voorlopige resultaten die op slechts 2 dagen tijd werden bereikt, en wil verder gaan met de detectie en resolutie van dubbels in de signaletiek van Orderers, Contractors, en Sub-contractors in de toepassing voor de werfmeldingen. Sommige bedrijven met zeer gelijkaardige benaming en adres werden tot 3000 keer geregistreerd!</p>
<h2>Korte historiek</h2>
<p>De Data Quality Tools werden aangekocht na doorgedreven testen in een tweefasig lastenboek. De testen omvatten naast het functionele ook de integratiemogelijkheden van de oplossing (succesvol met J2EE en WebLogic10, onder andere), en een kosten-batenanalyse.<br />
Ondertussen werd een productiemiddel (Data Quality Run Set) gecreëerd; meer uitleg <a href="https://intranet.smals.be/mayanl/livelink/fetch/4397942/?func=ll&amp;objid=4397942&amp;objAction=butterflybrowse&amp;explist=1163398#DQTService">op het Intranet</a>.</p>
<h2>Toekomst?</h2>
<p>Er lijkt zeker voldoende vraag te bestaan bij klanten en leden.<br />
De <a href="https://www.ksz.fgov.be/">KSZ</a> zou nog vóór het einde van het jaar met behulp van onze Data Quality Tools de verbetering van het BIS-register en migratie naar de SOA-omgeving willen realiseren.<br />
KBO zou nog de kwaliteit van namen en adressen van contactpersonen (functies en rollen) van bedrijven willen in kaart brengen en vergelijken met de inhoud van het Rijksregister waar mogelijk.<br />
Het <a href="https://www.favv.be/">FAVV</a> zou de kwaliteit van adressen van vestigingseenheden en activiteitscentra in kaart willen brengen en verbeteren.</p>
<p>Het moment is nu gekomen om deze investering maximaal te laten renderen, voor alle betrokken partijen.<br />
De <strong>klantenbeheerders</strong> kunnen hun voelhoorns uitsteken bij de leden van Smals en de opportuniteiten ontdekken.<br />
En minstens enkele analisten van <strong>TO&amp;P</strong> dienen ervaring op te doen met de Data Quality Tools in het kader van concrete opdrachten, om het <strong>Data Quality Competency Center van voldoende capaciteit en beschikbaarheid</strong> te voorzien en zo een solide basis te vormen voor dit nieuwe service-aanbod van Smals. Een uitdaging!</p>
<p>Uiteraard zal men hierbij kunnen blijven rekenen op de know-how die door de Data Quality Cel werd opgebouwd.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>BI: LogiXML overtreft de verwachtingen van EDPnet</title>
		<link>https://www.smalsresearch.be/bi-logixml-overtreft-de-verwachtingen-van-edpnet/</link>
					<comments>https://www.smalsresearch.be/bi-logixml-overtreft-de-verwachtingen-van-edpnet/#comments</comments>
		
		<dc:creator><![CDATA[Dries Van Dromme]]></dc:creator>
		<pubDate>Fri, 04 Jun 2010 15:36:04 +0000</pubDate>
				<category><![CDATA[Blog post]]></category>
		<category><![CDATA[business intelligence]]></category>
		<category><![CDATA[Information management]]></category>
		<guid isPermaLink="false">http://blogs.smals-mvm.be/research/?p=1222</guid>

					<description><![CDATA[Sinds 2008 is er een nieuwe speler op de BI-markt voor de Benelux bijgekomen, LogiXML, die onze aandacht zeker verdient. LogiXML combineert een moderne (je zou zelfs kunnen stellen: Web2.0) look-and-feel en architectuur (alles SOA en Web-based) met een interessant pricing-model (enkel per server, niet per client). Zo zijn ze excellent geplaatst om de meer [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Sinds 2008 is er een nieuwe speler op de BI-markt voor de Benelux bijgekomen, <strong><a href="https://www.logixml.be/">LogiXML</a></strong>, die onze aandacht zeker verdient.</p>
<p>LogiXML combineert een <strong>moderne</strong> (je zou zelfs kunnen stellen: <em>Web2.0</em>) <strong>look-and-feel</strong> en <strong>architectuur</strong> (alles SOA en Web-based) met een interessant <strong>pricing-model</strong> (enkel <em>per server</em>, niet per client). Zo zijn ze excellent geplaatst om de meer bekende, traditionelere spelers de loef af te steken qua pricing en <strong>snelheid van roll-out</strong> (je kan alles namelijk in een pakket downloaden, installeren, en onmiddellijk in je browser gaan beginnen gebruiken en configueren na een half dagje opleiding). Met LogiETL erbij dekt deze oplossing alle lagen van BI; van ETL tot Reporting en Dashboarding met volledige &#8220;drill down&#8221;-mogelijkheden.</p>
<p>Eerder dit jaar had ik LogiXML al aangeraden aan het team SAS/statistieken/BI van Pierre Ghislain en aan het team SLM van Luc Vandam, ingevolge de wens om sneller over SLA-opvolgingsindicatoren te kunnen beschikken en<span id="more-1222"></span> in het algemeen om onze huidige DWH/BI-architectuur te herevalueren in functie van de recente ontwikkelingen. Concrete testen (o.a. Oracle BI, LogiXML, en een Open Source alternatief &#8211; zie mijn Open Source BI blog entries deel 1 en deel 2) zijn nu gepland.</p>
<p>Stilaan beginnen zich <strong>succesverhalen met LogiXML</strong> in de Belgische markt af te tekenen, getuige bijvoorbeeld het verhaal van <strong><a href="https://www.edpnet.be/">EDPnet</a></strong>.</p>
<p><em>Bart van Daal, Development manager bij EDPnet</em>: &#8220;In eerste instantie was EDPnet op zoek naar een tool om de bestaande Crystal reports rapporten te vervangen. Die tool was niet meer toereikend qua layout en functionaliteit om de groei en innovatiedrang van het bedrijf te kunnen volgen. De criteria waren de mogelijkheid tot documentcreatie, een intuïtieve interface en concept, snelle leercurve voor ontwikkelaars en de mogelijkheid voor de eindgebruiker om zelf parameters te beheren.&#8221;</p>
<p>&#8220;Na evaluatie van een aantal BI oplossingen, waaronder de laatste versie van de bestaande oplossing, werden we aangenaam verrast door de resultaten die we bereikten met LogiXML. Het concept van de tool en het nauw aansluiten met Microsoft .NET zorgden ervoor dat we zeer snel overtuigd werden van de capaciteiten van deze BI oplossing.&#8221; aldus nog Bart.</p>
<p><strong>Het resultaat bij EDPnet</strong></p>
<p>Lees <strong><a href="https://www.bdint.be/bdi/nl/NewsletterJuneEDPNET.htm">hier</a></strong> het relaas over het resultaat behaald met LogiXML.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.smalsresearch.be/bi-logixml-overtreft-de-verwachtingen-van-edpnet/feed/</wfw:commentRss>
			<slash:comments>1</slash:comments>
		
		
			</item>
	</channel>
</rss>
