avatar

About Bert Vanhalst

Bert is sinds 2001 research consultant bij Onderzoek Smals. Na het introduceren van Service Oriented Architecture en web services, verlegde hij de focus op mobile development en security. Vervolgens richtte hij zich op sterke (mobiele) authenticatie en conversationele interfaces. Tegenwoordig spitst hij zich toe op het nuttig inzetten van (generatieve) AI.

Interests: Mobile Application Development, Mobile Device Management, Mobile Security, BYOD, SOA en Web Services, Portaaltools en Desktop Integratie,

Email: bert.vanhalstblah [at] blah blahsmals.be

Twitter: @bertvanhalst

List of documents :

2.8 MiB
6 Downloads
Details
312.7 KiB
38 Downloads
Details
299.8 KiB
182 Downloads
Details
270.7 KiB
689 Downloads
Details
183.6 KiB
430 Downloads
Details
261.6 KiB
365 Downloads
Details
669.7 KiB
441 Downloads
Details
609.7 KiB
849 Downloads
Details
751.3 KiB
609 Downloads
Details
670.8 KiB
1276 Downloads
Details
766.0 KiB
771 Downloads
Details
5.9 MiB
1814 Downloads
Details
494.5 KiB
1250 Downloads
Details
6.3 MiB
3111 Downloads
Details
123.4 KiB
5081 Downloads
Details
823.7 KiB
3963 Downloads
Details
639.3 KiB
2151 Downloads
Details
6.0 MiB
2089 Downloads
Details
213.4 KiB
1574 Downloads
Details
4.5 MiB
2084 Downloads
Details
693.0 KiB
1259 Downloads
Details
242.2 KiB
2181 Downloads
Details
519.2 KiB
1581 Downloads
Details
1.5 MiB
1612 Downloads
Details
40.0 KiB
1311 Downloads
Details
813.4 KiB
1894 Downloads
Details
752.0 KiB
2547 Downloads
Details

List of blog posts :

Évaluation d’un système génératif de questions-réponses

Les frameworks d’évaluation des applications RAG permettent une évaluation systématique de la qualité des systèmes génératifs de questions-réponses. Ils permettent de mesurer différents aspects, tels que la capacité à récupérer des informations pertinentes (retrieval) et la qualité des réponses générées. Ces métriques sont essentielles pour comprendre les faiblesses d’un système RAG et apporter les ajustements nécessaires. Continue reading

Evalueren van een generatief vraag-antwoordsysteem

Frameworks voor het evalueren van RAG toepassingen laten toe om de kwaliteit van generatieve vraag-antwoordsystemen systematisch te beoordelen. Ze voorzien een manier om verschillende aspecten te meten, zoals het vermogen om relevante informatie op te halen (retrieval) en de kwaliteit van de gegenereerde antwoorden. Dergelijke metrieken zijn cruciaal om inzicht te krijgen in de eventuele zwakke punten van een RAG systeem en waar nodig te kunnen bijsturen. Continue reading

Qualité d’un système génératif de questions-réponses

Dans le contexte de l’IA générative, les applications “chat with your data” qui permettent de poser des questions sur des informations propriétaires suscitent un vif intérêt. Dans cet article, nous décrirons quelques techniques qui contribuent à l’optimisation de ces systèmes génératifs de questions-réponses. Continue reading

Kwaliteit van een generatief vraag-antwoordsysteem

In de context van generatieve AI is er veel interesse in “chat with your data” toepassingen waarbij je vragen kunt stellen over bedrijfseigen informatie. In dit artikel beschrijven we een aantal technieken die de kwaliteit van dergelijke generatieve vraag-antwoordsystemen helpen verbeteren. Continue reading