avatar

About Bert Vanhalst

Bert is sinds 2001 research consultant bij Onderzoek Smals. Na het introduceren van Service Oriented Architecture en web services, verlegde hij de focus op mobile development en security. Vervolgens richtte hij zich op sterke (mobiele) authenticatie en conversationele interfaces. Tegenwoordig spitst hij zich toe op het nuttig inzetten van (generatieve) AI.

Interests: Mobile Application Development, Mobile Device Management, Mobile Security, BYOD, SOA en Web Services, Portaaltools en Desktop Integratie,

Email: bert.vanhalstblah [at] blah blahsmals.be

Twitter: @bertvanhalst

List of documents :

312.7 KiB
10 Downloads
Details
299.8 KiB
172 Downloads
Details
270.7 KiB
661 Downloads
Details
183.6 KiB
419 Downloads
Details
261.6 KiB
354 Downloads
Details
669.7 KiB
429 Downloads
Details
609.7 KiB
840 Downloads
Details
751.3 KiB
600 Downloads
Details
670.8 KiB
1257 Downloads
Details
766.0 KiB
760 Downloads
Details
5.9 MiB
1805 Downloads
Details
494.5 KiB
1233 Downloads
Details
6.3 MiB
3097 Downloads
Details
123.4 KiB
5065 Downloads
Details
823.7 KiB
3952 Downloads
Details
639.3 KiB
2140 Downloads
Details
6.0 MiB
2075 Downloads
Details
213.4 KiB
1564 Downloads
Details
4.5 MiB
2075 Downloads
Details
693.0 KiB
1251 Downloads
Details
242.2 KiB
2168 Downloads
Details
519.2 KiB
1573 Downloads
Details
1.5 MiB
1601 Downloads
Details
40.0 KiB
1305 Downloads
Details
813.4 KiB
1881 Downloads
Details
752.0 KiB
2532 Downloads
Details

List of blog posts :

Évaluation d’un système génératif de questions-réponses

Les frameworks d’évaluation des applications RAG permettent une évaluation systématique de la qualité des systèmes génératifs de questions-réponses. Ils permettent de mesurer différents aspects, tels que la capacité à récupérer des informations pertinentes (retrieval) et la qualité des réponses générées. Ces métriques sont essentielles pour comprendre les faiblesses d’un système RAG et apporter les ajustements nécessaires. Continue reading

Evalueren van een generatief vraag-antwoordsysteem

Frameworks voor het evalueren van RAG toepassingen laten toe om de kwaliteit van generatieve vraag-antwoordsystemen systematisch te beoordelen. Ze voorzien een manier om verschillende aspecten te meten, zoals het vermogen om relevante informatie op te halen (retrieval) en de kwaliteit van de gegenereerde antwoorden. Dergelijke metrieken zijn cruciaal om inzicht te krijgen in de eventuele zwakke punten van een RAG systeem en waar nodig te kunnen bijsturen. Continue reading

Qualité d’un système génératif de questions-réponses

Dans le contexte de l’IA générative, les applications “chat with your data” qui permettent de poser des questions sur des informations propriétaires suscitent un vif intérêt. Dans cet article, nous décrirons quelques techniques qui contribuent à l’optimisation de ces systèmes génératifs de questions-réponses. Continue reading

Kwaliteit van een generatief vraag-antwoordsysteem

In de context van generatieve AI is er veel interesse in “chat with your data” toepassingen waarbij je vragen kunt stellen over bedrijfseigen informatie. In dit artikel beschrijven we een aantal technieken die de kwaliteit van dergelijke generatieve vraag-antwoordsystemen helpen verbeteren. Continue reading