avatar

About Katy Fokou

Consultante Recherche chez Smals depuis mai 2018, spécialisée en intelligence artificielle et plus particulièrement en machine learning et Natural Language Processing.

Email: katy.fokoublah [at] blah blahsmals.be

List of documents :

2.8 MiB
348 Downloads
Details
397.4 KiB
84 Downloads
Details
2.1 MiB
150 Downloads
Details
387.8 KiB
265 Downloads
Details
364.5 KiB
820 Downloads
Details
778.4 KiB
653 Downloads
Details
1.0 MiB
1068 Downloads
Details
731.7 KiB
973 Downloads
Details
730.8 KiB
1221 Downloads
Details
2.6 MiB
1750 Downloads
Details
633.6 KiB
875 Downloads
Details

List of blog posts :

Performance des LLM : Analyse comparative entre le français et le néerlandais?

Notre évaluation d’un agent conversationnel RAG a révélé un écart de performance entre le français et le néerlandais, soulignant un défi persistant dans l’utilisation des grands modèles de langage (LLM) multilingues. Cette différence de performance s’explique en partie par la disponibilité des ressources utilisées pour entraîner ces modèles, mais d’autres facteurs peuvent également entrer en jeu. Continue reading

GraphRAG – Naar een verbeterde retrieval dankzij knowledge graphs

RAG-systemen (Retrieval-Augmented Generation) hebben het mogelijk gemaakt voor grote taalmodellen (LLM’s) om te steunen op betrouwbare gegevens. Maar ze blijven onder andere beperkt in hun vermogen om hallucinaties te beheersen. Daar komt GraphRAG in beeld: door LLM’s te combineren met knowledge graph verbetert het de nauwkeurigheid, transparantie en redeneercapaciteit van de modellen. Continue reading

GraphRAG  – Vers une génération augmentée par les graphes de connaissances

Les systèmes RAG (Retrieval-Augmented Generation) ont permis aux grands modèles de langage (LLM) de s’appuyer sur des données fiables. Mais ils restent limités, entre autres, dans leur capacité à contrôler les hallucinations. C’est là que GraphRAG entre en jeu : en combinant les LLM avec des graphes de connaissances, il améliore la précision, la transparence et la capacité de raisonnement des modèles.
Continue reading

Data ingestion voor generatieve AI-toepassingen: kernbegrippen

“Garbage in, garbage out” is een veelgebruikte uitspraak om de impact van data op de resultaten van kunstmatige intelligentiesystemen te beschrijven. Generatieve AI-toepassingen zoals vraag-en-antwoordsystemen vormen geen uitzondering op de regel. De knowledge bases waarop ze vertrouwen om antwoorden te genereren, moeten worden gevoed door een ingestion pipeline die speciaal is toegespitst op dit soort data, die in verschillende vormen beschikbaar zijn, zowel gestructureerd als ongestructureerd. Continue reading

Ingestion de données pour les applications d’IA générative: concepts-clés

« Garbage in, garbage out » c’est la formule consacrée pour décrire l’impact des données sur les résultats des systèmes d’intelligence artificielle. Les applications d’IA génératives telles que les systèmes de questions-réponses ne dérogent pas à la règle. Les bases de connaissances sur lesquelles elles s’appuient pour générer des réponses doivent être alimentées par un pipeline d’ingestion dédié à ce type de données qui se présentent sous différentes formes, structurées et non structurées. Continue reading

Open-source taalmodellen – Een serieus alternatief voor ChatGPT ?

In dit artikel onderzoeken we open source large language models, waarbij we kijken naar hun implementatie op lokale machines, hun gebruiksgemak en de kwaliteit van hun resultaten in vergelijking met propriëtaire modellen. Daarna worden de verschillende manieren onderzocht om de prestaties van deze modellen op specifieke taken te verbeteren Continue reading

Les modèles de langage open-source – Une alternative sérieuse à ChatGPT?

L’article explorera les large language models open-source en abordant leur mise en œuvre sur des machines locales, leur facilité d’utilisation et leur qualité de résultats comparée aux modèles propriétaires. Ensuite, il examinera les différentes possibilités d’amélioration des performances de ces modèles sur des tâches spécifiques. Continue reading