← Terug naar overzicht
Data & Relevantie

Production-Grade RAG voor Financiële Documentanalyse

Problem

Analisten verliezen uren aan het handmatig doorzoeken van jaarverslagen op specifieke datapunten. Bestaande zoektools geven generieke antwoorden of hallucineren feiten — onacceptabel in een financiële context waar precisie niet-onderhandelbaar is.

Proposed Solution

Een hybrid chunking strategie die het beste van twee werelden combineert: kleine, gefocuste chunks voor hoge retrieval-precisie, gekoppeld aan parent-document retrieval voor contextueel bereik. Elk antwoord bevat citation grounding — directe verwijzingen naar bron, pagina en paragraaf.

Tech Stack

OpenAI EmbeddingsPineconeLangChainNext.jsPython

Key Trade-off: Precisie vs. Contextueel Bereik

Kleine tekstfragmenten leveren hoge retrieval-precisie maar missen omliggende context. Grote chunks "verwateren" relevante informatie en verhogen tokenkosten. De oplossing: parent-child chunk linking — elk klein fragment is gekoppeld aan zijn parent-document, waardoor de LLM altijd de volledige context kan raadplegen wanneer nodig.

In een jaarverslag staat de winst op pagina 10, maar de definitie (bijv. EBITDA) in een voetnoot op pagina 80. Parent-child linking legt deze relatie vast zodat de RAG-pipeline beide bronnen meeneemt in het antwoord.

Scalability & Security

  • Token budgeting per query om kosten beheersbaar te houden
  • PII-filtering pre-embedding voorkomt dat gevoelige data in de vectordatabase belandt
  • Rate limiting en caching voor herhaalde queries
  • Embedding versioning voor reproduceerbare resultaten

Result

90%+ antwoordprecisie zonder hallucinaties op 500+ pagina's bronmateriaal. Analysetijd per vraag teruggebracht van 45 minuten naar 30 seconden.