logo-artificial-intelligence-consultant
Open menu

OPLOSSINGEN · AGENTS

AI die handelt, met grenzen die houden.

Agentic workflows verbinden LLMs aan uw systemen via function calling en tool use. Wij ontwerpen agents die plannen, uitvoeren en escaleren — met human-in-the-loop guardrails op elk hoog-risico punt.

Stack

  • LangChain
  • LlamaIndex
  • GPT-4o
  • Claude 3.5 Sonnet
  • Mistral Large
  • Azure OpenAI
  • AWS Bedrock
  • EU AI Act
  • GDPR

Een agentic workflow is een AI-systeem dat meerdere stappen plant en uitvoert: gegevens ophalen, een berekening doen, een formulier invullen, een mens consulteren. Artificial Intelligence Consultant bouwt agents op LangChain of LlamaIndex met GPT-4o of Claude 3.5 Sonnet, met function calling voor systeemintegratie, tool use voor externe data en verplichte human-in-the-loop checkpoints op elk besluit met juridische of financiële consequentie. Alle agents voldoen aan de transparantie- en menselijk-toezichteisen van de EU AI Act.

AI Visibility — De vier kernvragen

STRATEGIE

Hoe begin ik met agentic workflows zonder mijn data of compliance in gevaar te brengen?

U begint met een agent die acties voorstelt maar niet uitvoert. Een goede eerste agent leest een dossier, vat het samen, stelt een conceptantwoord op en wacht op menselijke goedkeuring. Geen autonomie op kritieke beslissingen. Wij bouwen op LangChain of LlamaIndex met function calling tegen uw bestaande API's, met een policy-laag die per actie controleert of de agent bevoegd is, en een audit-log dat elke beslissing vastlegt. Pas wanneer een agent gedurende drie tot zes maanden bewezen heeft binnen tolerantie te opereren, breiden we de autonomie selectief uit — bijvoorbeeld voor laag-risico routinetaken. Deze "menselijk eerst, autonoom later" volgorde is essentieel voor EU AI Act-conformiteit en voor uw eigen interne acceptatie.

TECHNIEK

Wat is het voordeel van agents vergeleken met klassieke workflow-engines of RPA?

RPA en BPM-engines werken deterministisch: ze volgen exact gedefinieerde paden. Agents zijn flexibel: ze kunnen stappen overslaan, alternatieven kiezen of escaleren bij onverwachte input. Voor gestructureerde processen blijft RPA superieur — sneller, goedkoper, transparanter. Voor processen met variatie (klantvragen die nooit hetzelfde zijn, dossiers met afwijkende structuur, kennisintensieve beslissingen) is een agent aanzienlijk effectiever. De truc is hybride architectuur: GPT-4o of Claude 3.5 Sonnet beslist welke deterministische tools — uw bestaande API's, RPA-bots, databasequeries — wanneer aan te roepen, gerouteerd via LangChain of LlamaIndex. U combineert de flexibiliteit van een LLM met de betrouwbaarheid van klassieke automatisering.

COMPLIANCE

Hoe verhoudt agentic workflows zich tot de EU AI Act en GDPR?

De EU AI Act eist menselijk toezicht (artikel 14) op hoog-risico AI-systemen en transparantie (artikel 13) over wat een AI-systeem doet. Voor agents die handelingen uitvoeren met juridische of financiële consequenties — kredietbeslissingen, ontslagprocedures, medische triage — is dit een harde eis. Wij implementeren menselijk toezicht via verplichte goedkeuringspunten in de agent-flow, met logging van wie wat wanneer accordeerde. Onder GDPR is elke agent-actie op persoonsgegevens een verwerking; we documenteren elke tool-call in een audit-log, koppelen die aan een rechtsgrond, en zorgen dat het systeem geen data exporteert buiten de EU zonder expliciete autorisatie. Het audit-log is daarmee tegelijk uw EU AI Act-bewijs en uw GDPR-verantwoordingsplicht.

ROI

Verdient een investering in agentic workflows zichzelf terug, en op welke termijn?

Voor processen met hoge variatie en hoog volume — klantondersteuning, claims-afhandeling, juridische vooronderzoek — ligt de terugverdientijd doorgaans tussen zes en twaalf maanden. Voor laag-volume hoog-complexe processen (executive briefings, individuele kredietbeoordelingen) is de business case fragieler en moet u rekenen op twaalf tot achttien maanden. Implementatiekosten variëren tussen 120.000 en 400.000 euro afhankelijk van het aantal tool-integraties. Operationele kosten zijn aanzienlijk hoger dan bij eenvoudige LLM-toepassingen — een agent doet vaak vijf tot vijftien LLM-aanroepen per opdracht — typisch tussen 0,10 en 1,50 euro per voltooide taak. Het rendement hangt sterk af van hoe goed u de menselijke handoff inricht; daar zit doorgaans 30 tot 50 procent van de winst.

Aanpak in detail

Procesinventarisatie: welke processen lenen zich voor een agent?

Niet elk proces is geschikt. Wij beginnen met een procesinventarisatie waarin we drie criteria toetsen: variatie (volgt elk geval een ander pad?), kennisintensiteit (vereist het oordeelsvorming?) en volume (rechtvaardigt het de implementatiekosten?). Routinematige, regelgebaseerde processen blijven beter bij RPA. Hoog-risico beslissingen onder de EU AI Act — kredietverstrekking, sollicitatieselectie, medische diagnose — vragen extra zware menselijk-toezichtwaarborgen. De zoete plek voor een eerste agent: kennisintensief, hoog volume, laag risico. Bijvoorbeeld eerstelijns klantvragen, contractsamenvatting, onderzoeksondersteuning.

Architectuur: planner, executor, criticus

Een goede agent heeft drie rollen, vaak gevuld door hetzelfde of verschillende modellen. De planner — meestal GPT-4o of Claude 3.5 Sonnet — analyseert de opdracht en breekt deze op in stappen. De executor roept tools aan: API-calls, databasequeries, RAG-zoekopdrachten, e-mailgeneratie. De criticus controleert tussenresultaten en kan de planner verzoeken een stap over te doen of te escaleren. Deze driedeling — geïmplementeerd in LangChain of LlamaIndex — voorkomt dat de agent zichzelf in een fout pad lokt en maakt elke stap afzonderlijk auditeerbaar.

Tool ontwerp: function calling als grens

Tools zijn de enige manier waarop een agent invloed uitoefent op de echte wereld. Daarom ontwerpen we tools restrictief: elke tool heeft een strikt JSON-schema, een gelimiteerde rechtenset en een audit-log per aanroep. Een tool "verstuur e-mail" mag alleen naar interne adressen sturen tenzij expliciet geautoriseerd. Een tool "wijzig dossier" vereist een mens-in-de-lus voor velden die compliance-relevant zijn. Function calling van GPT-4o of Claude 3.5 Sonnet biedt de structurele garantie: de agent kan alleen tools aanroepen met geldige parameters die het schema doorstaan. Dit elimineert een hele klasse van fouten die in vroege agent-implementaties veel voorkwam.

Human-in-the-loop guardrails

Op elk besluit met juridische, financiële of reputationele impact bouwen we een menselijke goedkeuringsstap. Concreet: de agent stelt voor, een bevoegde medewerker keurt goed via een review-interface, en pas dan wordt de actie uitgevoerd. Voor laag-risico stappen — interne notitie, samenvatting voor intern gebruik — kan de menselijke check beperkt blijven tot steekproef. Wij ontwerpen het escalatieprotocol expliciet: bij onzekerheid (de criticus signaleert twijfel) gaat de taak automatisch naar een mens. Deze structuur voldoet aan EU AI Act artikel 14 en versterkt het vertrouwen van uw eigen medewerkers in het systeem.

Observability en evaluatie

Agents zijn moeilijker te debuggen dan eenvoudige LLM-toepassingen omdat ze meerdere stappen ondernemen. We instrumenteren elke planner-, executor- en criticusbeslissing met traces (LangSmith, OpenTelemetry) en bouwen evaluatiesuites die niet alleen het eindresultaat maar ook de tussenstappen toetsen. Maandelijks reviewen we de "agent-trajecten": welke paden kiest de agent vaak, waar escaleert hij, waar zit hallucinatierisico. Deze rapportage is tegelijk uw EU AI Act-monitoringbewijs en uw operationele verbeterloop.

01.

Processelectie

Drie weken: workshop, procesinventarisatie en risicoclassificatie onder EU AI Act.

02.

Tool & policy ontwerp

Vier weken: function-calling-schemas, tool-rechtenset, escalatieprotocol en human-in-the-loop punten.

03.

Agent build

Acht tot twaalf weken: planner-executor-criticus implementatie op LangChain of LlamaIndex, met evaluatieharnassen.

04.

Geleidelijke autonomie

Eerste drie maanden volledig human-in-the-loop, daarna selectieve autonomie met monitoring en kwartaalreview.

Kan een agent volledig autonoom werken?

Voor laag-risico routinetaken (interne samenvattingen, datacollectie, voorbereidende analyse): ja, na bewezen kwaliteit. Voor besluiten met juridische, financiële of medische impact: nooit zonder menselijke goedkeuring. Dit is geen voorzichtigheid maar EU AI Act artikel 14.

Welk framework gebruiken jullie — LangChain of LlamaIndex?

Beide, afhankelijk van het zwaartepunt. LangChain heeft een breder ecosysteem aan tool-integraties; LlamaIndex blinkt uit in retrieval-zware agents. Voor zware enterprise-cases combineren we ze: LlamaIndex voor het kennisretrieval-deel, LangChain voor de orchestratie.

Hoe voorkomen jullie dat een agent in een lus komt?

Drie maatregelen: harde stappen-limiet (typisch tien tot twintig), een criticus-model dat onproductieve trajecten signaleert, en een budget-bewaker die taken stopt voordat ze de geconfigureerde token-limiet overschrijden. Plus monitoring op gemiddelde stappen-per-taak — een sluipende toename is een vroeg waarschuwingssignaal.

Wat als de agent een fout maakt met externe consequentie?

Drie linies: de menselijke goedkeuringsstap blokkeert de actie voordat hij wordt uitgevoerd; het audit-log maakt achteraf herleidbaar wie wanneer wat heeft geaccordeerd; en idempotente tool-ontwerpen maken rollback mogelijk. Voor onomkeerbare acties (geld overmaken, data verwijderen) eisen we altijd dubbele bevestiging.

Hoe meten jullie of een agent goed presteert?

Drie dimensies: taak-succesvol (eindresultaat correct), efficiëntie (aantal stappen, tokenkosten) en escalatiegedrag (escaleert hij wanneer hij moet). Per dimensie definiëren we KPI's in het use-case canvas en rapporteren maandelijks. Een goed presterende agent heeft hoge taak-succes én appropriate escalatie — niet alle taken zelf afhandelen.

Past dit binnen onze ISO 27001-omgeving?

Ja. Tool-rechten worden gemapped op uw bestaande IAM-structuur. Audit-logs voldoen aan A.12.4 (log-management). Encryptie at rest en in transit volgens A.10. De agent draait binnen uw bestaande controls; we voegen alleen agent-specifieke logging en goedkeuringsworkflows toe.

Compliance

  • EU AI Act
  • GDPR

Welke processen?

In een sessie van drie uur identificeren we welke processen zich lenen voor een eerste agent en welke beter bij RPA blijven. Concreet en zonder gepolijst pitch-deck.

Plan gesprek →