Home Nieuws Agentische ontwerppatronen: de ontbrekende schakel tussen AI-demo’s en bedrijfswaarde

Agentische ontwerppatronen: de ontbrekende schakel tussen AI-demo’s en bedrijfswaarde

6
0
Agentische ontwerppatronen: de ontbrekende schakel tussen AI-demo’s en bedrijfswaarde

De zakelijke AI-markt kampt momenteel met een enorme kater. De afgelopen twee jaar zijn besluitvormers overspoeld met demo’s van autonome agenten die vluchten boeken, code schrijven en gegevens analyseren. Toch is de realiteit ter plaatse totaal anders. Hoewel het aantal experimenten ongekend hoog is, blijft de inzet van betrouwbare, autonome agenten in de productie een uitdaging.

A recente studie door MIT’s Project NANDA benadrukte een ontnuchterende statistiek: ongeveer 95% van de AI-projecten slaagt er niet in om bedrijfswaarde op te leveren. Ze botsen tegen muren wanneer ze van de sandbox naar de echte wereld worden verplaatst, waarbij ze vaak bezwijken onder het gewicht van randgevallen, hallucinaties of mislukte integraties.

Volgens Antonio Gulli, senior engineer bij Google en directeur van het Engineering Office van de CTO, lijdt de sector aan een fundamenteel misverstand over wat agents eigenlijk zijn. We hebben ze behandeld als magische dozen en niet als complexe softwaresystemen. “AI-engineering, vooral met grote modellen en agenten, verschilt eigenlijk niet van welke vorm van engineering dan ook, zoals software of civiele techniek”, zei Gulli in een exclusief interview met VentureBeat. “Om iets duurzaams te bouwen, kun je niet alleen maar het nieuwste model of raamwerk najagen.”

Gulli stelt dat de oplossing voor de ‘trog van desillusie’ niet een slimmer model is, maar een betere architectuur. Zijn recente boek ‘Agentische ontwerppatronen“, biedt herhaalbare, strenge architectonische standaarden die “speelgoed”-agenten omzetten in betrouwbare bedrijfshulpmiddelen. Het boek is een eerbetoon aan het origineel “Ontwerppatronen” (een van mijn favoriete boeken over software-engineering), dat in de jaren negentig orde bracht in objectgeoriënteerd programmeren.

Gulli introduceert 21 fundamentele patronen die dienen als bouwstenen voor betrouwbare agentische systemen. Dit zijn praktische technische structuren die bepalen hoe een agent denkt, onthoudt en handelt. “Natuurlijk is het belangrijk om over de nieuwste technologie te beschikken, maar je moet een stap terug doen en nadenken over de fundamentele principes die AI-systemen aandrijven”, zegt Gulli. “Deze patronen vormen de technische basis die de kwaliteit van de oplossing verbetert.”

De overlevingskit voor ondernemingen

Voor bedrijfsleiders die hun AI-stack willen stabiliseren, identificeert Gulli vijf ‘laaghangend fruit’-patronen die de grootste onmiddellijke impact bieden: reflectie, routering, communicatie, vangrails en geheugen. De meest kritische verschuiving in het ontwerp van agenten is de overgang van eenvoudige ‘stimulus-response’-bots naar systemen die daartoe in staat zijn Reflectie. Een standaard LLM probeert een vraag onmiddellijk te beantwoorden, wat vaak tot hallucinaties leidt. Een reflectieve agent bootst echter de menselijke redenering na door een plan te maken, het uit te voeren en vervolgens zijn eigen output te bekritiseren voordat het aan de gebruiker wordt gepresenteerd. Deze interne feedbacklus is vaak het verschil tussen een fout antwoord en een juist antwoord.

Als een agent eenmaal kan denken, moet hij efficiënt zijn. Dit is waar Routering wordt essentieel voor kostenbeheersing. In plaats van elke vraag naar een enorm, duur ‘God-model’ te sturen, analyseert een routeringslaag de complexiteit van het verzoek. Eenvoudige taken zijn gericht op snellere, goedkopere modellen, terwijl complexe redeneringen zijn voorbehouden aan de zware spelers. Dankzij deze architectuur kunnen ondernemingen opschalen zonder hun inferentiebudgetten op te blazen. “Een model kan fungeren als router voor andere modellen, of zelfs voor hetzelfde model met verschillende systeemprompts en functies”, aldus Gulli.

Routeringspatroon

Het verbinden van deze agenten met de buitenwereld vereist gestandaardiseerdheid Mededeling door modellen toegang te geven tot tools zoals zoeken, query’s en code-uitvoering. In het verleden betekende het verbinden van een LLM met een database het schrijven van aangepaste, broze code. Gulli wijst op de opkomst van de Modelcontextprotocol (MCP) als cruciaal moment. MCP fungeert als een USB-poort voor AI en biedt agenten een gestandaardiseerde manier om gegevensbronnen en tools aan te sluiten. Deze standaardisatie strekt zich uit tot “Agent-tot-agent“(A2A)-communicatie, waardoor gespecialiseerde agenten kunnen samenwerken aan complexe taken zonder aangepaste integratieoverhead.

Maar zelfs een slimme, efficiënte agent is nutteloos als hij geen informatie kan onthouden. Geheugen patronen lossen het ‘goudvis’-probleem op, waarbij agenten tijdens lange gesprekken instructies vergeten. Door te structureren hoe een agent opslaat en ophaalt eerdere interacties en ervaringenkunnen ontwikkelaars persistente, contextbewuste assistenten creëren. “De manier waarop je geheugen creëert is van fundamenteel belang voor de kwaliteit van de agenten”, zegt Gulli.

Geheugen patroon

Ten slotte doet dit er allemaal niet toe als de agent aansprakelijk is. Vangrails de nodige beperkingen bieden om ervoor te zorgen dat een agent binnen de grenzen van veiligheid en naleving opereert. Dit gaat verder dan een eenvoudige systeemprompt waarin het model wordt gevraagd “aardig te zijn”; het omvat architecturale controles en escalatiebeleid dat gegevenslekken of ongeoorloofde acties voorkomt. Gulli benadrukt dat het definiëren van deze ‘harde’ grenzen ‘uiterst belangrijk’ is voor de veiligheid, waarbij ervoor wordt gezorgd dat een agent die behulpzaam probeert te zijn, niet per ongeluk privégegevens vrijgeeft of onomkeerbare opdrachten uitvoert buiten het toegestane bereik.

Betrouwbaarheid verbeteren met transactionele veiligheid

Voor veel CIO’s komt de aarzeling om agenten in te zetten voort uit angst. Een autonome agent die e-mails kan lezen of bestanden kan wijzigen, vormt een aanzienlijk risico als deze ontspoort. Gulli pakt dit aan door een concept uit databasebeheer te lenen: transactionele veiligheid. “Als een agent actie onderneemt, moeten we checkpoints en rollbacks implementeren, net zoals we dat doen voor de transactieveiligheid in databases”, zei Gulli.

In dit model zijn de acties van een agent voorlopig totdat ze gevalideerd zijn. Als het systeem een ​​afwijking of fout detecteert, kan het teruggaan naar een eerdere veilige status, waardoor de acties van de agent ongedaan worden gemaakt. Met dit vangnet kunnen bedrijven agenten schrijftoegang tot systemen toevertrouwen, wetende dat er een knop voor ongedaan maken is. Ook het testen van deze systemen vergt een nieuwe aanpak. Traditionele unit-tests controleren of een functie de juiste waarde retourneert, maar een agent kan via een gebrekkig, gevaarlijk proces tot het juiste antwoord komen. Gulli pleit voor evaluatie Agenttrajectenstatistieken die evalueren hoe agenten zich in de loop van de tijd gedragen.

Agenttraject

“(Agent Trajectories) omvat het analyseren van de hele reeks beslissingen en instrumenten die worden gebruikt om tot een conclusie te komen, om ervoor te zorgen dat het volledige proces goed is, en niet alleen het uiteindelijke antwoord”, zei hij.

Vaak wordt dit aangevuld met de Kritiek patroon, waarbij een afzonderlijke, gespecialiseerde agent de taak heeft de prestaties van de primaire agent te beoordelen. Deze wederzijdse controle is van fundamenteel belang om de verspreiding van fouten te voorkomen, waardoor in wezen een geautomatiseerd systeem voor peer-review voor AI-beslissingen ontstaat.

Toekomstbestendig: van prompt engineering naar context engineering

Als we naar 2026 kijken, komt er waarschijnlijk een einde aan het tijdperk van het enige model voor algemene doeleinden. Gulli voorspelt een verschuiving naar een landschap dat wordt gedomineerd door vloten van gespecialiseerde agenten. “Ik ben er sterk van overtuigd dat we een specialisatie van agenten zullen zien”, zei hij. “Het model zal nog steeds het brein zijn… maar de agenten zullen echte multi-agentsystemen worden met gespecialiseerde taken – agenten die zich richten op het ophalen, het genereren van afbeeldingen, het maken van video’s – die met elkaar communiceren.”

In deze toekomst zal de primaire vaardigheid van ontwikkelaars niet zijn om een ​​model over te halen om met slimme frasering en snelle engineering te werken. In plaats daarvan zullen ze zich moeten concentreren contexttechniekde discipline die zich richt op het ontwerpen van de informatiestroom, het beheren van de staat en het samenstellen van de context die het model ‘ziet’.

Het is een overstap van taalkundige bedrog naar systeemtechniek. Door deze patronen over te nemen en zich te concentreren op het ‘loodgieterswerk’ van AI in plaats van alleen op de modellen, kunnen ondernemingen eindelijk de kloof overbruggen tussen de hype en het bedrijfsresultaat. “We moeten AI niet alleen maar gebruiken omwille van de AI”, waarschuwt Gulli. “We moeten beginnen met een duidelijke definitie van het bedrijfsprobleem en hoe we de technologie het beste kunnen inzetten om het op te lossen.”

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in