Home Nieuws Hoe IntelliNode complexe workflows automatiseert met Vibe Agents

Hoe IntelliNode complexe workflows automatiseert met Vibe Agents

3
0
Hoe IntelliNode complexe workflows automatiseert met Vibe Agents

focus op geïsoleerde taken of eenvoudige, snelle engineering. Deze aanpak stelde ons in staat om vanuit één enkele prompt interessante applicaties te bouwen, maar we beginnen een limiet te bereiken. Simpele aanwijzingen schieten tekort als we complexe AI-taken aanpakken die meerdere fasen vereisen of bedrijfssystemen die informatie geleidelijk moeten verwerken. De race richting AGI kan worden gezien als het opschalen van bestaande modelparameters, vergezeld van baanbrekende architectuur, of een samenwerking tussen meerdere modellen. Hoewel de schaalvergroting duur is en beperkt is tot de bestaande modelmogelijkheden, en doorbraken onmeetbaar zijn en op elk moment kunnen plaatsvinden, blijft orkestratie van meerdere modellen de beste manier om intelligente systemen te bouwen die complexe taken zoals mensen kunnen uitvoeren.

Eén vorm van intelligentie is het vermogen van agenten om met minimale tussenkomst andere agenten te bouwen, waarbij de AI de vrijheid heeft om op verzoek te handelen. In deze nieuwe fase verzorgt de machine-intelligentie de complexe blauwdrukken, terwijl de mens op de hoogte blijft om de veiligheid te garanderen.

Ontwerpen voor machine-to-machine-integratie

We hebben een standaardmanier nodig waarop machines met elkaar kunnen communiceren zonder dat een mens aangepaste integraties voor elke afzonderlijke verbinding schrijft. Dit is waar het Model Context Protocol (MCP) een belangrijk onderdeel van de stapel wordt. MCP dient als een universele interface voor modellen om te communiceren met bestaande omgevingen, zoals het aanroepen van tools, het ophalen van API’s of het opvragen van databases. Hoewel dit er misschien autonoom uitziet, vereist de ingenieur een aanzienlijke hoeveelheid handmatig werk om de MCP voor het model of de agent te definiëren.

Ook is een topologisch raamwerk essentieel om de logica van de interacties van agenten te sturen als onderdeel van het autonomietraject. Agenten laten werken in een rommelige open wereld leidt tot hallucinaties en een opgeblazen gevoel van het benodigde werk. Het hebben van een op grafieken gebaseerd raamwerk kan echter de uitvoeringsstroom organiseren. Als we modellen behandelen als knooppunten en hun interacties als randen, kunnen we de afhankelijkheden en de gegevensstroom door het hele systeem gaan visualiseren. We kunnen bovenop de grafiek en de MCP-blauwdruk voortbouwen om planneragenten te creëren die binnen het raamwerk werken om blauwdrukken te genereren om problemen op te lossen door complexe doelen autonoom op te splitsen in uitvoerbare takenreeksen. De planner-agent identificeert wat er nodig is, het op grafieken gebaseerde raamwerk organiseert de afhankelijkheden om hallucinaties te voorkomen en genereert agenten om uw doelen te bereiken; laten we ze noemen “Vibe-agenten”.

Intelligentie met Vibe Agents

Terwijl we overgaan van een autonome theorie naar een compleet werkend systeem, zullen we een manier nodig hebben om ‘vibe’-statements op hoog niveau om te zetten in uitvoerbare grafieken. De gebruiker geeft een intentie aan, en het systeem verandert deze in een team van agenten die samenwerken om het resultaat te bereiken. In tegenstelling tot veel multi-agentsystemen die coördineren via gesprekken in vrije vorm, werken Vibe Agents in een expliciete grafiek waarin afhankelijkheden en uitvoeringspaden gestructureerd en waarneembaar zijn. Dit is het probleem dat ik heb proberen op te lossen als onderhouder van het IntelliNode open source framework (Apache-licentie). Het is ontworpen rond een planner-agent die de grafiekblauwdruk genereert op basis van de bedoeling van de gebruiker en deze vervolgens uitvoert door gegevens tussen agenten te routeren en de uiteindelijke output te verzamelen.

IntelliNode biedt een thuis voor Vibe Agents, waardoor ze niet strikt als statische scripts kunnen bestaan, maar in plaats daarvan kunnen fungeren als vloeiende deelnemers binnen een evoluerende workflow.

Vibe Agents gemaakt binnen IntelliNode vertegenwoordigen onze eerste experimentele poging om een ​​autonome laag te creëren. In essentie willen we een proces creëren waarbij de definitie van elke taak gebeurt via declaratieve orkestratie, de beschrijving van het gewenste resultaat. Door dit raamwerk te gebruiken, zullen we gebruikers in staat stellen aanwijzingen te creëren waarmee georkestreerde agenten uitzonderlijk complexe taken kunnen uitvoeren in plaats van eenvoudige gefragmenteerde taken.

Gebruiksvoorbeeld: de autonome fabriek van onderzoek naar inhoud

Illustratie van drie agenten – Foto door auteur met behulp van flaticon

In een traditionele workflow kost het maken van een diepgaand rapport of technisch artikel aanzienlijke inspanningen om zoekresultaten samen te stellen, gegevens te analyseren en op te stellen. Binnen dit raamwerk is het knelpunt in de workflow dat elke ondernomen actie input van andere lagen vereist.

Bij de implementatie van Vibe Agents kunnen we een zelforganiserende pijplijn opzetten die zich richt op het gebruik van actuele live data. Wanneer iemand om een ​​intentie op hoog niveau vraagt, zal hij de volgende enkele verklaring geven: “Onderzoek de nieuwste doorbraken op het gebied van solid-state batterijen van de afgelopen 30 dagen en genereer een technische samenvatting met een ondersteunende diagrambeschrijving”.

Hoe het IntelliNode Framework “Vibe” uitvoert

Grafiek van drie agenten.
Grafiek van drie agenten – Foto op auteur

Wanneer de architect deze intentie ontvangt, genereert hij, in plaats van alleen maar code te produceren, direct een aangepaste blauwdruk:

  • De Scout (zoekagent): gebruikt google_api_key om realtime zoekopdrachten op internet uit te voeren.
  • De Analist (Text Agent): verwerkt de resultaten van de zoekopdrachten en haalt alle technische specificaties uit de onbewerkte fragmenten
  • De Creator (Image Agent): produceert het eindrapport, maakt een lay-out of zorgt voor een visuele weergave van de resultaten.

In plaats van code te schrijven en een API-verbinding te maken om uw intentie uit te voeren, geeft u de intentie aan de machine en bouwt deze het gespecialiseerde team op dat nodig is om die intentie te vervullen.

Implementeren met VibeFlow

De volgende code laat zien hoe u omgaat met de overgang van natuurlijke taal naar een volledig georkestreerde zoek- en inhoudspijplijn.

1. Stel uw omgeving in
Stel uw API-sleutels in als omgevingsvariabelen om de architect en de autonome agenten te authenticeren.

export OPENAI_API_KEY="your_openai_key"
export GOOGLE_API_KEY="your_google_cloud_key"
export GOOGLE_CSE_ID="your_search_engine_id"
export GEMINI_API_KEY="your_gemini_key"

Installeer IntelliNode:

pip install intelli -q

2. Initialiseer de architect

import asyncio
import os
from intelli.flow.vibe import VibeFlow

# Initialize with planner and preferred model settings
vf = VibeFlow(
  planner_api_key=os.getenv("OPENAI_API_KEY"),
  planner_model="gpt-5.2",
  image_model="gemini gemini-3-pro-image-preview"
)

3. Definieer de intentie
Een “Vibe” is een declaratieve verklaring op hoog niveau. De Architect zal dit analyseren en beslissen welke gespecialiseerde agenten nodig zijn om de missie te vervullen.

intent = (
  "Create a 3-step linear flow for a 'Research-to-Content Factory': "
  "1. Search: Perform a web research using ONLY 'google' as provider for solid-state battery breakthroughs in the last 30 days. "
  "2. Analyst: Summarize the findings into key technical metrics. "
  "3. Creator: Generate an image using 'gemini' showing a futuristic representation of these battery findings."
)

# Build the team and the visual blueprint
flow = await vf.build(intent)

4. Voer de missie uit
Uitvoering zorgt voor de orkestratie, gegevensoverdracht tussen agenten en het automatisch opslaan van alle gegenereerde afbeeldingen en samenvattingen.

# Configure output directory and automatic saving
flow.output_dir = "./results"
flow.auto_save_outputs = True

# Execute the autonomous factory
results = await flow.start()

print(f"Results saved to {flow.output_dir}")

Agentsystemen verschuiven snel van “snelle trucs” naar software-architecturen, en de belangrijkste vraag is niet langer of meerdere agenten kunnen samenwerken, maar hoe deze samenwerking wordt beperkt en gerepliceerd in de productie. Veel succesvolle systemen maken gebruik van conversatie-achtige agentcoördinatie, wat erg handig is bij het maken van prototypes, maar moeilijk te redeneren is omdat workflows complex worden. Anderen hanteren een meer geavanceerde workflowbenadering, zoals op grafieken gebaseerde uitvoering.

Het idee achter Vibe Agents is om de intentie van de gebruiker samen te brengen in grafieken die kunnen worden uitgevoerd en getraceerd, zodat de volgorde van begin tot eind waarneembaar is. Dit betekent veel minder handmatig naaien en meer werken met de blauwdruk die dit systeem genereert.

Referenties

https://www.anthropic.com/news/model-context-protocol

https://docs.intellinode.ai/docs/python/vibe-agents

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in