In de wereld van winstrapporten en pitchdecks is het ultieme doel van onze huidige AI boom wordt meestal zoiets genoemd kunstmatige algemene intelligentie (AGI), superintelligentieof – als je echt nerdy bent –recursieve zelfverbeterende AI. Maar in de echte wereld zijn we allemaal gewoon op zoek naar de Enterprise-computer: een digitale assistent waarmee je kunt praten, die je niet alleen volledig begrijpt, maar ook meteen dingen voor je kan doen.
De afgelopen maanden is er op dit vlak veel vooruitgang geboekt. Toen ik op CES was, woonde ik de keynote van Lenovo bij, waar Qira werd onthuld, een ‘always-on’ AI dat in de toekomst in zijn apparaten zal worden ingebouwd. Als Ik schreef erover bij The Media CopilotDe innovatie bij Qira is dat de assistent nu een “orkestrator van agenten” is, waardoor de gebruiker naadloos wordt doorgeschakeld naar andere diensten zoals ChatGPT, Perplexity of andere, afhankelijk van het verzoek van de gebruiker.
De reden dat een apparaatfabrikant als Lenovo dat kan doen, is omdat het niet met die diensten concurreert: Qira is een facilitator, geen alles-in-één AI-dienst. Het lijkt erop dat Apple eindelijk ook bewust is geworden van die strategie, nu dat zo is kondigde een meerjarig contract aan om de Gemini-modellen van Google later dit jaar te integreren in een vernieuwde Siri.
{“blockType”:mv-promo-block”,”data”:{“imageDesktopUrl”https://images.fastcompany.com/image/upload/f_webp,q_auto,c_fit/wp-cms-2/2025/03/media-copilot.png”, “imageMobileUrl”:https ://images.fastcompany.com/image/upload/f_webp,q_auto,c_fit/wp-cms-2/2025/03/fe289316- bc4f-44ef-96bf-148b3d8578c1_1440x1440.png”,”wenkbrauw” “, “headline”:u003Cstrongu003EAbonneren naar The Media Copilotu003C/strongu003E”,”dek ‘Wilt u meer weten over hoe AI de media verandert? Mis nooit meer een update van Pete Pachal door u aan te melden voor The Media Copilot. Ga voor meer informatie naar u003Ca href=u0022https://mediacopilot.substack.com/u0022u003Emediacopilot.substack.comu003C/au003E”,”subhed>
,
“,”ctaText <
Assistenten evolueren naar agenten
Bij dit alles horen agenttools zoals Claude Code En Claude collega. De buzz rond deze tools in de AI-wereld is krankzinnig geweest, en een groot deel van de reden is dat ze veel meer kunnen dan coderen en websites bouwen. Het zijn in feite agenten die instructies kunnen aannemen, deze in plannen kunnen omzetten en deze vervolgens kunnen uitvoeren, vaak met minimale begeleiding van de gebruiker. Of het nu in het besturingssysteem (Qira/Siri) of in een desktop-app (Cowork) gebeurt, het effect is hetzelfde: de besluitvorming komt dichter bij de interface die mensen daadwerkelijk gebruiken.
Meerdere mensen op X zeggen dat de ervaring met het gebruik van Coworker dichter bij het werken met een collega ligt dan bij het aanzetten tot een AI. Maar er zijn ook nieuwe zorgen: Anthropic waarschuwt gebruikers voor veiligheidsrisico’s, zoals onduidelijke instructies die leiden tot het verwijderen van bestanden, want dat is wat er gebeurt als het model kan handelen en niet alleen maar kan praten.
Dit alles wijst in dezelfde richting. Binnenkort lijkt het waarschijnlijk dat een aanzienlijk en groeiend aantal apparaatinteracties agenten in wezen zal vertellen wat ze moeten doen. Geen apps, geen browser: alleen het antwoord, de uitvoer of de uitkomst waarnaar u op zoek was. Het is de Enterprise-computer, alleen niet op de brug van een ruimteschip, maar in miljoenen zakken over de hele wereld.
De gevolgen voor de media, merken en andere contentaanbieders zijn enorm. In mijn Qira-stuk sprak ik over hoe de strijd om de context zal het komende jaar een rol gaan spelen in de informatieruimte, maar agent-gebaseerd werk zal ook een effect hebben op het informatie-gebaseerd werk zelf, met name op de journalistiek. Het inbedden van een agent (in wezen een computer die beslissingen neemt) in uw werkruimte kan een enorme versneller zijn, maar roept lastige vragen op rond attributie, toegang en de manier waarop deze met gevoelige gegevens omgaat.
Controleerbaarheid in het agententijdperk
Klinkt serieus, en er is een eenvoudige oplossing voor deze zorgen: gebruik het niet. Maar dat is geen strategie. Zoals elk hulpmiddel zullen degenen die het leren, gebruiken en beheersen een voordeel hebben ten opzichte van degenen die dat niet doen. Naarmate agentwerk in populariteit toeneemt, zullen de werkplekken die uitzoeken hoe ze het veilig kunnen implementeren de beste kans op succes hebben.
De media worden echter bijzonder uitgedaagd, aangezien informatie hun zaak is. We hebben dit al gezien met betrekking tot hallucinaties. De neiging van AI-systemen om dingen uit het niets te verzinnen blijft voortbestaanen het weerhoudt veel redactiekamers ervan om AI te adopteren, tenminste op een manier die met de inhoud te maken heeft.
Het gevaar van een werkplekagent is verraderlijker. De AI creëert niet per se inhoud, maar neemt beslissingen zoals welke informatiebronnen moeten worden gebruikt, welke diensten moeten helpen bij een taak en welke bedrijfskennis moet worden toegepast op een specifiek verzoek. Maar als een agent beslissingen gaat nemen in een redactiekamer, mag dat geen zwarte doos zijn.
Zelfs zonder dat de AI per se een fout maakt, is de vraag hoe de AI haar beslissingen neemt van belang. Kijk naar het gevolg bij het zoeken: Wanneer Google heeft een deal gesloten met Redditwat ertoe leidde dat Reddit bovenaan veel meer zoekresultaten verscheen. Dat heeft ongetwijfeld invloed gehad op waar mensen hun informatie vandaan haalden, vooral omdat Google een effectief monopolie heeft op het gebied van zoeken.
Welnu, een apparaat- of werkplekagent zal een soortgelijk monopolie hebben. Hoe een agent een beslissingsboom doorloopt, kan geen black box zijn. Zeker, het sturen van werknemers naar gesanctioneerde diensten en bedrijfssoftware is een voor de hand liggende eerste stap. Het volgen van stijlgidsen en het bedrijfsbeleid bij de acties die het onderneemt is iets anders. Maar het zijn de delen van workflows die daar niet onder vallen, waar dingen vreemd worden. Het gaat hier niet alleen om het verkrijgen van informatie, het gaat ook om de context waarvan het afhankelijk is bij het ondernemen van actie.
De behoefte aan AI-governance
Hoewel acties naadloos moeten zijn voor de gebruiker, moet er ook een controleerbaar papieren spoor voor zijn. Hoe de agent context uit het web haalt, en van welke diensten, moet duidelijk en traceerbaar zijn. Wanneer hem in duidelijke taal wordt gevraagd waarom er een specifieke actie is ondernomen, zou er een konijnenhol moeten zijn waar de gebruiker naar toe kan gaan als hij dat wil, samen met een methode om eventuele problemen in zijn denken (inclusief vooringenomenheid) te corrigeren. Disclaimers zijn niet voldoende voor agenten; training in het gebruik ervan en het controleren van uw eigen gebruik zou standaard moeten zijn.
Met andere woorden: bestuur is belangrijk. Agenten als Qira en Claude Coworker kunnen de droom van echte AI-assistenten waarmaken. Maar het potentieel dat ze beloven te ontsluiten vereist een even grote mate van respect. Als AI de afgelopen jaren iets heeft laten zien, is het dat het ongelooflijke dingen kan doen, maar dat je er niet op kunt vertrouwen dat het altijd goed gaat. Als organisaties echt het agententijdperk willen betreden, zullen ze een oud gezegde moeten overnemen: vertrouwen, maar verifiëren.
{“blockType”:mv-promo-block”,”data”:{“imageDesktopUrl”https://images.fastcompany.com/image/upload/f_webp,q_auto,c_fit/wp-cms-2/2025/03/media-copilot.png”, “imageMobileUrl”:https ://images.fastcompany.com/image/upload/f_webp,q_auto,c_fit/wp-cms-2/2025/03/fe289316- bc4f-44ef-96bf-148b3d8578c1_1440x1440.png”,”wenkbrauw” “, “headline”:u003Cstrongu003EAbonneren naar The Media Copilotu003C/strongu003E”,”dek ‘Wilt u meer weten over hoe AI de media verandert? Mis nooit meer een update van Pete Pachal door u aan te melden voor The Media Copilot. Ga voor meer informatie naar u003Ca href=u0022https://mediacopilot.substack.com/u0022u003Emediacopilot.substack.comu003C/au003E”,”subhed>
,
“,”ctaText <



