Home Nieuws Anthropic medeoprichter Daniela Amodei zegt dat vertrouwde zakelijke AI de hype-cyclus zal...

Anthropic medeoprichter Daniela Amodei zegt dat vertrouwde zakelijke AI de hype-cyclus zal overstijgen

6
0
Anthropic medeoprichter Daniela Amodei zegt dat vertrouwde zakelijke AI de hype-cyclus zal overstijgen

Terwijl Silicon Valley discussieert over zeepbellen, benchmarks en wie het slimste model heeft, heeft Anthropic zich geconcentreerd op het oplossen van problemen die zelden een hype veroorzaken maar uiteindelijk de adoptie bepalen: of AI kan erop vertrouwen dat het binnen de meest gevoelige systemen ter wereld functioneert.

Bekend om zijn houding waarbij veiligheid voorop staat en de Claude-familie van grote taalmodellen (LLM’s), plaatst Anthropic zijn grootste strategische weddenschappen daar waar AI-optimisme de neiging heeft het snelst in te storten, dat wil zeggen gereguleerde industrieën. In plaats van Claude als een consumentenproduct te beschouwen, heeft het bedrijf zijn modellen gepositioneerd als de kerninfrastructuur van de onderneming: software die naar verwachting uren of soms dagen zal draaien in gezondheidszorgsystemen, verzekeringsplatforms en regelgevingspijplijnen.

“Vertrouwen maakt implementatie op schaal mogelijk”, vertelt Daniela Amodei, medeoprichter en president van Anthropic Snel bedrijf in een exclusief interview. “In gereguleerde sectoren is de vraag niet alleen welk model het slimste is, maar ook op welk model je daadwerkelijk kunt vertrouwen en of het bedrijf erachter een verantwoordelijke partner voor de lange termijn zal zijn.”

Die filosofie kreeg concrete vorm op 11 januari, toen Anthropic Claude for Healthcare and Life Sciences lanceerde. De release breidde eerdere levenswetenschappelijke tools uit die waren ontworpen voor klinische onderzoeken, en voegde ondersteuning toe voor vereisten als HIPAA-ready infrastructuur en human-in-the-loop escalatie, waardoor de modellen beter geschikt werden voor gereguleerde workflows waarbij beschermde gezondheidsinformatie betrokken was.

“Wij gaan waar het werk zwaar is en de inzet reëel is”, zegt Amodei. “Wat ons boeit is het vergroten van de expertise: een arts die een moeilijke casus doordenkt, een onderzoeker die een hypothese stresstest. Dat zijn momenten waarop een doordachte AI-partner het werk echt kan versnellen. Maar dat werkt alleen als het model de nuance begrijpt, en niet alleen patroonovereenkomsten op basisniveau.”

Diezelfde gedachtegang werd doorgevoerd in Cowork, een nieuwe agentische AI-mogelijkheid die op 12 januari door Anthropic werd uitgebracht. Claude Cowork is ontworpen voor algemene kenniswerkers en bruikbaar zonder expertise op het gebied van coderen. Hij kan autonoom taken in meerdere stappen uitvoeren op de computer van een gebruiker: bestanden ordenen, onkostendeclaraties genereren op basis van afbeeldingen van bonnen, of documenten opstellen op basis van verspreide aantekeningen. Volgens rapporten heeft de lancering onbedoeld de bezorgdheid van de markt en investeerders over de duurzaamheid van software-as-a-service-bedrijven vergroot; velen begonnen vraagtekens te zetten bij de veerkracht van terugkerende software-inkomsten in een wereld waar AI-agenten voor algemene doeleinden op aanvraag op maat gemaakte tools kunnen genereren.

Het meest virale product van Anthropic, Claude Code, heeft dat onbehagen versterkt. De agentic tool kan helpen bij het sneller schrijven, debuggen en beheren van code met behulp van aanwijzingen in natuurlijke taal, en heeft een aanzienlijke impact gehad onder ingenieurs en hobbyisten. Gebruikers melden dat ze alles hebben gebouwd aangepaste MRI-viewers naar automatiseringssystemen geheel met Claude.

De afgelopen drie jaar is de run-rate omzet van het bedrijf gegroeid van 87 miljoen dollar eind 2023 naar iets minder dan 1 miljard dollar eind 2024 en naar ruim 9 miljard dollar eind 2025. “Die groei weerspiegelt dat bedrijven, startups, ontwikkelaars en powerusers Claude dieper integreren in de manier waarop ze daadwerkelijk werken. En we hebben dit gedaan met een fractie van de rekenkracht die onze concurrenten hebben”, zegt Amodei.

Bouwen aan vertrouwen in de meest veeleisende bedrijfsomgevingen

Volgens een rapport medio 2025 door durfkapitaalbedrijf Menlo Ventures bedroegen de AI-uitgaven in de gezondheidszorg in 2025 1,4 miljard dollar, bijna een verdrievoudiging van het totaal ten opzichte van 2024. Uit het rapport bleek ook dat gezondheidszorgorganisaties AI 2,2 keer sneller adopteren dan de bredere economie. De grootste uitgavencategorieën omvatten klinische documentatie, goed voor 600 miljoen dollar, en automatisering van codering en facturering, voor 450 miljoen dollar.

De snelst groeiende segmenten weerspiegelen echter waar de operationele druk het meest acuut is, zoals de betrokkenheid van patiënten, waar de uitgaven jaar na jaar twintig keer zo hoog zijn, en de voorafgaande toestemming, die in dezelfde periode tien keer zo groot is geworden. Claude for Healthcare wordt rechtstreeks in de workflows van Claude for Healthcare geïntegreerd en probeert tijdrovende en foutgevoelige taken op zich te nemen, zoals het beoordelen van claims, zorgcoördinatie en documentatie van regelgeving.

Claude for Life Sciences heeft een soortgelijk patroon gevolgd. Anthropic heeft de integraties met Medidata, ClinicalTrials.gov, Benchling en bioRxiv uitgebreid, waardoor Claude kan opereren binnen het beheer van klinische onderzoeken en de synthese van wetenschappelijke literatuur. Het bedrijf heeft ook de vaardigheden van agenten geïntroduceerd voor het opstellen van protocollen, pijplijnen voor bio-informatica en analyse van leemtes in de regelgeving.

Klanten zijn onder meer Novo Nordisk, Banner Health, Sanofi, Stanford Healthcare en Eli Lilly. Volgens Anthropic meldde ruim 85% van de 22.000 providers bij Banner Health dat ze sneller en nauwkeuriger werkten met behulp van door Claude ondersteunde workflows. Anthropic meldt ook dat interne teams bij Novo Nordisk de tijdlijnen voor klinische documentatie hebben teruggebracht van meer dan twaalf weken naar slechts enkele minuten.

Amodei voegt eraan toe dat wat haar het meest verbaasde, was hoe snel praktijkmensen hun relatie met de AI-modellen van het bedrijf op hun eigen voorwaarden definieerden.

‘Ze laten beslissingen niet aan Claude over,’ zegt ze. “Ze betrekken het op heel specifieke manieren in hun workflow: ze synthetiseren literatuur, stellen patiëntcommunicatie op, testen hun redenering onder druk en passen vervolgens hun eigen oordeel toe. Dat is precies het soort samenwerking waar we op hoopten. Maar eerlijk gezegd kwamen ze er sneller dan ik had verwacht.”

Experts uit de industrie zeggen dat de aantrekkingskracht verder gaat dan pure prestaties. De doelbewuste nadruk van Anthropic op vertrouwen, terughoudendheid en betrouwbaarheid op de lange termijn komt naar voren als een echte concurrentiepositie in gereguleerde bedrijfssectoren.

“Deze aanpak sluit aan bij begrensde autonomie en uitvoering in een sandbox, die essentieel zijn voor een veilige adoptie waarbij pure snelheid vaak onaanvaardbare risico’s met zich meebrengt”, zegt Cobus Greyling, hoofdevangelist bij Kore.ai, een leverancier van zakelijke AI-platforms. Hij voegt eraan toe dat het ‘universele agent’-concept van Anthropic een derde architectonisch model voor AI-agenten introduceerde, waarmee de manier waarop autonomie veilig kan worden ingezet, wordt uitgebreid.

Andere AI-concurrenten bewegen zich ook agressief in de gezondheidszorg, zij het met andere prioriteiten. OpenAI debuteerde in januari 2026 met zijn gezondheidszorgaanbod, ChatGPT Health. Het product is voornamelijk gericht op brede consumenten- en eerstelijnsgebruiksscenario’s, zoals symptoomtriage en gezondheidsnavigatie buiten de openingstijden van de kliniek. Het profiteert van een grootschalige adoptie op consumentenschaal en verwerkt elke week wereldwijd meer dan 230 miljoen gezondheidsgerelateerde vragen.

Hoewel GPT Health effectief is gebleken bij generalistische taken zoals documentatieondersteuning en patiëntenbetrokkenheid, wint Claude steeds meer terrein in meer gespecialiseerde domeinen die gestructureerd redeneren en strikte regelgeving vereisen, waaronder de ontdekking van geneesmiddelen en het ontwerpen van klinische onderzoeken.

Greyling waarschuwt echter dat trage inkoopcycli, diepgewortelde organisatiepolitiek en strenge compliance-eisen de adoptie van AI in de gezondheidszorg, de levenswetenschappen en de verzekeringen kunnen vertragen.

“Zelfs met sterke technische prestaties in modellen als Claude 4.5 vereist de realiteit van ondernemingen uitgebreide validatie, aangepaste integraties en risicomijdende belanghebbenden”, zegt hij. “De strategie zou kunnen vastlopen als de implementatietijdlijnen verder reiken dan economische rechtvaardiging of als de zorgen over kosten en latentie zwaarder wegen dan de betrouwbaarheidswinst in de productie.”

In januari kondigde Travellers aan dat het Claude AI-assistenten en Claude Code zou inzetten voor bijna 10.000 ingenieurs, analisten en producteigenaren – een van de grootste zakelijke AI-uitrol in verzekeringen tot nu toe. Elke assistent is gepersonaliseerd voor de rollen van de medewerkers en is in realtime verbonden met interne gegevens en tools. Op dezelfde manier heeft Snowflake 200 miljoen dollar toegezegd voor gezamenlijke ontwikkeling. Salesforce integreerde Claude in workflows voor gereguleerde sectoren, terwijl Accenture meerjarige overeenkomsten uitbreidde om bedrijfsimplementaties te schalen.

AI-bubbel of buigpunt?

Sceptici beweren dat de huidige agentenhype lijkt op automatiseringscycli uit het verleden: grote beloften gevolgd door een langzame institutionele acceptatie. Als de waarderingen eerder speculatie dan substantie weerspiegelen, zouden gereguleerde industrieën hun zwakke punten snel aan het licht moeten brengen, en Anthropic lijkt bereid die test te aanvaarden. De kapitaalpositie weerspiegelt vertrouwen, via een Series F van $13 miljard tegen een waardering van $183 miljard in 2025, gevolgd door berichten over een aanzienlijk grotere ronde die ter discussie staat. Anthropic gokt erop dat de AI-race uiteindelijk de voorkeur zal geven aan degenen die eerst ontwerpen voor vertrouwen en verantwoordelijkheid.

“We hebben een bedrijf gebouwd waar onderzoek, producten en beleid zijn geïntegreerd. De mensen die onze modellen bouwen, werken nauw samen met de mensen die onderzoeken hoe ze veiliger kunnen worden gemaakt. Daardoor kunnen we snel handelen zonder bezuinigingen”, zegt Amodei. “Talloze industrieën plaatsen Claude in het middelpunt van hun meest cruciale werk. Dat vertrouwen ontstaat pas als je het hebt verdiend.”


Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in