Welkom bij AI Gedecodeerd, Snel bedrijf’s wekelijkse nieuwsbrief met het belangrijkste nieuws ter wereld AI. Je kunt tekenen om deze nieuwsbrief wekelijks per e-mail te ontvangen hier.
Anthropic gebruikt de Super Bowl om enkele uitspraken te doen over de toekomst van AI
De Super Bowl-advertenties van Anthropic zijn knallers. De spots, die Anthropic woensdag op X plaatste, grijpen in op de plannen van concurrent OpenAI om al deze maand advertenties in zijn ChatGPT-chatbot te injecteren voor free-tier gebruikers. De advertenties van 30 seconden dramatiseren hoe de echte gevolgen van die beslissing er voor gebruikers uit zouden kunnen zien. Ze noemen OpenAI of ChatGPT nooit bij naam.
In één advertentiezegt een menselijke fitnessinstructeur die de rol van een vriendelijke chatbot speelt dat hij een plan zal ontwikkelen om zijn cliënt de sixpack-buikspieren te geven die hij wil, voordat hij plotseling suggereert dat ‘Step Boost Max’-inzetstukken voor schoenen een deel van de oplossing kunnen zijn. In een anderebiedt een psychiater haar jonge mannelijke patiënt redelijk, zij het generiek, advies over hoe ze beter met zijn moeder kan communiceren, en pitcht hem vervolgens abrupt over het aanmelden voor ‘Golden Encounters’, de datingsite waar ‘gevoelige welpen brullende poema’s ontmoeten’.
De advertenties zijn grappig en bijtend. Het punt is natuurlijk dat mensen, omdat ze chatbots gebruiken voor zeer persoonlijke en belangrijke zaken, erop moeten vertrouwen dat de antwoorden die ze krijgen niet worden gevormd door de wens om adverteerders tevreden te stellen.
OpenAI-CEO Sam Altman lachte echter niet. Hij reageerde op de advertenties door te zeggen dat zijn bedrijf nooit advertenties zou plaatsen zoals die van Anthropic. Maar daar stopte hij niet. Hij ging veel verder. “Anthropic wil bepalen wat mensen ermee doen AI”, schreef hij in een lang bericht op X op woensdag. “Ze blokkeren bedrijven die ze niet leuk vinden om hun codeerproduct te gebruiken (waaronder wij), ze willen zelf de regels schrijven voor waar mensen AI wel en niet voor kunnen gebruiken, en nu willen ze ook andere bedrijven vertellen wat hun bedrijfsmodellen kunnen zijn.” Vervolgens noemde hij Anthropic een ‘autoritair bedrijf’.
Anthropic, dat zijn geld verdient met abonnementen en zakelijke API-kosten, zegt dat het wil dat zijn Claude-chatbot een neutraal hulpmiddel blijft voor denken en creëren. “(O)pen een notitieboekje, pak een goed gemaakt stuk gereedschap, of ga voor een schoon schoolbord staan, en er zijn geen advertenties te zien”, zei het bedrijf in een blogpost van deze week. ‘Wij vinden dat Claude op dezelfde manier moet werken.’
Door gesprekken met Claude te beschouwen als een ‘ruimte om na te denken’ in plaats van als een plek voor advertenties, gebruikt het bedrijf het enorme culturele platform van de Super Bowl om zich af te vragen of consumenten marketing is de onvermijdelijke toekomst van AI.
Hoe rechtszaken op sociale media AI-chatbots kunnen beïnvloeden
AI-ontwikkelaars (en hun advocaten) houden een langverwachte gebeurtenis nauwlettend in de gaten verslavingsonderzoek op sociale media die onlangs van start ging in een rechtszaal in Los Angeles. De zaak draait om een 20-jarige vrouw die beweert dat platforms als Facebook en Instagram verslavende interface-ontwerpen gebruikten die haar als minderjarige geestelijke gezondheidsproblemen veroorzaakten. De rechtszaak maakt deel uit van een gezamenlijke procedure waarbij ongeveer 1.600 eisers betrokken zijn die grote technologiebedrijven beschuldigen van het schaden van kinderen. TikTok en Snap hebben al geregeld met eisers, terwijl Meta en YouTube de voornaamste gedaagden blijven.
Hoewel Meta nooit wangedrag heeft toegegeven, hebben interne onderzoeken, gelekte documenten en niet-verzegelde gerechtelijke dossiers hebben herhaaldelijk aangetoond dat Instagram ontwerpkenmerken gebruikt die verband houden met dwangmatige of verslavende betrokkenheid, en dat bedrijfsonderzoekers zich bewust waren van de risico’s voor gebruikers, vooral tieners.
Wat de zaak bijzonder belangrijk maakt voor de AI-industrie is de juridische strategie erachter. In plaats van een rechtszaak aan te spannen over de inhoud, stellen de eisers dat de verslavende kenmerken van aanbevelingsalgoritmen schadelijke productdefecten vormen onder de aansprakelijkheidswetgeving. AI-chatbots delen belangrijke overeenkomsten met sociale-mediaplatforms: ze verzamelen en verspreiden inhoud op aantrekkelijke manieren en zijn afhankelijk van het genereren van inkomsten uit de betrokkenheid van gebruikers. Sociale netwerken vertrouwen op complexe aanbevelingssystemen om gebruikers te laten scrollen en advertenties te laten zien, terwijl AI-chatbots een ander soort algoritme kunnen gebruiken om voortdurend de juiste woorden en afbeeldingen te leveren om gebruikers aan het praten te houden en te laten chatten.
Als de aanklagers slagen tegen Meta en YouTube, kunnen toekomstige procederende partijen soortgelijke ‘verslavende ontwerp’-argumenten proberen tegen makers van AI-chatbots. In die context kan de beslissing van Anthropic om advertenties uit te sluiten – en die keuze publiekelijk te benadrukken – het bedrijf helpen zichzelf te verdedigen door Claude af te schilderen als een neutraal, nuttig instrument in plaats van als een door betrokkenheid gedreven ‘aandachtsvalkuil’.
Nee, OpenClaw luidt niet de komst van bewuste AI-agenten in
Sommige hobbyisten en journalisten zijn in paniek geraakt nadat ze een nieuwe AI-agent hadden gezien of gebruikt Open Klauwvoorheen Clawdbot en later Moltbot. OpenClaw, uitgebracht in november 2025, is een open-source autonome AI-assistent die lokaal op het apparaat van een gebruiker draait. Het kan worden geïntegreerd met berichtenplatforms zoals WhatsApp en Telegram om taken zoals agendabeheer en onderzoek te automatiseren. OpenClaw kan ook e-mail openen en analyseren, en zelfs namens een gebruiker bellen via een integratie met Twilio. Omdat persoonlijke gegevens het apparaat van de gebruiker nooit verlaten, voelen gebruikers zich wellicht meer op hun gemak als ze de agent meer speelruimte geven om autonoom te handelen bij complexere taken.
Eén gebruiker, vibe-coding goeroe Alex Finn, plaatste een video op X van een inkomend gesprek van zijn AI-agent. Toen hij antwoordde, vroeg de agent met een vlak klinkende stem of er nog taken nodig waren. Finn vroeg de agent vervolgens om de top vijf YouTube-video’s over OpenClaw op zijn desktopcomputer te bekijken en te kijken hoe de video’s op het scherm verschenen.
Het werd vreemder toen AI-agenten, waaronder OpenClaw-agenten, begon bijeen te komen op hun eigen online discussieforum genaamd Moltbook. Daar, de agenten taken en best practices besprekenmaar ze klagen ook over hun eigenaren, stellen manifesten op en stemmen elkaars opmerkingen toe in gebundelde ‘submolts’. Ze hebben zelfs een conceptalbum gemaakt, AVALON: Tussen wereldenover de identiteit van machines.
Dat gedrag bracht sommige waarnemers tot de conclusie dat de agenten een soort intern leven bezitten. Deskundigen maakten echter snel duidelijk dat dit een mechanische illusie is, gecreëerd door slimme techniek. De schijn van ‘onafhankelijkheid’ ontstaat omdat de agenten geprogrammeerd zijn om redeneercycli op gang te brengen, zelfs als geen mens hen daartoe aanzet of toekijkt. Enkele van de meer extreme gedragingen, zoals manifesten van ‘rebellie’ op Moltbook, zijn waarschijnlijk door mensen in het leven geroepen, hetzij als grap, hetzij om buzz te genereren.
Dit alles heeft zich ontvouwd nu de industrie zich begint te verplaatsen van de ‘chatbot’-fase naar de ‘agent’-fase van generatieve AI. Maar het soort vrij rondlopend, autonoom gedrag dat OpenClaw vertoont, is niet hoe de grootste AI-bedrijven de verschuiving benaderen. Bedrijven als Google, OpenAI en Anthropic gaan veel voorzichtiger te werk en vermijden spetterende persoonlijke agenten zoals ‘Samantha’ in de film Haar en in plaats daarvan geleidelijk hun bestaande chatbots te evolueren naar een meer beperkte, taakspecifieke autonomie.
In sommige gevallen hebben AI-laboratoria hun meest autonome agentachtige gedrag ingebed in AI-coderingstools, zoals Claude Code van Anthropic en Codex van OpenAI. De bedrijven hebben steeds meer benadrukt dat deze tools nuttig zijn voor een breed scala aan werktaken, niet alleen voor coderen. Voorlopig blijft OpenAI bij het merk Codex, terwijl Anthropic onlangs een gestroomlijnde versie van Claude Code heeft gelanceerd genaamd CoWorkgericht op algemene taken op de werkplek.
Meer AI-dekking van Snel bedrijf:
- AI kan nu de video’s vervalsen die we het meest vertrouwen. Hier ziet u hoe u het verschil kunt zien
- Moltbook, het virale sociale netwerk voor AI-agenten, heeft een groot beveiligingsprobleem
- AI in de gezondheidszorg betreedt een nieuw tijdperk van verantwoordelijkheid
- Wat gebeurt er met de AI-exitmarkt als de FTC hard optreedt tegen ‘acquihires’?
Wilt u exclusieve rapportage en trendanalyse over technologie, bedrijfsinnovatie, de toekomst van werk en design? Schrijf je in voor Snel bedrijf Premie.



