Welkom bij AI Gedecodeerd, Snel bedrijf’s wekelijkse nieuwsbrief met het belangrijkste nieuws ter wereld AI. Je kunt tekenen om deze nieuwsbrief wekelijks per e-mail te ontvangen hier.
Het standpunt van Anthropic ten aanzien van autonome wapens zal de toekomst wellicht niet overleven
Een groot deel van de AI wereld houdt nauwlettend in de gaten als antropisch verwikkelingen met het Pentagon over hoe de overheid de Claude-modellen kan gebruiken. Anthropic heeft een contract van $200 miljoen met het Pentagon, maar volgens het contract kan het leger de modellen van het AI-bedrijf niet gebruiken als brein voor autonome wapens of voor massale surveillance van Amerikanen. Minister van Defensie Pete Hegseth dringt er achteraf op aan dat het leger de antropische modellen voor ‘alle wettige doeleinden’ moet kunnen gebruiken.
Hegseth ontbood Dario Amodei, CEO van Anthropic, naar het Pentagon voor een bijeenkomst op dinsdagochtend, waarin hij Anthropic naar verluidt tot vrijdag 17.01 uur de tijd gaf om aan de eis van het Pentagon te voldoen. Als Anthropic dit niet doet, dreigde Hegseth een beroep te doen op de Defense Production Act om het AI-bedrijf te dwingen zijn modellen zonder vangrails te leveren. Hegseth zei ook dat de regering antropische modellen tot een “toeleveringsketenrisico” zou verklaren, wat betekent dat alle overheidsleveranciers de opdracht zouden krijgen om het gebruik van antropische modellen te vermijden of stop te zetten.
Amodei zei in een interview na de Hegseth-bijeenkomst dat zijn bedrijf niet van plan is aan de eisen van Hegseth te voldoen. (Hij heeft een sterk argument: regeringsfunctionarissen hebben immers ingestemd met de voorwaarden.) Amodei legde uit dat het leger afhankelijk is van het menselijk oordeel om te voorkomen dat de grondwettelijke rechten van mensen worden geschonden. Als AI de beslissingen neemt, zal er geen mens zijn die bezwaar maakt.
Amodei heeft gelijk, en de bereidheid van zijn bedrijf om op te komen voor zijn waarden is lovenswaardig. Het probleem is dat we snel op weg zijn naar een toekomst waarin autonome systemen de norm worden in oorlogsvoering.
Jarenlang sprak het defensie-establishment over het ‘op de hoogte houden van de mens’ in AI-wapensystemen. Vaak is die mens een overheidsjurist die op het slagveld een beroep kan doen op regels van betrokkenheid. Tegenwoordig praat het Pentagon meer over volledig autonome wapens die een groter deel van de ‘kill chain’ kunnen beheren, of de reeks communicatie en beslissingen rond de vernietiging van een doelwit. Militaire leiders zeggen vaak dat wie technologie kan gebruiken om de ‘kill-chain’ te verkorten, oorlogen zal winnen.
Dingen als elektronische oorlogsvoering (cyberoorlog), hypersonische raketten en drone-zwermen maken oorlog sneller en responstijden korter. Dit kan uiteindelijk de mogelijkheid voor menselijke beoordeling en besluitvorming uitsluiten. Het Amerikaanse leger zou in toenemende mate gedwongen kunnen worden mensen uit de kringloop te halen om concurrerend te kunnen blijven met zijn tegenstanders.
Het resultaat van de impasse van Anthropic met het Pentagon kan dus zijn dat een veiligheidsbewust AI-laboratorium wordt gedwongen te vertrekken, en dat een over het algemeen minder nauwgezet bedrijf als xAI als alternatief wordt gekozen.
Trump rukt het idee van Mark Kelly voor het aandrijven van nieuwe datacenters af
In zijn State of the Union besteedde Donald Trump een paar minuten aan het onderwerp nieuwe datacenters voor AI, dat de afgelopen maanden een hot topic is geworden voor kiezers. Terwijl de technologie-industrie zegt dat ze honderden nieuwe datacenters nodig heeft om alle AI die ze bouwt te ondersteunen, begrijpt een groeiend aantal kiezers nu dat de verbeteringen aan het elektriciteitsnet die nodig zijn om de datacenters van stroom te voorzien, hun energierekening kunnen verhogen. ‘Ik heb onderhandeld over de nieuwe Ratepayer Protection Pledge’, kraaide Trump. “We vertellen de grote technologiebedrijven dat ze de plicht hebben om in hun eigen energiebehoeften te voorzien.”
De politiek zal deze boodschap misschien herkennen, omdat deze nauw aansluit bij wat de senator Mark Kelly, een democraat uit Arizona, nu al maanden zegt. Kelly’s “AI voor AmerikaHet plan zou een door de industrie gefinancierd ‘AI Horizon Fund’ creëren om te betalen voor upgrades van het energienetwerk en omscholing van het personeel.
Volgens Kelly’s plan zou het Congres van ontwikkelaars van datacenters kunnen eisen dat ze voldoende land kopen of leasen om zowel hun faciliteiten als de infrastructuur voor hernieuwbare energie te huisvesten om ze van stroom te voorzien en te koelen. Van de exploitanten van datacenters kan ook worden verlangd dat zij betalen om de duurzame bronnen op het lokale elektriciteitsnet aan te sluiten, mocht de door hen opgewekte stroom ongebruikt blijven.
Het idee van Trump is meer een suggestie. Vanaf nu is het vrijblijvend, alleen maar woorden. En er werd met geen woord gerept over de manier waarop de technologiebedrijven hun eigen stroom zouden opwekken. De xAI van Elon Musk bracht bijvoorbeeld zijn eigen kracht naar zijn massa Colossus datacenter in Memphis. Helaas waren het vuile, door methaan aangedreven turbines, en de installatie werd al snel een van de grootste in de regio vervuilers.
Een groot aantal jonge technische werkzoekenden heeft met AI gefraudeerd bij vaardigheidstests
Vals spelen op technisch gebied inhuren Het aantal beoordelingen ging in 2025 de pan uit, waarbij het aantal fraudepogingen meer dan verdubbelde, blijkt uit nieuw onderzoek van CodeSignal, dat een evaluatieplatform voor ontwikkelaarsvaardigheden beheert dat wordt gebruikt bij het inhuren van software-ingenieurs. Uit het onderzoek bleek dat vorig jaar 35% van de onder toezicht staande beoordelingen tekenen van bedrog of fraude vertoonde, tegenover slechts 16% in 2024. De grootste boosdoeners? Plagiaat, iemand anders de test voor je laten doen en AI-tools binnensluipen die niet zijn toegestaan.
De sprong was vooral merkbaar bij kandidaten op instapniveau. Het fraudepercentage voor juniorfuncties is jaar na jaar bijna verdrievoudigd (van 15% naar 40%), waardoor het aannemen van mensen in het begin van de carrière een bijzonder kwetsbare plek in de wervingspijplijn is geworden. In een persbericht bij het rapport gaf Tigran Sloyan, CEO en medeoprichter van CodeSignal, gedeeltelijk de schuld aan de normalisatie van AI-tools, waarbij hij opmerkte dat 80% van Generatie Z naar verluidt AI gebruikt in het dagelijks leven, waardoor de grens tussen aanvaardbare hulp en ronduit bedrog veel vager is geworden. “Toegankelijkheid tot AI maakt ongeautoriseerde hulp ook moeilijker op te sporen en verhoogt de inzet voor het handhaven van een eerlijke en betrouwbare evaluatie van vaardigheden”, merkte hij op.
De detectiesystemen van CodeSignal – die AI-analyse, menselijke beoordeling en digitale monitoring combineren – identificeerden een aantal veelvoorkomende patronen in gemarkeerde beoordelingen. Ongeveer 35% van de kandidaten keek vaak buiten beeld, wat erop wijst dat ze tijdens de test externe bronnen raadpleegden. Nog eens 23% vertoonde ongewoon lineaire typpatronen, waarbij complexe oplossingen zomaar verschenen met nauwelijks pauzes of foutopsporing. En 15% had antwoorden die veel leken op bekende oplossingen of gelekte inhoud. (Het is vermeldenswaard dat deze cijfers betrekking hebben op pogingen die daadwerkelijk zijn betrapt, en niet op gevallen waarin iemand er met succes doorheen is geglipt.)
Uit de gegevens kwamen ook enkele geografische en procedurele lacunes naar voren. Het percentage fraudepogingen bedroeg 48% in de regio Azië-Pacific, vergeleken met 27% in Noord-Amerika. De testomstandigheden maakten ook een groot verschil: kandidaten in niet-gecontroleerde omgevingen vertoonden scoresprongen die meer dan vier keer groter waren dan die welke actief werden gemonitord, wat vrij duidelijk aantoont dat proctoring een afschrikwekkende werking heeft.
Wat betreft de manier waarop CodeSignal dit allemaal opvangt: het bedrijf zegt dat het tien jaar heeft besteed aan het uitbouwen van zijn infrastructuur voor fraudepreventie, die het nu op miljoenen beoordelingen toepast. Het maakt gebruik van een gepatenteerde ‘Suspicion Score’ en een lekbestendig testontwerp om zaken als plagiaat, het afnemen van proxytests, ongeoorloofd AI-gebruik en identiteitsfraude te signaleren.
Meer AI-dekking van Snel bedrijf:
- Uit onderzoek van Harvard blijkt dat AI-aandelenhandel kan wedijveren met veel keuzes van fondsbeheerders
- Hij bouwde een populaire podcast over de Epstein-dossiers. Het is volledig door AI gegenereerd
- Wat als de SaaSpocalyps een mythe is?
- Deze AI-startup denkt dat ze het ‘stuur’ voor chatbots bouwt
Wilt u exclusieve rapportage en trendanalyse over technologie, bedrijfsinnovatie, de toekomst van werk en design? Schrijf je in voor Snel bedrijf Premie.


