Kunstmatige intelligentie leert snel biologische experimenten autonoom te ontwerpen en uit te voeren, maar de systemen die deze capaciteiten moeten besturen, hebben moeite om gelijke tred te houden.
AI bedrijf Open AI en biotechbedrijf Ginkgo Bioworks maakten in februari 2026 bekend dat OpenAI’s vlaggenschipmodel GPT-5 autonoom ontworpen en uitgevoerd 36.000 biologische experimenten. Dit deed zij via een robotachtig cloudlaboratoriumeen faciliteit waar geautomatiseerde apparatuur, op afstand bestuurd door computers, experimenten uitvoert. Het AI-model stelde onderzoeksontwerpen voor, en robots voerden deze uit en voerden de gegevens terug naar het model voor de volgende ronde. Mensen stelden het doel, en de machines deden een groot deel van het werk in het laboratorium, waardoor de kosten voor het produceren van een gewenst eiwit met 40% werden verlaagd.
Dit is programmeerbare biologie: het ontwerpen van biologische componenten op een computer en het bouwen ervan in de fysieke wereld, waarbij AI de cirkel sluit.
Decennia lang is de biologie grotendeels verhuisd observatie naar begrip. Wetenschappers hebben de genomen van organismen gesequenced om al hun DNA te catalogiseren en te leren hoe genen coderen voor de eiwitten die de functies van het leven uitvoeren. De uitvinding van tools zoals CRISPR Vervolgens lieten wetenschappers dat DNA bewerken voor specifieke doeleinden, zoals het uitschakelen van een gen dat verband houdt met een ziekte. AI versnelt nu een derde fase, waarin computers zowel biologische systemen kunnen ontwerpen als deze snel kunnen testen.
Het proces lijkt minder op traditioneel bankwerk in een laboratorium lijkt meer op techniek: ontwerpen, bouwen, testen, leren en herhalen. Waar een traditioneel experiment een enkele hypothese zou kunnen testen, onderzoekt AI-gestuurde programmeerbare biologie duizenden ontwerpvariaties parallel, waarbij de manier wordt herhaald waarop een ingenieur een prototype verfijnt.
Als een datawetenschapper wie bestudeert genomica en bioveiligheidonderzoek ik hoe AI biologisch onderzoek een nieuwe vorm geeft en welke waarborgen daarvoor nodig zijn. De huidige veiligheidsmaatregelen en regelgeving hebben geen gelijke tred gehouden met deze mogelijkheden, en de kloof tussen wat AI in de biologie kan doen en wat bestuurssystemen bereid zijn aan te pakken wordt steeds groter.
Wat AI mogelijk maakt
Het duidelijkste voorbeeld van hoe onderzoekers AI gebruiken om onderzoek te automatiseren is AI-versneld eiwitontwerp.
Eiwitten zijn de moleculaire machines die de meeste functies in levende cellen uitvoeren. Het ontwerpen van nieuwe eiwitten vergt traditioneel jaren van vallen en opstaan, omdat zelfs kleine veranderingen in de sequentie van een eiwit de vorm en functie ervan op onvoorspelbare manieren kunnen veranderen.
Eiwittaalmodellendit zijn AI-systemen die zijn getraind op miljoenen natuurlijke eiwitsequenties, die snel kunnen voorspellen hoe mutaties het gedrag van een eiwit zullen veranderen of nieuwe eiwitten ontwerpen. Deze AI-modellen zijn aan het ontwerpen potentiële nieuwe medicijnen En het versnellen van de ontwikkeling van vaccins.
Gecombineerd met geautomatiseerde laboratoriacreëren deze modellen nauwe lussen van experimenteren en herzien, waarbij duizenden variaties in dagen worden getest in plaats van in de maanden of jaren die een menselijk team nodig zou hebben.
Snellere eiwitmanipulatie zou snellere reacties op opkomende infecties en goedkopere medicijnen kunnen betekenen.
Het dual-use-probleem
Onderzoekers hebben hun bezorgdheid geuit over het feit dat dezelfde AI-tools kunnen worden misbruikt, een probleem dat bekend staat als de probleem van tweeërlei gebruik: Technologieën die voor nuttige doeleinden zijn ontwikkeld, kunnen ook worden hergebruikt om schade te veroorzaken.
Onderzoekers hebben bijvoorbeeld ontdekt dat AI-modellen geïntegreerd met geautomatiseerde laboratoria kan optimaliseren hoe goed een virus zich verspreidtzelfs zonder gespecialiseerde opleiding. Wetenschappers hebben een risicoscoringsinstrument ontwikkeld om te evalueren hoe AI de mogelijkheden van een virus zou kunnen wijzigen, zoals het veranderen van welke soort het infecteert of het helpen het immuunsysteem te ontwijken.
De huidige AI-modellen kunnen gebruikers door de technische stappen leiden het terugwinnen van levende virussen uit synthetisch DNA. Onderzoekers hebben vastgesteld dat AI barrières kan verlagen in meerdere stadia van het ontwikkelingsproces van een biowapen, en dat het huidige toezicht niet adequaat adresseert dit risico.
Risico van bio-AI
Ervaren wetenschappers zijn dat al met behulp van AI naar plan En biologische experimenten ontwerpen. De vraag of AI mensen met een beperkte biologieopleiding kan helpen gevaarlijk laboratoriumwerk uit te voeren, is het onderwerp van actief onderzoek.
Twee recente onderzoeken kwamen tot verschillende conclusies.
Uit een onderzoek van AI-bedrijf Scale AI en bioveiligheidsnon-profitorganisatie SecureBio bleek dat wanneer mensen met beperkte biologie-ervaring toegang kregen tot grote taalmodellen, het type AI achter tools als ChatGPT, ze in staat waren om voltooien van bioveiligheidsgerelateerde taken zoals het oplossen van problemen met complexe virologielaboratoriumprotocollen met vier keer grotere nauwkeurigheid. Op sommige gebieden presteerden deze nieuwelingen beter dan getrainde experts. Ongeveer 90% van deze nieuwelingen meldde dat het weinig moeite kostte om de modellen risicovolle biologische informatie te laten verschaffen, zoals gedetailleerde instructies over het werken met gevaarlijke ziekteverwekkers, ondanks ingebouwde veiligheidsfilters die bedoeld waren om dergelijke resultaten te blokkeren.
Daarentegen bleek uit een onderzoek onder leiding van Active Site, een non-profitorganisatie die het gebruik van AI in de synthetische biologie bestudeert, dat AI-hulp niet leidde tot significante verschillen in het vermogen van beginners om de taken te voltooien. complexe workflow om een virus te produceren in een bioveiligheidslaboratorium. De door AI ondersteunde groep slaagde echter vaker in de meeste taken en voltooide sommige stappen sneller, met name bij het kweken van cellen in het laboratorium.
Praktijkgericht werken in het laboratorium is van oudsher een knelpunt bij het vertalen van ontwerpen naar resultaten. Zelfs een briljant studieplan is nog steeds afhankelijk van bekwame mensenhanden om uit te voeren. Dat zal misschien niet zo blijven, zoals cloudlaboratoria en robotautomatisering dat zullen worden goedkoper en toegankelijkerwaardoor onderzoekers door AI gegenereerde experimentele ontwerpen naar afgelegen faciliteiten kunnen sturen voor uitvoering.
Reageren op AI-gedreven biologische risico’s
AI-systemen kunnen inmiddels zelfstandig en op grote schaal experimenten uitvoeren, maar de bestaande regelgeving is daar niet op ingericht. Regels voor biologisch onderzoek houden geen rekening met AI-gestuurde automatisering, en regels voor AI hebben niet specifiek betrekking op het gebruik ervan in de biologie.
In de VS had de regering-Biden uit 2023 een uitvoerend bevel uitgevaardigd over AI-beveiliging bioveiligheidsbepalingenmaar de regering-Trump heeft het ingetrokken. Het screenen van het synthetische DNA dat commerciële leveranciers maken om ervoor te zorgen dat het niet kan worden misbruikt om ziekteverwekkers of toxines te maken, blijft grotendeels vrijwillig. Een tweeledig wetsvoorstel dat in 2026 werd geïntroduceerd om DNA-onderzoek verplicht stellen gaat nog niet in op door AI ontworpen sequenties die de huidige detectiemethoden omzeilen.
De 1975 Biologische Wapenconventieeen internationaal verdrag dat de productie en het gebruik van biowapens verbiedt, bevat geen bepalingen voor AI. Groot-Brittannië AI-beveiligingsinstituut en de VS Nationale Veiligheidscommissie voor opkomende biotechnologie hebben beide opgeroepen tot gecoördineerd optreden van de overheid.
De veiligheidsevaluaties die AI-laboratoria uitvoeren voordat nieuwe modellen worden uitgebracht, zijn vaak ondoorzichtig en ongeschikt om reële risico’s op te vangen. Onderzoekers schatten dat zelfs bescheiden verbeteringen in het vermogen van een AI-model om pathogeengerelateerde experimenten te helpen plannen, zich zouden kunnen vertalen in duizenden extra sterfgevallen als gevolg van bioterrorisme per jaar. Tijdlijnen voor wanneer deze mogelijkheden kritische drempels overschrijden blijven onduidelijk.
Het Nuclear Threat Initiative heeft dat gedaan stelde een beheerd toegangskader voor voor biologische AI-instrumenten: wie een bepaald instrument kan gebruiken, afstemmen op het risiconiveau van het model in plaats van algemene beperkingen. Het Rand Center on AI, Security, and Technology schetste een aantal acties die onderzoekers zouden kunnen ondernemen om de bioveiligheid te verbeteren, inclusief verbeterde screening van DNA-synthese en modelevaluaties vóór introductie. Onderzoekers hebben dat ook betoogd biologische gegevens zelf hebben governance nodigvooral genomische gegevens die modellen met gevaarlijke capaciteiten zouden kunnen trainen.
Sommige AI-bedrijven zijn vrijwillig begonnen met het opleggen van hun eigen veiligheidsmaatregelen. Antropisch heeft zijn hoogste veiligheidsniveau geactiveerd toen het medio 2025 zijn meest geavanceerde model uitbracht. Op hetzelfde moment OpenAI heeft zijn paraatheidskader bijgewerktwaarbij de drempels worden herzien voor hoeveel biologisch risico een model kan opleveren voordat aanvullende waarborgen nodig zijn. Maar dit zijn vrijwillige, bedrijfsspecifieke stappen. De CEO van Anthropic, Dario Amodei, schreef dat het tempo van de AI-ontwikkeling snel zal toenemen de capaciteiten van elk afzonderlijk bedrijf te boven gaan om het risico van een bepaald model te beoordelen.
Bij gebruik in een goed gecontroleerde omgeving kan AI wetenschappers helpen hun onderzoeksdoelen snel te bereiken. Wat er gebeurt als dezelfde capaciteiten buiten deze controles opereren, is een vraag die het beleid nog niet heeft beantwoord. Als u overdreven reageert, kunnen talent en investeringen naar elders verhuizen, terwijl de technologie toch doorgaat. Als u te weinig reageert, kunnen de risico’s van die technologie worden uitgebuit om echte schade aan te richten.
Stephen D. Turner is universitair hoofddocent data science aan de Universiteit van Amsterdam Universiteit van Virginia.
Dit artikel is opnieuw gepubliceerd van Het gesprek onder een Creative Commons-licentie. Lees de origineel artikel.


