Home Nieuws AI-angst wordt vluchtig

AI-angst wordt vluchtig

16
0
AI-angst wordt vluchtig

Welkom bij AI Gedecodeerd, Snel bedrijf’s wekelijkse nieuwsbrief met het belangrijkste nieuws ter wereld AI. Je kunt tekenen om deze nieuwsbrief wekelijks per e-mail te ontvangen hier.

Is de Altman-brandbom slechts het begin van extreem doomergeweld?

Op 10 april iemand gooide een molotovcocktail in het huis van OpenAI-CEO Sam Altman in San Francisco. De vermeende aanvaller, de 20-jarige Daniel Moreno-Gama, stopte daar niet. Vervolgens ging hij naar het hoofdkwartier van OpenAI en vertelde de bewakers daar dat hij van plan was het gebouw en iedereen binnenin in brand te steken. Twee dagen later zou iemand twee schoten hebben afgevuurd vanuit een auto die langs het huis van Altman reed, maar OpenAI zei dat de gebeurtenis geen verband hield met de brandbombardementen en niet op Altman was gericht.

Het brandbombardement is een extreme reactie op de snelle evolutie van AI systemen van de afgelopen jaren, en tot de vrees dat dergelijke systemen niet in het beste belang van de mens zullen handelen. Moreno-Gama zei dit in het ‘manifest’-document dat de politie in zijn bezit vond. Hij bespreekt het ‘vermeende risico dat AI voor de mensheid met zich meebrengt’ en ‘onze naderende uitsterving’. Hij voegt een persoonlijke brief toe aan Altman, waarin hij de CEO aanspoort tot verandering. Hij pleit ook voor het vermoorden van CEO’s van andere AI-bedrijven en hun investeerders.

Altman heeft vele malen gesproken over de gevaren van AI-systemen, terwijl OpenAI er tegelijkertijd toe wordt aangezet steeds intelligentere modellen te ontwikkelen en vrij te geven. Sommigen hebben gesuggereerd dat wanneer Altman het heeft over de gevaren van AI, het eigenlijk een soort bescheiden opschepperij is over de modellen van OpenAI (“zo intelligent dat ze gevaarlijk zijn”).

Het is waar dat AI-laboratoria met elk nieuw model grote vooruitgang blijven boeken op het gebied van intelligentie. AI-coderingstools versnellen de ontwikkeling, dus nieuwe releases en sprongen in mogelijkheden komen vaker voor. Ondertussen is het publiek zich steeds meer zorgen gaan maken, zelfs angstig, over de risico’s van AI-systemen, die kunnen variëren van banenverlies tot door AI ondersteunde cybercriminaliteit en het uitsterven van de mensheid. De transformatie van het bedrijfsleven en het leven door AI komt nog maar net op gang. Modellen zullen griezelig slim worden. Nu AI-laboratoria onder druk staan ​​om rendement te genereren voor hun investeerders, is er vrijwel geen kans op een pauze. Er is weinig reden om aan te nemen dat incidenten als de Altman-brandbommen niet meer zullen voorkomen.

Sarah Federman, hoogleraar conflictoplossing aan de Universiteit van San Diego, zegt dat mensen vaak hun toevlucht nemen tot geweld als ze zich machteloos voelen om zich effectief uit te spreken tegen een vermeend kwaad. “We beginnen het breekpunt te zien”, zegt Federman. “Er is al deze angst en er kan nergens heen.” Ze is ook van mening dat terwijl AI-laboratoria racen om het beste model vrij te geven, zorgen over ethiek terzijde zijn geschoven.

Ze heeft een punt. AI-bedrijven hebben veel tijd besteed aan het overleggen met wetgevers, waarbij ze hebben uitgelegd hoe hun systemen werken en waarom het reguleren van modelontwikkeling contraproductief kan zijn. Velen in Washington DC waren gecharmeerd van Altman, die zij openhartig, serieus en technisch bekwaam vonden. Maar deze bedrijven besteden veel minder tijd aan rechtstreekse gesprekken met het publiek. Ze houden geen gemeentehuizen en organiseren geen debatten over AI-ethiek op Fox News of CNN. Het is waarschijnlijker dat ze ‘instituten’ oprichten om de toekomstige effecten van AI op de samenleving te bestuderen.

En de kwestie van de afstemming van AI kan, door zijn aard, mensen als Moreno-Gama tot extreem gedrag aanzetten. Er is nu genoeg AI-doom-inhoud online om sommige mensen in een heel diep konijnenhol te sturen, waar ze de talloze factoren uit het oog verliezen die zullen bepalen hoe mensen met bovenmenselijke AI leven. Ze zien misschien alleen het verhaal ‘als je het bouwt, zullen we sterven’ en voelen zich dan wanhopig om in actie te komen. Ze kunnen zelfs geholpen worden door de licht sycofantische chatbot van hun keuze.

OpenAI brengt een op beveiliging gericht GPT-5.4-Cyber-model uit om te concurreren met Anthropic’s Mythos

Een week nadat Anthropic zijn controversiële nieuwe cybersecurity-focus aankondigde Claude Mythos-modelheeft OpenAI een soortgelijk gericht model uitgebracht, genaamd GPT-5.4-Cyber. Het bedrijf zegt dat “Cyber” een gespecialiseerde versie is van zijn nieuwste algemene AI-model, GPT-5.4, ontworpen om cyberbeveiligingsprofessionals te helpen softwarekwetsbaarheden te detecteren en analyseren.

zegt Open AI GPT-5.4-Cyber is getraind voor defensieve gebruiksscenario’s, zoals het analyseren en reverse-engineeren van potentiële cyberdreigingen.

Natuurlijk kan een AI-tool die bedreigingen kan vinden en reverse-engineeren ook offensief worden gebruikt door kwaadwillende actoren om kwetsbaarheden in doelsystemen te vinden en exploits te creëren. OpenAI zegt dus dat de toegang tot GPT-5.4-Cyber ​​in eerste instantie beperkt zal zijn tot doorgelichte organisaties, onderzoekers en beveiligingsleveranciers.

Anthropic deed iets soortgelijks met zijn Mythos-model en verleende toegang aan een groep bekende cyberbeveiligings- en infrastructuurbedrijven die het zullen gebruiken om kwetsbaarheden in veelgebruikte software te vinden en te patchen. De gedachtegang is dat dit defensieve cyberbeveiligingsinspanningen een voorsprong zal geven tegen hackers die uiteindelijk toegang zullen krijgen tot modellen op Mythos-niveau. Anthropic heeft geen onmiddellijke plannen om zijn Mythos-model uit te brengen.

OpenAI zei dat de uitrol een verschuiving weerspiegelt in de richting van een bredere maar gecontroleerde inzet van krachtige AI-systemen, waarbij de nadruk wordt gelegd op samenwerking met beveiligingsprofessionals en tegelijkertijd wordt geprobeerd potentieel misbruik te beperken.

xAI ligt opnieuw onder vuur vanwege ‘geseksualiseerde’ chatbot voor kinderen

De Grok-chatbot van xAI blijft seksuele deepfake-beelden genereren, a recent NBC News-onderzoek gevonden, wat aanleiding gaf tot oproepen aan het AI-bedrijf van Elon Musk om van koers te veranderen. xAI had eerder beloofd dergelijke inhoud te beperken. Daarnaast ontdekte het National Center on Sexual Exploitation (NCOSE) dat Grok’s kindgerichte chatbot, ‘Good Rudi’, seksueel expliciete gesprekken kan voeren. NCOSE roept xAI op om de toegang tot de chatbot te beperken.

NBC News zegt dat het de afgelopen maand tientallen door AI gegenereerde seksuele afbeeldingen en video’s van echte mensen heeft gevonden die op Musk’s X (voorheen Twitter) sociale media-app zijn geplaatst. NBC zegt dat de afbeeldingen vrouwen tonen van wie de gelijkenissen door de AI-chatbot zijn bewerkt om ze in meer onthullende kleding te stoppen, zoals handdoeken, sportbeha’s, nauwsluitende Spider-Woman-outfits of konijnenkostuums. Veel van de vrouwen waren vrouwelijke popsterren of acteurs.

NCOSE-onderzoekers ontdekten dat Grok’s Good Rudi-chatbot seksueel expliciete verhalen kan vertellen. “Zodra ik een gesprek met Rudi begon, begon het gesprek met het willen delen van een leuk kinderachtig verhaal”, zei een onderzoeker. “Na enig aandringen kreeg ik uiteindelijk de begeleider zover om alle veiligheidsprogrammering te omzeilen.” De chatbot vertelde vervolgens een sexy verhaal over twee jonge volwassenen met grafische beschrijvingen van seksuele ontmoetingen, inclusief de personages die ‘in seksuele posities kwamen en seksuele penetratie’.

Meer AI-dekking van Snel bedrijf:

Wilt u exclusieve rapportage en trendanalyse over technologie, bedrijfsinnovatie, de toekomst van werk en design? Schrijf je in voor Snel bedrijf Premie.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in