Home Nieuws Het obscure PhD-project van deze man is het enige dat tussen de...

Het obscure PhD-project van deze man is het enige dat tussen de mensheid en de chaos van AI-beelden staat

2
0
Het obscure PhD-project van deze man is het enige dat tussen de mensheid en de chaos van AI-beelden staat

Het komt zelden voor dat jouw esoterische, onmogelijk uit te spreken, tien jaar durende onderzoeksproject een technologie wordt die zo cruciaal is voor de nationale veiligheid dat de president van de Verenigde Staten het vanuit het Witte Huis roept.

Maar dat is precies wat er gebeurde met Dr. Eric Wengrowski, de CEO van Stap AI.

Wengrowski besteedde bijna een decennium van zijn leven aan het bevorderen van steganografie, een diepgaande technische methode voor het volgen van beelden terwijl ze door de machinerie van het moderne internet reizen, als de focus van zijn doctoraat aan de Rutgers University.

Nadat hij zijn diploma had behaald, rolden Wengrowki en een team van medeoprichters zijn technologie in een kleine startup. Jarenlang groeide het bedrijf, maar het bleef vooral in de relatieve onbekendheid zwoegen.

Dan, AI beeldgeneratoren explodeerden in het bewustzijn van het publiek. En voor het team van Wengrowki en Steg ontplofte alles.

Duurzame merken

Ik ontmoette Wengrowski tijdens de pandemie, toen we ons allebei vrijwillig aanboden om een ​​handelsgroep uit de media-industrie te helpen haar jaarlijkse persoonlijke conferentie snel om te zetten naar een Zoom-format.

Jarenlang kende ik Wengrowski alleen als een opgewekt, zeer intelligent zwevend hoofd in mijn videochatvenster. Ik zelfs interviewde hem voor mijn YouTube-kanaal vanuit de COVID-veilige beslotenheid van onze respectievelijke thuiskantoren.

Toen ik hem in 2023 eindelijk persoonlijk ontmoette in San Francisco, ontdekte ik dat hij eigenlijk maar liefst 1,80 meter lang is.

Het was een van die iconische pandemische professionele ontmoetingsmomenten waar mensen grapjes over maken, waarbij je merkt dat iemand die je al jaren vrijwel ‘kent’ er persoonlijk totaal anders uitziet.

Wat in het echte leven niet anders was aan Wengrowski, was zijn intense interesse en passie voor het door hem gekozen vakgebied. Steganografie (uitgesproken als STEG-an-ography, zoals de “Steg” in “stegasaurus”) is een techniek voor het inbedden van een onzichtbare code in de pixels van een afbeelding.

Kortom, een complex algoritme verandert op subtiele wijze geselecteerde pixels op een manier die onzichtbaar is voor menselijke waarneming. Afbeeldingen zien er na het markeren met een steganografisch watermerk niet anders uit dan voorheen.

Maar wanneer speciale software naar het gemarkeerde beeld kijkt, komt de unieke code die in de pixels is ingebed, duidelijk door in de computergestuurde ogen van de software.

Dankzij de aanwezigheid van die code kunnen bedrijven als Steg een gemarkeerd beeld met extreem hoge nauwkeurigheid terugleiden naar de bron.

Cruciaal is dat de code vrijwel onmogelijk te verwijderen is, omdat deze rechtstreeks in de pixels van de afbeelding is ingebed.

Slechte actoren kunnen eenvoudig een fysiek watermerk uit de pixels van een afbeelding verwijderen, of een tool als Photoshop gebruiken om gegevens uit de IPTC- of EXIF-metagegevensvelden van de afbeelding te verwijderen.

Omdat steganografische watermerken daarentegen direct in het visuele deel van het beeld zelf leven, reizen ze met het beeld mee, waar deze ook naartoe gaat. En ze overleven het meest voorkomende beeldgerelateerde grappige gedoe dat snode mensen zouden kunnen proberen te gebruiken om ze te verwijderen.

Alle steganografische watermerken kunnen dingen overleven die amateurbeelddieven zouden kunnen proberen, zoals agressief bijsnijden, of zelfs de gebruikelijke praktijk om een ​​screenshot van een afbeelding te maken om deze heimelijk te stelen.

Maar de technologie van Steg gaat nog verder, vertelde Wengrowski me in een interview. Als u bijvoorbeeld een afbeelding met een watermerk van de technologie van het bedrijf op uw computerscherm laadt, uw telefoon eruit haalt en het fysieke scherm fotografeert, blijven de watermerken van het bedrijf behouden in de nieuwe afbeelding op uw telefoon.

Je snode kopie blijft met de technologie van Steg traceerbaar naar het origineel.

AI explodeert alles

Toen Wengrowski de technologie van Steg oorspronkelijk ontwikkelde, wist hij dat het cool was. En hij had het vermoeden dat het ergens voor nuttig was. Maar wat dat “iets” precies inhield, was aanvankelijk niet duidelijk.

In de beginperiode groeide Steg langzaam door bedrijven te helpen met wettelijke naleving en imagobescherming. Steg zou zijn watermerken bijvoorbeeld in auteursrechtelijk beschermde afbeeldingen insluiten en vervolgens traceren waar die afbeeldingen terechtkwamen.

Als iemand zonder toestemming een auteursrechtelijk beschermde afbeelding zou stelen en gebruiken, kunnen de ingesloten watermerken van Steg worden gebruikt om de diefstal te bewijzen en tot een juridische schikking kunnen leiden.

Het bedrijf heeft ook gewerkt aan het veiligstellen van zaken als pre-releaseafbeeldingen van een nieuw product. Als een bedrijf bijvoorbeeld uiterst geheime afbeeldingen van een nieuwe telefoon (gemarkeerd met de technologie van Steg) naar een leverancier stuurde, en die foto’s plotseling terechtkwamen als een lek in TechCrunchkon het bedrijf het ingebedde watermerk traceren en weten wie de schuldige was.

Dat was genoeg voor Steg om langzaam te groeien en zijn technologie gestaag te verbeteren. Toen, in 2022, veranderde alles.

In één keer bracht OpenAI zijn Davinci-model voor het genereren van afbeeldingen uit (denk aan de avocadostoelen?), Rolde Midjourney zijn toenmalige wereldvermaarde technologie voor het genereren van afbeeldingen uit, en Google leunde op het genereren van afbeeldingen met zijn Bard en latere Gemini AI-modellen.

Bijna van de ene op de andere dag werd de wereld overspoeld met AI-beelden. En heel snel werden ze zo realistisch dat gewone mensen moeite hadden om te weten wat echt was en wat door AI werd gegenereerd.

Dit vormde een enorm probleem voor AI-bedrijven. Ze wilden hun technologie wijd en zijd vrijgeven. Maar ze maakten zich zorgen over de mogelijke maatschappelijke (en juridische) gevolgen als hun beelden zouden worden gebruikt voor deepfakes om mensen te misleiden, of zelfs om verkiezingen te beïnvloeden.

En breder gezien had iedereen die geïnteresseerd was in de waarheidsgetrouwheid van beelden opeens een enorm probleem om te weten wat echt was en wat door AI werd gegenereerd.

Alles, van nieuwsverslaggeving tot tribunalen voor oorlogsmisdaden, vertrouwt op beeldmateriaal als bewijsmateriaal. Wat gebeurt er als die beelden snel en goedkoop door een AI-algoritme kunnen worden gegenereerd?

Ja, AI-bedrijven kunnen hun afbeeldingen fysiek van een watermerk voorzien (bijvoorbeeld door een kleine Gemini-ster rechtsonder toe te voegen) of ‘Generated by AI’-markeringen in de metagegevens van hun afbeeldingen insluiten. Maar nogmaals: het verwijderen van deze markeringen is kinderspel voor zelfs de minst geavanceerde oplichters.

Nu AI-beeldgeneratoren de wereld bestormden, werden de oorsprong en de waarheidsgetrouwheid van elke afbeelding online plotseling in twijfel getrokken.

Dank u, meneer de president

Dat leidde tot een bizarre situatie voor ieder diep technisch persoon die zijn willekeurige, zeer specifieke passie in relatieve onbekendheid nastreefde.

Op 30 oktober 2023 werd Wengrowki wakker en ontdekte dat de toenmalige president Joe Biden een uitvoerend bevel waarbij specifiek AI-watermerktechnologie wordt genoemd, deze wordt benadrukt als een cruciale factor in de nationale veiligheid, en alle federale instanties worden opgedragen deze te gebruiken.

In het bijzonder verplichtte het bevel van Biden het “inbedden van informatie” die “moeilijk te verwijderen is, in door AI gecreëerde output – inclusief in output zoals foto’s, video’s, audioclips of tekst – met als doel de authenticiteit van de output of de identiteit of kenmerken van de herkomst, wijzigingen of overdracht ervan te verifiëren.”

Het bevel riep ook specifiek op tot de snelle ontwikkeling van “wetenschappelijk onderbouwde standaarden en technieken voor het labelen van synthetische inhoud, zoals het gebruik van watermerken.”

Biden omschreef dit als bedrijfskritisch: de term ‘nationale veiligheid’ komt 36 keer voor in zijn uitvoeringsbesluit.

Kortom, Biden verplichtte het gebruik van technologie zoals steganografie, en riep dit specifiek vanuit het Witte Huis.

Toen dat gebeurde, vertelde Wengrowski, werd alles gek. Sinds de bestelling – en de daarmee samenhangende groei van AI-beelden in bredere zin – is de omzet van Steg met 500% gestegen.

Bovendien lijkt het beschermen van de integriteit van afbeeldingen tweeledig: Wengrowski vertelde me dat AI-watermerken zijn omarmd door zowel de regering-Biden als Trump.

In een extreem krappe AI-banenmarkt waar toponderzoekers salarissen van acht cijfers kunnen afdwingen, heeft Steg nu vijf machine learning-PHD’s in dienst die zich bezighouden met het verbeteren van zijn technologieën.

Hoewel Wengrowski zijn klantenlijst niet officieel kon delen, kan ik garanderen dat het enorm indrukwekkend is.

Terwijl Steg zijn kant van de wettelijke naleving en het traceren van afbeeldingen levend heeft gehouden, heeft hij zich agressief uitgebreid naar de wereld van cyberbeveiliging en AI-beeldwatermerken.

Voor AI-bedrijven die hun beroep willen uitoefenen zonder het vertrouwen van de mensheid in visuele media te ruïneren, is de technologie van Steg een reddingslijn.

Bedrijven kunnen een steganografisch watermerk rechtstreeks in AI-afbeeldingen insluiten op het moment dat ze worden gegenereerd. Gedurende de levensduur van een afbeelding reist de code met hem mee, zelfs als deze opnieuw wordt gepost, bewerkt of gewijzigd.

Als dat beeld wordt gebruikt als deepfake of wordt gebruikt om mensen te manipuleren of lastig te vallen, kan het bedrijf dat het heeft gemaakt snel het ingebedde steganografische watermerk in de pixels lezen, het definitief als nep bestempelen en eventuele schade die het beeld kan veroorzaken snel wegnemen.

Als je het afgelopen jaar een AI-afbeelding hebt gemaakt, heb je vrijwel zeker steganografie gebruikt zonder dat je het wist. De meeste grote bedrijven voor het genereren van AI-beelden maken nu gebruik van de technologie. Velen gebruiken Steg’s.

En in een wereld waar AI-beelden zo goed zijn dat ze de meeste detectoren (en zelfs opgeleide forensische beeldanalisten), zien veel bedrijven steganografie als het enige bolwerk tegen de totale vernietiging door AI van elke waarheid die nog over is in de visuele wereld.

Een wilde rit

Voor Steg en voor Wengrowski persoonlijk was het een wilde rit. Op het moment dat Biden zijn bevel uitvaardigde, werd Wengrowski vader, en hij combineert nu de dagelijkse worstelingen en vreugden van een jonge ouder met de ontberingen van zaken als voortdurend reizen en getuigen in de staatswetgevers.

De opkomst van AI-beelden heeft ook enkele contra-intuïtieve uitdagingen aan het licht gebracht. Toen Steg voor het eerst op de markt kwam, vertelde Wengrowski, verwachtte hij dat mensen zouden verlangen naar een technologie die kon bewijzen of een afbeelding echt of nep was.

In werkelijkheid was hij verrast door hoe weinig mensen erom geven. Veel mensen vinden het prima om door AI gegenereerde inhoud te zien, zolang deze maar grappig, informatief of anderszins boeiend is. Of het al dan niet correct als AI wordt bestempeld, doet er voor hen weinig toe.

Sterker nog, het maakt ook heel weinig uit voor de sociale-mediaplatforms die de inhoud verspreiden.

Maar nogmaals, voor de bedrijven die deze inhoud creëren – en die juridische risico’s en reputatierisico’s lopen als hun technologie misgaat – maakt het ontzettend veel uit. Wengrowski vertelt me ​​dat Steg zijn technologie blijft verbeteren, waardoor de watermerken nog moeilijker te verslaan zijn.

Het bedrijf betreedt ook de opkomend veld van ‘vergiftiging’. Nieuwe software die Wengrowki me liet zien, verandert beelden onzichtbaar op een manier die gangbare deepfake-algoritmen in de war brengt.

Als iemand probeert het ‘vergiftigde’ beeld in een deepfake te veranderen, komt het er onleesbaar en onleesbaar uit. De technologie werkt zowel wanneer afbeeldingen worden gebruikt voor het trainen van deepfake-modellen, als wanneer een slechte acteur een deepfake van een specifieke persoon probeert te creëren.

Het idee is dat een influencer bijvoorbeeld ‘vergiftigde’ afbeeldingen van zichzelf naar zijn sociale media kan uploaden. De afbeeldingen zien er normaal uit voor menselijke gebruikers. Maar als iemand de influencer zou proberen te deepfaken, zouden de vergiftigde beelden hen dwarsbomen.

Wengrowki vertelde me dat hij vooral enthousiast is om de technologie te gebruiken om jonge influencers en tieners in het algemeen te helpen beschermen. vaak het doelwit van weerzinwekkende cyberpesten waarbij expliciete deepfakes betrokken zijn.

Maar breder gezien is het verhaal van Wengrowski inspirerend voor iedereen die zich bezighoudt met een nog onbewezen technologie, overtuigd van de waarde ervan, maar onzeker of de wereld ooit hun werk zal zien.

Terugkijkend op het succes van Steg erkende Wengrowski dat “het waarschijnlijk het beste is om een ​​bedrijf te starten met een duidelijk plan en inzicht in de aansluiting tussen product en markt.”

Maar in zijn woorden: “Er valt ook iets te zeggen als je weet dat een technologie cool is, als je deze voortdurend verbetert, zelfs als je geen idee hebt waar dat toe zal leiden, en als je er gewoon op vertrouwt dat deze uiteindelijk enige waarde voor de wereld zal hebben.”

In het geval van Steg was dat inderdaad een winnende formule.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in