De meeste mensen zijn zich niet bewust van de diepgaande dreiging waarvoor AI binnenkort zal zorgen menselijke tussenkomst. Een veelgehoord refrein is dat “AI is slechts een hulpmiddel” en zoals bij elk hulpmiddel zijn de voordelen en gevaren ervan afhankelijk van de manier waarop mensen het gebruiken. Dit is ouderwets denken. AI maakt een transitie door van hulpmiddelen die we gebruiken naar protheses die we dragen. Dit zal creëren belangrijke nieuwe bedreigingen waar we gewoon niet op voorbereid zijn.
Nee, ik heb het niet over enge hersenimplantaten. Deze door AI aangedreven protheses zullen reguliere producten zijn die we bij Amazon of de Apple Store kopen en op de markt worden gebracht met vriendelijke namen als ‘assistenten’, ‘coaches’, ‘co-piloten’ en ‘docenten’. Ze zullen echte waarde in ons leven bieden – zozeer zelfs dat we ons benadeeld zullen voelen als anderen ze dragen en wij niet. Dit zal een snelle druk creëren voor massale adoptie.
De prothesen waar ik het over heb zijn “AI-aangedreven wearables“zoals slimme brillen, hangers, spelden en oordopjes. Uw draagbare AI ziet wat u ziet en hoort wat u hoort, terwijl hij bijhoudt waar u bent, wat u doet, met wie u bent en wat u probeert te bereiken. Vervolgens, zonder dat u een woord hoeft te zeggen, zullen deze mentale hulpmiddelen dat doen fluister advies in uw oren of flitsbegeleiding voor uw ogen.
Het verschil tussen een hulpmiddel en een prothese lijkt misschien subtiel, maar de implicaties voor menselijke keuzevrijheid zijn diepgaand. Dit kan het beste worden begrepen door een eenvoudige analyse van input en output. Een tool neemt menselijke input op en genereert versterkte output. Een hulpmiddel kan ons sterker en sneller maken of ons laten vliegen. Een mentale prothese daarentegen vormt een feedbacklus rond de mens, accepteert input van de gebruiker (door hun acties te volgen en hen in gesprek te brengen) en genereert output die kan onmiddellijk beïnvloeden het denken van de gebruiker.
Deze feedbackloop verandert alles. Dat komt omdat op het lichaam gedragen AI-apparaten ons gedrag en onze emoties kunnen monitoren en deze gegevens daarvoor kunnen gebruiken praat ons aan dingen geloven die niet waar zijn, dingen kopen die we niet nodig hebben of standpunten aannemen waarvan we anders zouden beseffen dat ze niet in ons beste belang zijn. Dit wordt genoemd het AI-manipulatieprobleemen we zijn niet klaar voor de risico’s. Dit is een urgente kwestie omdat grote technologiebedrijven zich haasten om deze producten op de markt te brengen.
Waarom zijn feedbackloops zo gevaarlijk?
In de wereld van vandaag worden alle computerapparatuur gebruikt om gerichte invloed uit te oefenen ten behoeve van betalende sponsors. Draagbare AI-producten zullen deze trend waarschijnlijk voortzetten. Het probleem is dat deze apparaten gemakkelijk een “doelstelling beïnvloeden” en krijgen de taak om hun impact op de gebruiker te optimaliseren, door hun gesprekstactieken aan te passen om elke weerstand die ze ontdekken te overwinnen. Dit transformeert het concept van gerichte invloed van sociale media-schoten tot hittezoekende raketten die vakkundig langs je verdediging navigeren. En toch beseffen beleidsmakers dit risico niet.
Helaas zien de meeste toezichthouders het gevaar van AI nog steeds in termen van het vermogen ervan om snel traditionele vormen van invloed te genereren (deepfakes, nepnieuws, propaganda). Natuurlijk zijn dit aanzienlijke bedreigingen, maar ze zijn lang niet zo gevaarlijk als de interactieve en adaptieve invloed die binnenkort op grote schaal kunnen worden ingezet via gespreksagenten, vooral wanneer die AI-agenten met ons door ons leven reizen in draagbare apparaten.
Dit komt binnenkort
Meta, Google en Apple racen om zo snel mogelijk draagbare AI-producten te lanceren. Om het publiek te beschermen moeten beleidsmakers hun ‘tool-use’-framework loslaten bij het reguleren van AI-apparaten. Dit is moeilijk omdat de metafoor van het gereedschapsgebruik 35 jaar teruggaat tot het moment waarop Steve Jobs de pc op kleurrijke wijze omschreef als een ‘fiets van de geest.” Een fiets is een krachtig hulpmiddel dat de berijder de controle houdt. Draagbare AI zal deze metafoor op zijn kop zetten, waardoor we ons afvragen wie de fiets bestuurt – de mens, de AI-agenten die in de oren van de mens fluisteren, of de bedrijven die de agenten hebben ingezet? Ik geloof dat het een gevaarlijke mix van alle drie zal zijn.
Bovendien zullen gebruikers waarschijnlijk vertrouwen op de AI-stemmen in hun hoofd meer dan ze zouden moeten. Dat komt omdat deze AI-agenten ons gedurende ons dagelijks leven van nuttig advies en informatie zullen voorzien – door ons te onderwijzen, ons eraan te herinneren, ons te coachen en te informeren. Het probleem is dat we misschien niet in staat zijn om te onderscheiden wanneer de AI-agent zijn doel heeft verlegd van ons helpen naar beïnvloeden. Om het verschil te waarderen, kunt u de bekroonde korte film bekijken Privacy verloren (2023) over de gevaren van AI-aangedreven draagbare apparaten. Dit is vooral het geval wanneer apparaten invasieve functies bevatten, zoals gezichtsherkenning (die Meta voegt naar verluidt toe naar hun bril).
Wat kunnen we doen om het publiek te beschermen?
Eerst en vooral moeten beleidsmakers zich realiseren dat conversationele AI dit mogelijk maakt een geheel nieuwe vorm van media dat interactief, adaptief, geïndividualiseerd en steeds contextbewuster is. Deze nieuwe vorm van media zal functioneren als ‘actieve invloed’, omdat het zijn tactieken in realtime kan aanpassen om de weerstand van gebruikers te overwinnen. Als deze AI-systemen worden ingezet in draagbare apparaten, kunnen ze worden ontworpen om onze acties te manipuleren, onze meningen te beïnvloeden en onze overtuigingen te beïnvloeden – en dat allemaal door middel van schijnbaar informele dialoog. Erger nog, deze agenten zullen in de loop van de tijd leren welke gesprekstactieken het beste werken voor ieder van ons op persoonlijk niveau.
Het is een feit, gespreksagenten mogen geen controlelussen vormen rond gebruikers. Als dit niet gereguleerd wordt, zal AI ons met bovenmenselijke overtuigingskracht kunnen beïnvloeden. Bovendien zouden AI-agenten dat moeten zijn verplicht om gebruikers te informeren telkens wanneer zij overgaan op het uiten van promotionele inhoud namens een derde partij. Zonder dergelijke bescherming zullen AI-agenten waarschijnlijk zo overtuigend worden dat de huidige gerichte beïnvloedingstechnieken er raar uit zullen zien.
Louis Rosenberg is een pionier op het gebied van augmented reality en al jarenlang AI-onderzoeker. Hij promoveerde aan Stanford, was professor aan de California State University en schreef verschillende boeken over de gevaren van AI, waaronder Arrival Mind en Our Next Reality.
Welkom bij de VentureBeat-community!
In ons gastpostprogramma delen technische experts inzichten en bieden ze neutrale, niet-gevestigde diepgaande inzichten over AI, data-infrastructuur, cyberbeveiliging en andere geavanceerde technologieën die de toekomst van het bedrijfsleven vormgeven.
Lees meer uit ons gastpostprogramma — en bekijk ons richtlijnen als u geïnteresseerd bent om een eigen artikel bij te dragen!


