De CEO van OpenAI, Sam Altman, bevestigde deze week dat het bedrijf een gloednieuw AI-first-apparaat bouwt. Hij zegt dat dit in schril contrast zal staan met de rommel en chaos van onze telefoons en apps. Hij vergeleek het gebruik ervan zelfs met ‘in de mooiste hut aan een meer en in de bergen zitten en gewoon genieten van de rust en kalmte.’ Maar u in de context begrijpen en uw gewoonten, stemmingen en routines analyseren, voelt intiemer dan de meeste mensen bij hun dierbaren, laat staan bij een stukje hardware.
Zijn kadrering verhult een heel andere realiteit. Een apparaat dat is ontworpen om uw leven voortdurend in de gaten te houden, om details te verzamelen over waar u bent, wat u doet, hoe u spreekt en nog meer verstikkende geluiden. Het klinkt misschien goed als een elektronische waarnemer elke nuance van uw gedrag absorbeert en zich aan uw leven aanpast, totdat u zich herinnert wat die gegevens doormaken om de analyse te leveren.
Een apparaat kalmerend noemen is hetzelfde als je ogen sluiten en hopen dat je onzichtbaar bent. Het is toezicht, vrijwillig, maar allesomvattend. De belofte van rust voelt als een slimme dekmantel voor het opgeven van privacy en erger. 24/7 contextbewustzijn staat niet gelijk aan vrede.
AI ogen op jou gericht
Eenzaamheid en vrede zijn afhankelijk van een gevoel van veiligheid. Een apparaat dat beweert mij rust te geven door die grenzen op te heffen, stelt mij alleen maar bloot. Altmans analogie met de hut aan het meer is verleidelijk. Wie heeft er niet van gedroomd om te ontsnappen aan de constante ping van meldingen, de knipperende advertenties, de algoritmische chaos van moderne apps, over weglopen van dat alles en naar een vredig toevluchtsoord? Maar sereniteit gebaseerd op constante observatie is een illusie.
Dit is niet alleen maar gizmo-scepsis. Er is hier sprake van een diepgewortelde paradox. Hoe contextbewuster en responsiever dit apparaat wordt, hoe meer het over u weet. Hoe meer het weet, hoe groter de kans op inbraak.
De versie van kalmte die Altman ons probeert te verkopen, is afhankelijk van onbepaalde discretie. We moeten al onze gegevens aan de juiste mensen toevertrouwen en geloven dat een algoritme, en het bedrijf erachter, altijd met respect en zorg met onze persoonlijke gegevens zal omgaan. We moeten erop vertrouwen dat ze de gegevens nooit als hefboom zullen gebruiken, en dat ze deze nooit zullen gebruiken om onze gedachten, onze beslissingen, onze politiek, onze winkelgewoonten en onze relaties te beïnvloeden.
Dat is een grote vraag, zelfs voordat we naar Altmans geschiedenis met betrekking tot intellectuele eigendomsrechten kijken.
Zien en nemen
Altman heeft herhaaldelijk het gebruik van auteursrechtelijk beschermd werk voor training verdedigd zonder toestemming of compensatie aan de makers. In een interview in 2023 erkende hij dat AI-modellen ‘werk van het hele internet hebben opgezogen’, inclusief auteursrechtelijk beschermd materiaal zonder expliciete toestemming, en het eenvoudigweg massaal hebben geabsorbeerd als trainingsgegevens. Hij probeerde dat in te kaderen als een probleem dat alleen kon worden aangepakt ‘als we eenmaal een soort economisch model hebben gevonden dat voor mensen werkt’. Hij gaf toe dat veel creatieven boos waren, maar hij deed alleen vage beloftes dat er ooit iets beters zou komen.
Hij zei dat het ‘cool’ zou kunnen zijn om makers de kans te geven zich aan te melden en een deel van de inkomsten te verdienen, als ze dat willen, maar hij weigerde te garanderen dat een dergelijk model ooit daadwerkelijk zou worden geïmplementeerd. Als eigendom en toestemming optionele gemakken zijn voor makers, waarom zouden consumenten dan anders worden behandeld?
Bedenk dat Sora 2 binnen enkele uren na de lancering werd overspoeld met clips waarin auteursrechtelijk beschermde karakters en bekende franchises zonder toestemming werden gebruikt, wat leidde tot juridische tegenstand. Het bedrijf keerde snel van koers en kondigde aan dat het de rechthebbenden “meer gedetailleerde controle” zou geven en zou overstappen op een opt-in-model voor gelijkenis en karakters.
Die omkering lijkt misschien op verantwoordelijkheid. Maar het is ook een stilzwijgende erkenning dat het oorspronkelijke plan in wezen was om ieders creatieve inspanningen als gratis grondstof te behandelen. Om inhoud te behandelen als iets dat jij van mij hebt, en niet als iets dat je respecteert.
Wat zowel kunst als persoonlijke gegevens betreft, lijkt de boodschap van Altman te zijn dat toegang op grote schaal belangrijker is dan toestemming. Een apparaat dat beweert rust te brengen door wrijving op te lossen en uw digitale leven glad te strijken, betekent een apparaat dat toezicht houdt op dat leven. Gemak is niet hetzelfde als comfort.
Ik beweer hier niet dat alle AI-assistenten slecht zijn. Maar AI behandelen als een gereedschapskist is niet hetzelfde als er een vertrouweling van maken voor elk onderdeel van mijn leven. Sommigen beweren misschien dat het ontwerp van het apparaat goed is en dat er echte waarborgen zijn. Maar dat argument gaat uit van een perfecte toekomst, beheerd door perfecte mensen. De geschiedenis staat niet aan onze kant.
Het apparaat dat Altman en OpenAI van plan zijn te verkopen, kan geweldig zijn voor allerlei dingen en de moeite waard om in privacy te handelen, maar maak die afweging duidelijk. Dat rustige meer kan net zo goed een cameralens zijn, maar doe niet alsof de lens er niet is.
Volg TechRadar op Google Nieuws En voeg ons toe als voorkeursbron om ons deskundig nieuws, recensies en meningen in uw feeds te krijgen. Klik dan zeker op de knop Volgen!
En dat kan natuurlijk ook Volg TechRadar op TikTok voor nieuws, recensies, unboxings in videovorm en ontvang regelmatig updates van ons WhatsAppen te.
De beste zakelijke laptops voor elk budget


