Draadloze oordopjes lijken uit het niets te zijn ontstaan. Gepopulariseerd door de AirPods van Apple, waren ze opeens overal – in de metro, in de supermarkt, in de oren van de persoon die tegenover je zat – totdat ze ergens onderweg het ding werden dat bijna iedereen zonder nadenken draagt.
Zou die populariteit oordopjes beter kunnen maken dan slimme brillen voor AI? Dat is de inzet achter VueBuds, een prototype ontwikkeld door onderzoekers van de Universiteit van Washington die een camera ter grootte van een rijstkorrel hebben ingebouwd in elk oordopje van een standaard paar draadloze Sony-oordopjes. Het resultaat is een visuele AI-assistent die zich in het volle zicht verbergt: kijk naar een blikje eten en vraag hoeveel calorieën het bevat, houd een onbekend keukengereedschap omhoog en krijg binnen ongeveer een seconde antwoord.
Het systeem verwerkt afbeeldingen op het apparaat en reageert via een verbonden AI-model – geen cloud vereist, geen afbeeldingen opgeslagen.
Het UW-team is van mening dat het de eerste is die camera’s rechtstreeks in commerciële draadloze oordopjes heeft ingebouwd.
De oordopjes onthouden niets, maar dat weten de mensen om je heen misschien niet. Die spanning vormt de kern van wat het UW-team heeft gebouwd en roept een vraag op die de onderzoekers serieus nemen: wat zijn de sociale normen wanneer camera’s worden ingebed in objecten die niemand als camera’s beschouwt?
Het antwoord van het team is om hard te leunen op het minimaliseren van de gegevensverzameling. Afbeeldingen worden verwerkt en weggegooid; niets wordt opgeslagen. Maar het systeem geeft geen extern signaal aan omstanders dat er een camera aanwezig is, wat volgens de onderzoekers eerder een open uitdaging dan een opgeloste uitdaging is.
Om dit soort technologie vertrouwen te laten winnen, betoogde Maruchi Kim, hoofdonderzoeker en UW-promovendus aan de Paul G. Allen School of Computer Science & Engineering, dat privacy geen bijzaak mag zijn.
“Wij ondersteunen het opslaan van de beelden niet”, zei Kim. “Het is vooral bedoeld om de interactie tussen een persoon en de toegang tot AI onderweg te overbruggen, vooral in handsfree scenario’s.”
Het andere centrale argument van het team gaat over de vormfactor – en het is een duidelijke uitdaging voor Meta, dat jaren en honderden miljoenen dollars heeft besteed aan het proberen om van een camerabril een mainstream product te maken.
Het UW-team is van mening dat slimme brillen hun sociale bagage nooit volledig zullen kwijtraken: de herinnering aan Google Glass, het ongemak om bekeken te worden, het zichtbare signaal dat de drager zich heeft aangemeld voor iets dat de meeste mensen niet hebben gedaan. Oordopjes dragen niets van die geschiedenis met zich mee.
“Vanaf het begin wilden we daar niet mee geassocieerd worden”, zegt Kim.
Om camera’s in oordopjes te krijgen, moest eerst een stroomprobleem worden opgelost. Camera’s verbruiken veel meer energie dan microfoons, dus koos het team voor een sensor met laag vermogen die ongeveer één frame per seconde in zwart-wit vastlegt – langzaam volgens videostandaarden, maar snel genoeg voor de vraag-en-antwoordstijl van interactie die de onderzoekers in gedachten hadden.
De camera’s zijn vijf tot tien graden naar buiten gericht, wat een gezichtsveld van 98 tot 108 graden oplevert, en de beelden van beide oordopjes worden vóór verwerking in één frame samengevoegd, waardoor de responstijd tot ongeveer één seconde wordt teruggebracht.
De toepassingen variëren van praktisch tot significant. Het systeem kan tekst op voedselverpakkingen lezen, objecten identificeren en geschreven Koreaans vertalen. Maar voor mensen met slechtziendheid of staar gaan de implicaties dieper.
Het team ontving meer dan een dozijn e-mails van mensen met een visuele beperking waarin ze beschreven waarvoor ze het zouden gebruiken: gezichtsuitdrukkingen begrijpen, boeken lezen, televisie kijken – taken die bestaande AI-tools niet gemakkelijk op een handsfree, ambient manier kunnen ondersteunen.
Kim ziet nog een achtergestelde groep op de arbeidsmarkt. Elektriciens, loodgieters en werknemers in industriële omgevingen kunnen vaak niet pauzeren om halverwege een taak een telefoon tevoorschijn te halen: een pijpfitting die op zijn plaats zit, een stroomdraad die beide handen nodig heeft.
Voor deze werknemers is een visuele assistent met stembediening, waarvoor geen scherm hoeft te worden aangeraakt, het verschil tussen wel of geen toegang hebben tot AI.
“Er is veel werk waarbij deze mensen niet echt in staat zijn de voordelen van de recente AI-ontwikkelingen te benutten,” zei Kim. “Ze kunnen niet zomaar hun telefoon tevoorschijn halen en een foto maken.”
Het handsfree kader strekt zich breed uit: chirurgen, koks, iedereen die ooit heeft geprobeerd een recept met natte handen te volgen.
Het systeem blijft experimenteel en is niet te koop. Shyam Gollakota, een professor aan de Allen School en senior onderzoeker van het project, zei dat de belangstelling van technologiebedrijven groot is en dat met camera’s uitgeruste oordopjes de consument binnen een paar jaar kunnen bereiken.
Wat de kosten betreft, is Gollakota optimistisch. De camerasensor zelf zou op componentniveau minder dan een dollar kunnen kosten, zei hij – wat betekent dat op de schaal van een grote fabrikant van consumentenelektronica de prijspremie ten opzichte van standaard oordopjes waarschijnlijk bescheiden zou zijn.
Het door Gollakota aangehaalde cijfer van $10 verwijst naar een conservatievere schatting bij kleinere productievolumes.
“Wat wij op de universiteiten doen, is laten zien dat je technische problemen kunt oplossen”, zei Gollakota. “Dan tonen we een pad voor deze bedrijven en andere mensen om te zeggen dat dit daadwerkelijk mogelijk is.”



