Stel je voor dat je in stilte iets tegen jezelf zegt, en je AI-assistent weet wat je probeert te zeggen. Het kan via uw bril of uw oordopjes of de camera van uw telefoon zijn. Apple heeft zojuist een bedrijf gekocht, genaamd Q.aidat probeert precies dit te doen. Dat klinkt raar en sci-fi, en toch klinkt het voor mij, als iemand die al heel lang naar slimme brillen en wearables kijkt, ook heel bekend.
De investering van Apple in deze Israëlische startup is helemaal niet klein. Volgens de Amerikaanse krant kostte de overname ongeveer 2 miljard dollar origineel rapport van de Financial Times En nieuwsmedia als Reuters. Het is meer dan welke andere zet van Apple dan ook sinds de spetterende overname van Beats tien jaar geleden. Maar in tegenstelling tot Beats kent niemand Q.ai. Tenminste, nog niet. Toch kunnen de mogelijkheden voor nieuwe interfaces zeer groot zijn. Er wordt nog een belangrijk stuk toegevoegd aan de steeds groter wordende puzzel van toekomstige persoonlijke technische interfaces.
Q.ai is niet een bedrijf dat ik ooit heb ontmoet of waarvan ik ooit een demo heb gekregen, maar een van de oprichters, Aviad Maizels, heeft jaren geleden ook PrimeSense gemaakt, de op infrarood gebaseerde technologie die de 3D-mogelijkheden van Microsoft’s Kinect-camera voor de Xbox aanstuurde. Prime Sense was overgenomen door Apple in 2013. Die technologie werd de TrueDepth-camera-array voor Face ID, en het leeft ook in Vision Pro van Apple voor handtracking op korte afstand.
Afgaande op wat er is gerapporteerd over zijn patenten, maakt Q.ai het volgen van kleine gezichtsbewegingen en emotionele uitdrukkingen mogelijk met optische sensoren en zou het stille commando-invoer naar een AI-interface of de herkenning van andere subtiele gezichtssignalen mogelijk kunnen maken. De Israëlische site GeekTime gaat wat gedetailleerder in en zegt dat de technologie de spier- en lipbewegingen meet en mogelijk in de buurt van je mond moet zijn.
CNET nam contact op met Apple en Q.ai voor commentaar, maar geen van beiden reageerde onmiddellijk.
De Vision Pro kan gezichtsbewegingen al volgen, maar kan lipbewegingen niet omzetten in spraak.
Onderdeel van een nieuw interfacesysteem voor wearables en brillen?
Ik schreef zojuist dat Apple al tekenen vertoont van de richting van een ecosysteem van verbonden AI-wearables: spelden, brillen, oordopjes, horloges of een combinatie daarvan. Al deze wearables kunnen mogelijk gebruikmaken van wat Q.ai aan het ontwikkelen is. Het lijkt er echter op dat koptelefoons en brillen de twee meest waarschijnlijke gebieden zijn, en volgens berichten is dat het geval volgende generatie AirPods zal infraroodcamera’s aan boord hebben, de stukken zien er nog meer klaar uit om te worden aangesloten.
Zelfs mixed-reality-headsets zoals de Vision Pro zouden de technologie van Q.ai kunnen benutten. De Vision Pro kan gezichtsuitdrukkingen al herkennen met zijn eye-trackingcamera’s, naar beneden gerichte camera’s en infraroodsensoren. Maar interactie met Vision Pro vind ik nog steeds een beetje lastig. Ik gebruik mijn ogen om te kijken en mijn handen om dingen te knijpen, maar ik moet “Hey Siri” zeggen om audioverzoeken te doen. Ik heb liever dat mijn interacties natuurlijker en subtieler aanvoelen. Misschien kan deze nieuwe aanwinst helpen.
Zoals opgemerkt, augmented reality-kunstenaar en onderzoeker Helen Papagiannis aantekeningen in haar recente nieuwsbrief“De geruchten over de AI-pin van Apple zijn minder zinvol als een op zichzelf staand product en meer als een knooppunt in het ecosysteem van Apple, waarbij gebruik wordt gemaakt van gedeelde detectie, intelligentie en context tussen apparaten die samenwerken met AirPods en, uiteindelijk, een bril.”
Bestaand slimme bril zoals die van Meta en komende van Google zijn voor interactie vooral afhankelijk van hun stem. Dat in stilte doen kan een enorm voordeel zijn, maar er komen ook andere aspecten naar voren dan alleen de stem. Meta heeft een neurale band die om de pols wordt gedragen, met als uiteindelijk doel ook eye-tracking aan een bril toe te voegen. De bril van Google zal ook werken met op horloges gebaseerde gebaren.
Ik maak me ook meer dan een beetje zorgen over privacy. Elke technologie die subtiele uitdrukkingen kan liplezen en herkennen, kan worden gebruikt om uw bedoelingen op afstand te volgen en te beluisteren. Hoe zou deze technologie privé en betrouwbaar worden gebruikt? Of zou het stiller kunnen uitspreken van verzoeken meer privé zijn dan de spraakopdrachten die ik nu gebruik?
Meer dan alleen liplezen?
Ik wil nog steeds interfaces die helemaal geen spraak gebruiken. Meta’s gebaseerd op elektromyografie neurale band technologie wijst op complexere manieren waarop polsgebaren zouden kunnen evolueren om met brillen en oordopjes te werken. Een ander Israëlisch bedrijf, Wearable Devices, heeft zijn eigen neurale band, Mudra genaamd, en streeft ernaar zijn subtiele invoermogelijkheden, afgeleid van de elektrische impulsen van motorneuronen, uit te breiden.
Elektro-encefalografie, die hersensignalen meet, is een andere richting. Hoewel sommige bedrijven EEG onderzoeken voor interfaces tussen hersenen en computers, is het nog steeds in de eerste plaats een sensorsysteem dat zich richt op gezondheids- en medische toepassingen.
Reken de technologie van Q.ai tot de interfaces die ervoor kunnen zorgen dat de draagbare computers die we gebruiken zich meer met ons verbonden voelen. Dat is raar en griezelig, maar het is ook waar ik denk dat de meeste brillen-, wearables- en VR/AR-bedrijven al naartoe gaan. Dit is geen uitschieter. De stap van Apple is een ander onderdeel van de trend.

