Home Nieuws Vergeet de chatbots. Het ware potentieel van AI is goedkoop, snel en...

Vergeet de chatbots. Het ware potentieel van AI is goedkoop, snel en op uw apparaten

3
0
Vergeet de chatbots. Het ware potentieel van AI is goedkoop, snel en op uw apparaten

Wanneer ik op de app voor Anthropic’s tik Claude AI op mijn telefoon en geef hem een ​​prompt – zeg: “Vertel me een verhaal over een ondeugende kat” – er gebeurt veel voordat het resultaat (“The Great Tuna Heist”) op mijn scherm verschijnt.

Mijn verzoek wordt naar de cloud gestuurd: een computer in een groot datacentrum ergens – om door Claude’s Sonnet 4.5 te worden gehaald groot taalmodel. Het model stelt een plausibel antwoord samen met behulp van geavanceerde voorspellende tekst, op basis van de enorme hoeveelheid gegevens waarop het is getraind. Dat antwoord wordt vervolgens teruggestuurd naar mijn iPhone en verschijnt woord voor woord, regel voor regel op mijn scherm. Hij heeft honderden, zo niet duizenden kilometers afgelegd en is door meerdere computers gegaan op zijn reis van en naar mijn kleine telefoon. En het gebeurt allemaal binnen enkele seconden.

Dit systeem werkt goed als de inzet laag is en snelheid niet echt een probleem is. Ik kan een paar seconden wachten op mijn verhaaltje over Whiskers en zijn tegenslag in een keukenkastje. Maar niet elke taak voor kunstmatige intelligentie is zo. Sommige vereisen een enorme snelheid. Als een AI-apparaat iemand gaat waarschuwen voor een object dat zijn of haar pad blokkeert, kan het het zich niet veroorloven om een ​​seconde of twee te wachten.

Andere verzoeken vereisen meer privacy. Het maakt me niet uit of het kattenverhaal door tientallen computers gaat die eigendom zijn van mensen en bedrijven die ik niet ken en die ik misschien niet vertrouw. Maar hoe zit het met mijn gezondheidsinformatie of mijn financiële gegevens? Misschien wil ik daar een strakkere deksel op houden.


Mis geen enkele van onze onpartijdige technische inhoud en laboratoriumbeoordelingen. CNET toevoegen als favoriete Google-bron.


Snelheid en privacy zijn twee belangrijke redenen waarom technologieontwikkelaars de AI-verwerking steeds meer verschuiven van enorme bedrijfsdatacenters naar persoonlijke apparaten zoals uw telefoon, laptop of smartwatch. Er zijn ook kostenbesparingen: u hoeft geen grote datacenterexploitant te betalen. Bovendien kunnen modellen op het apparaat werken zonder internetverbinding.

Maar om deze verschuiving mogelijk te maken zijn betere hardware en efficiëntere – vaak meer gespecialiseerde – AI-modellen nodig. De convergentie van deze twee factoren zal uiteindelijk bepalen hoe snel en naadloos uw ervaring is op apparaten zoals uw telefoon.

CNET AI Atlas-badgekunst; klik om meer te zien

CNET

Mahadev Satyanarayanan, beter bekend als Satya, is hoogleraar computerwetenschappen aan de Carnegie Mellon Universiteit. Hij heeft lang onderzoek gedaan naar wat bekend staat als edge computing: het concept van het zo dicht mogelijk bij de daadwerkelijke gebruiker verwerken en opslaan van gegevens. Hij zegt dat het ideale model voor echte edge computing het menselijk brein is, dat taken als zicht, herkenning, spraak of intelligentie niet overdraagt ​​aan welke ‘cloud’ dan ook. Het gebeurt allemaal daar, volledig ‘op het apparaat’.

“Dit is het addertje onder het gras: het kostte de natuur een miljard jaar om ons te ontwikkelen”, vertelde hij me. “We hebben geen miljard jaar om te wachten. We proberen dit over vijf of tien jaar te doen. Hoe gaan we de evolutie versnellen?”

Je versnelt het met betere, snellere, kleinere AI die op betere, snellere, kleinere hardware draait. En zoals we al zien bij de nieuwste apps en apparaten – inclusief de apps en apparaten die op CES 2026 worden verwacht – is dit al in volle gang.

AI draait momenteel waarschijnlijk op uw telefoon

AI op het apparaat is verre van nieuw. Weet je nog in 2017 toen je je iPhone voor het eerst kon ontgrendelen met terwijl u het voor uw gezicht houdt? Die gezichtsherkenningstechnologie maakte gebruik van een neurale engine op het apparaat – het is geen generatie-AI zoals Claude of ChatGPT, maar het is fundamentele kunstmatige intelligentie.

De huidige iPhones gebruiken een veel krachtiger en veelzijdiger AI-model op het apparaat. Het heeft ongeveer 3 miljard parameters: de individuele berekeningen van het gewicht dat aan een waarschijnlijkheid in een taalmodel wordt gegeven. Dat is relatief klein vergeleken met de grote modellen voor algemeen gebruik waarop de meeste AI-chatbots draaien. Deepseek-R1heeft bijvoorbeeld 671 miljard parameters. Maar het is niet de bedoeling om alles te doen. In plaats daarvan is het gebouwd voor specifieke taken op het apparaat, zoals het samenvatten van berichten. Net als gezichtsherkenningstechnologie om je telefoon te ontgrendelen, is dit iets dat je niet kunt veroorloven om op een internetverbinding te vertrouwen om een ​​model in de cloud te laten draaien.

Apple heeft zijn AI-mogelijkheden op het apparaat vergroot – genaamd Apple-intelligentie – om visuele herkenningsfuncties op te nemen, zoals u toestaan dingen opzoeken waarvan je een screenshot hebt gemaakt.

AI-modellen op apparaten zijn overal. De Pixel-telefoons van Google gebruiken het Gemini Nano-model van het bedrijf op maat Tensor G5-chip. Dat model maakt functies mogelijk zoals Magische keuwaarmee informatie uit uw e-mails, berichten en meer wordt weergegeven – precies wanneer u deze nodig heeft – zonder dat u er handmatig naar hoeft te zoeken.

Ontwikkelaars van telefoons, laptops, tablets en de hardware daarin bouwen apparaten met AI in gedachten. Maar het gaat verder dan deze. Denk eens aan de slimme horloges en brillen, die veel beperktere ruimte bieden dan zelfs de dunste telefoon?

“De systeemuitdagingen zijn heel verschillend”, zegt Vinesh Sukumar, hoofd generatieve AI en machine learning bij Qualcomm. “Kan ik dit allemaal op alle apparaten doen?”

Op dit moment is het antwoord meestal nee. De oplossing is redelijk eenvoudig. Wanneer een verzoek de mogelijkheden van het model overschrijdt, wordt de taak overgebracht naar een cloudgebaseerd model. Maar afhankelijk van hoe die overdracht wordt beheerd, kan het een van de belangrijkste voordelen van AI op het apparaat ondermijnen: het volledig in eigen hand houden van uw gegevens.

Meer private en veilige AI

Experts wijzen herhaaldelijk op privacy en veiligheid als belangrijke voordelen van AI op het apparaat. In een cloudsituatie vliegen gegevens alle kanten op en worden ze geconfronteerd met meer momenten van kwetsbaarheid. Als het op een gecodeerde telefoon- of laptopschijf blijft staan, is het veel gemakkelijker te beveiligen.

De gegevens die door de AI-modellen van uw apparaten worden gebruikt, kunnen zaken omvatten als uw voorkeuren, browsegeschiedenis of locatiegegevens. Hoewel dat allemaal essentieel is voor AI om uw ervaring te personaliseren op basis van uw voorkeuren, is het ook het soort informatie waarvan u niet wilt dat het in verkeerde handen valt.

“Waar we op aandringen is ervoor te zorgen dat de gebruiker toegang heeft en de enige eigenaar is van die gegevens”, aldus Sukumar.

De hand van iemand die een iPhone vasthoudt

Apple Intelligence gaf Siri een nieuwe look op de iPhone.

Numi Prasarn/CNET

Er zijn een paar verschillende manieren waarop het overbrengen van informatie kan worden afgehandeld om uw privacy te beschermen. Een belangrijke factor is dat u daarvoor toestemming moet geven. Sukumar zei dat het doel van Qualcomm is om ervoor te zorgen dat mensen geïnformeerd zijn en de mogelijkheid hebben om nee te zeggen wanneer een model het punt bereikt om naar de cloud te worden overgebracht.

Een andere aanpak – en een die kan werken naast het vereisen van toestemming van de gebruiker – is ervoor te zorgen dat alle gegevens die naar de cloud worden verzonden, veilig, kortstondig en tijdelijk worden verwerkt. Apple gebruikt bijvoorbeeld technologie die het noemt Privécloudcomputer. Offloaded gegevens worden alleen verwerkt op de eigen servers van Apple; alleen de minimaal benodigde gegevens voor de taak worden verzonden en niets daarvan wordt opgeslagen of toegankelijk gemaakt voor Apple.

AI zonder de AI-kosten

AI-modellen die op apparaten draaien, hebben voor zowel app-ontwikkelaars als gebruikers het voordeel dat de lopende kosten voor het gebruik ervan in principe niets zijn. Er is geen cloudservicebedrijf dat voor de energie en rekenkracht betaalt. Het zit allemaal in je telefoon. Uw broekzak is het datacenter.

Dat trok Charlie Chapman, ontwikkelaar van een noise machine-app, aan Donker geluidtot het gebruik van Apple’s Foundation Models Framework voor een tool waarmee je een mix van geluiden kunt creëren. Het AI-model op het apparaat genereert geen nieuwe audio, maar selecteert alleen verschillende bestaande geluiden en volumeniveaus om één mix te maken.

Omdat de AI op het apparaat draait, zijn er geen doorlopende kosten verbonden aan het maken van uw mixen. Voor een kleine ontwikkelaar als Chapman betekent dit dat er minder risico is verbonden aan de omvang van het gebruikersbestand van zijn app. “Als een influencer er willekeurig over postte en ik een ongelooflijk aantal gratis gebruikers kreeg, betekent dat niet dat ik plotseling failliet ga”, zei Chapman.

Lees meer: AI Essentials: 29 manieren waarop u Gen AI voor u kunt laten werken, volgens onze experts

Het gebrek aan doorlopende kosten van AI op het apparaat zorgt ervoor dat kleine, repetitieve taken zoals gegevensinvoer kunnen worden geautomatiseerd zonder enorme kosten of computercontracten, aldus Chapman. Het nadeel is dat de modellen op het apparaat verschillen op basis van het apparaat, waardoor ontwikkelaars nog meer werk zouden moeten doen om ervoor te zorgen dat hun apps op verschillende hardware werken.

Hoe meer AI-taken op consumentenapparaten worden afgehandeld, hoe minder AI-bedrijven hoeven te besteden aan de enorme uitbouw van datacenters, waardoor elk groot technologiebedrijf op zoek is naar contant geld en computerchips. “De infrastructuurkosten zijn zo enorm”, zei Sukumar. “Als je echt schaalvergroting wilt bewerkstelligen, wil je die kostenlast niet opdrijven.”

De toekomst draait om snelheid

Vooral als het gaat om functies op apparaten als brillen, horloges en telefoons, is het echte nut van AI en machine learning niet te vergelijken met de chatbot waarmee ik aan het begin van dit artikel een kattenverhaal maakte. Het zijn zaken als objectherkenning, navigatie en vertaling. Deze vereisen meer gespecialiseerde modellen en hardware, maar ze vereisen ook meer snelheid.

Satya, de professor van Carnegie Mellon, heeft onderzoek gedaan naar verschillende toepassingen van AI-modellen en of ze nauwkeurig en snel genoeg kunnen werken met behulp van modellen op apparaten. Als het gaat om de classificatie van objectafbeeldingen, doet de huidige technologie het redelijk goed: ze is in staat om binnen 100 milliseconden nauwkeurige resultaten te leveren. “Vijf jaar geleden waren we nergens in staat om dat soort nauwkeurigheid en snelheid te bereiken”, zei hij.

Beelden van de Oakley Meta Vanguard AI-bril met een landschap bedekt met Garmin-statistieken

Deze bijgesneden schermafbeelding van videobeelden gemaakt met de Oakley Meta Vanguard AI-bril toont trainingsgegevens afkomstig van het gekoppelde Garmin-horloge.

Vanessa Hand Orellana/CNET

Maar voor vier andere taken – objectdetectie, onmiddellijke segmentatie (het vermogen om objecten en hun vorm te herkennen), activiteitsherkenning en objecttracking – moeten apparaten nog steeds ergens anders naar een krachtigere computer worden overgebracht.

“Ik denk dat het de komende jaren, zo’n vijf jaar, heel spannend gaat worden, omdat hardwareleveranciers blijven proberen mobiele apparaten beter af te stemmen op AI”, zegt Satya. “Tegelijkertijd hebben we ook AI-algoritmen zelf die krachtiger, nauwkeuriger en rekenintensiever worden.”

De kansen zijn enorm. Satya zei dat apparaten in de toekomst mogelijk computer vision kunnen gebruiken om u te waarschuwen voordat u struikelt over oneven betaling, of u eraan te herinneren met wie u praat en context te bieden over uw eerdere communicatie met hen. Dit soort dingen vereisen meer gespecialiseerde AI en meer gespecialiseerde hardware.

‘Deze zullen tevoorschijn komen,’ zei Satya. “We kunnen ze aan de horizon zien, maar ze zijn er nog niet.”



Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in