Home Nieuws Google brengt FunctionGemma uit: een klein edge-model dat mobiele apparaten met natuurlijke...

Google brengt FunctionGemma uit: een klein edge-model dat mobiele apparaten met natuurlijke taal kan besturen

5
0
Google brengt FunctionGemma uit: een klein edge-model dat mobiele apparaten met natuurlijke taal kan besturen

Hoewel Gemini 3 nog steeds furore maakt, neemt Google niet de voet van het gas als het gaat om het uitbrengen van nieuwe modellen.

Gisteren heeft de bedrijf heeft FunctionGemma uitgebrachteen gespecialiseerd AI-model met 270 miljoen parameters, ontworpen om een ​​van de meest hardnekkige knelpunten in de moderne applicatieontwikkeling op te lossen: betrouwbaarheid aan de rand.

In tegenstelling tot chatbots voor algemene doeleinden is FunctionGemma ontworpen voor één enkel cruciaal hulpprogramma: het vertalen van gebruikersopdrachten in natuurlijke taal naar gestructureerde code die apps en apparaten daadwerkelijk kunnen uitvoeren, en dat alles zonder verbinding met de cloud.

De release markeert een belangrijke strategische spil voor Google DeepMind en het Google AI Developers-team. Terwijl de industrie de schaal van biljoenen parameters in de cloud blijft nastreven, zet FunctionGemma in op ‘Small Language Models’ (SLM’s) die lokaal op telefoons, browsers en IoT-apparaten draaien.

Voor AI-ingenieurs en bedrijfsbouwers biedt dit model een nieuwe architecturale primitief: een privacy-first “router” die complexe logica op het apparaat kan verwerken met een verwaarloosbare latentie.

FunctionGemma is direct beschikbaar om te downloaden op Knuffelend gezicht En Kaggle. Je kunt het model ook in actie zien door de Google AI Edge Gallery-app te downloaden in de Google Play Store.

De prestatiesprong

In de kern pakt FunctionGemma de ‘uitvoeringskloof’ in generatieve AI aan. Standaard grote taalmodellen (LLM’s) zijn uitstekend in conversatie, maar hebben vaak moeite om op betrouwbare wijze softwareacties te activeren, vooral op apparaten met beperkte middelen.

Volgens de interne ‘Mobile Actions’-evaluatie van Google worstelt een generiek klein model met de betrouwbaarheid en bereikt het slechts een basisnauwkeurigheid van 58% voor functieaanroeptaken. Toen FunctionGemma echter eenmaal voor dit specifieke doel was verfijnd, steeg de nauwkeurigheid naar 85%, waardoor een gespecialiseerd model ontstond dat hetzelfde succespercentage kan vertonen als modellen die vele malen groter zijn.

Grafiek met de FunctionGemma-prestaties voor en na fijnafstemming. Krediet: Google

Hierdoor kan het model meer aan dan alleen eenvoudige aan/uit-schakelaars; het kan complexe argumenten ontleden, zoals het identificeren van specifieke rastercoördinaten om spelmechanismen of gedetailleerde logica aan te sturen.

De release omvat meer dan alleen de modelgewichten. Google biedt ontwikkelaars een volledig ‘recept’, waaronder:

  • Het model: een 270M parametertransformator getraind op 6 biljoen tokens.

  • Trainingsgegevens: een dataset voor ‘Mobiele acties’ waarmee ontwikkelaars hun eigen agenten kunnen trainen.

  • Ecosysteemondersteuning: compatibiliteit met Hugging Face Transformers, Keras, Unsloth en NVIDIA NeMo-bibliotheken.

Omar Sanseviero, Developer Experience Lead bij Hugging Face, benadrukte de veelzijdigheid van de release op X (voorheen Twitter) en merkte op dat het model “ontworpen is om gespecialiseerd te zijn voor je eigen taken” en kan draaien op “je telefoon, browser of andere apparaten.”

Deze local-first-aanpak biedt drie duidelijke voordelen:

  • Privacy: persoonlijke gegevens (zoals agenda-items of contacten) verlaten het apparaat nooit.

  • Latentie: Acties gebeuren onmiddellijk zonder te wachten op een serverretour. Door het kleine formaat is de snelheid waarmee de invoer wordt verwerkt aanzienlijk, vooral met toegang tot versnellers zoals GPU’s en NPU’s.

  • Kosten: Ontwikkelaars betalen geen API-kosten per token voor eenvoudige interacties.

Voor AI-bouwers: een nieuw patroon voor productieworkflows

Voor bedrijfsontwikkelaars en systeemarchitecten suggereert FunctionGemma een verschuiving van monolithische AI-systemen naar samengestelde systemen. In plaats van elk klein gebruikersverzoek naar een enorm, duur cloudmodel zoals GPT-4 of Gemini 1.5 Pro te leiden, kunnen bouwers nu FunctionGemma inzetten als een intelligente “verkeerscontroller” aan de rand.

Dit is hoe AI-bouwers het gebruik van FunctionGemma in de productie zouden moeten conceptualiseren:

1. De architectuur van de ‘verkeersregelaar’: In een productieomgeving kan FunctionGemma fungeren als eerste verdedigingslinie. Het bevindt zich op het apparaat van de gebruiker en verwerkt direct algemene, hoogfrequente opdrachten (navigatie, mediabediening, basisgegevensinvoer). Als een verzoek diepgaande redenering of wereldkennis vereist, kan het model die behoefte identificeren en het verzoek doorsturen naar een groter cloudmodel. Deze hybride aanpak vermindert de kosten en latentie van cloud-inferentie drastisch. Dit maakt gebruiksscenario’s mogelijk, zoals het routeren van zoekopdrachten naar de juiste subagent.

2. Deterministische betrouwbaarheid ten opzichte van creatieve chaos: Bedrijven hebben hun bank- of agenda-apps zelden nodig om ‘creatief’ te zijn. Ze hebben ze nodig om accuraat te zijn. De sprong naar een nauwkeurigheid van 85% bevestigt dat specialisatie belangrijker is dan omvang. Door dit kleine model af te stemmen op domeinspecifieke gegevens (bijvoorbeeld eigen bedrijfs-API’s) ontstaat een uiterst betrouwbaar hulpmiddel dat zich voorspelbaar gedraagt ​​– een vereiste voor productie-implementatie.

3. Privacy-First-naleving: Voor sectoren als de gezondheidszorg, de financiële sector of beveiligde bedrijfsactiviteiten is het verzenden van gegevens naar de cloud vaak een compliancerisico. Omdat FunctionGemma efficiënt genoeg is om op het apparaat te draaien (compatibel met NVIDIA Jetson, mobiele CPU’s en browsergebaseerde Transformers.js), hoeven gevoelige gegevens zoals PII of eigen opdrachten nooit het lokale netwerk te verlaten.

Licenties: open-achtig met vangrails

FunctionGemma wordt vrijgegeven onder de gewoonte van Google Gebruiksvoorwaarden van Gemma. Voor zakelijke en commerciële ontwikkelaars is dit een cruciaal onderscheid met standaard open-sourcelicenties zoals MIT of Apache 2.0.

Hoewel Google Gemma beschrijft als een ‘open model’, is het niet strikt ‘Open Source’ volgens de Open Source Initiative (OSI)-definitie.

De licentie staat gratis commercieel gebruik, herdistributie en wijziging toe, maar omvat specifieke gebruiksbeperkingen. Het is ontwikkelaars verboden het model te gebruiken voor beperkte activiteiten (zoals het genereren van haatzaaiende uitlatingen of malware), en Google behoudt zich het recht voor om deze voorwaarden bij te werken.

Voor de overgrote meerderheid van de startups en ontwikkelaars is de licentie tolerant genoeg om commerciële producten te bouwen. Teams die technologieën voor tweeërlei gebruik ontwikkelen of technologieën vereisen die strikte copyleft-vrijheid vereisen, moeten echter de specifieke clausules met betrekking tot “schadelijk gebruik” en attributie herzien.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in