De Duitse AI-startup Black Forest Labs (BFL), opgericht door voormalige Stability AI-ingenieursblijft zijn suite van open source AI-beeldgeneratoren uitbreiden met de release van FLUX.2 (klein)een nieuw paar kleine modellen – één open en één niet-commercieel – die de nadruk leggen op snelheid en lagere rekenvereisten, waarbij de modellen afbeeldingen genereren in minder dan een seconde op een Nvidia GB200.
De (kleine) serie, die gisteren werd vrijgegeven, omvat twee primaire parametertellingen: 4 miljard (4B) en 9 miljard (9B).
De modelgewichten zijn beschikbaar op Knuffelend gezicht en codeer aan Github.
Terwijl de grotere modellen in de FLUX.2-familie ((max) en (pro)), uitgebracht in november 2025de grenzen opzoeken van fotorealisme en “grounding search”-mogelijkheden, (klein) is specifiek ontworpen voor consumentenhardware en latentie-kritieke workflows.
Goed nieuws voor bedrijven is dat de 4B-versie beschikbaar is onder een Apache 2.0-licentie, wat betekent dat zij – of welke organisatie of ontwikkelaar dan ook – de (kleine) modellen voor hun commerciële doeleinden kunnen gebruiken zonder BFL of tussenpersonen een cent te betalen.
Er zijn echter een aantal AI-beeld- en mediacreatieplatforms, waaronder Fal.ai zijn het ook tegen extreem lage kosten gaan aanbieden via hun application programming interfaces (API’s) en als een direct-to-user tool. Het heeft al veel lof gekregen van vroege gebruikers vanwege zijn snelheid. Wat het mist op het gebied van algehele beeldkwaliteit, lijkt het goed te maken door de snelle generatiemogelijkheden, open licentie, betaalbaarheid en kleine footprint – ten goede komen aan bedrijven die beeldmodellen op hun eigen hardware of tegen extreem lage kosten willen draaien.
Dus hoe heeft BFL het gedaan en hoe kan het u ten goede komen? Lees verder voor meer informatie.
De ‘Pareto-grens’ van latentie
De technische filosofie achter (klein) is wat BFL-documentatie beschrijft als het definiëren van de “Pareto-grens” voor kwaliteit versus latentie. In eenvoudige bewoordingen hebben ze geprobeerd de maximaal mogelijke visuele betrouwbaarheid in een model te persen dat klein genoeg is om zonder merkbare vertraging op een gaming-pc thuis te draaien.
De door het bedrijf vrijgegeven prestatiestatistieken schetsen een beeld van een model dat is gebouwd voor interactiviteit in plaats van alleen maar batchgeneratie.
Volgens de officiële cijfers van Black Forest Labs zijn de (kleine) modellen in staat om op moderne hardware binnen 0,5 seconde afbeeldingen te genereren of te bewerken.
Zelfs op standaard consumenten-GPU’s zoals een RTX 3090 of 4070 is het 4B-model ontworpen om comfortabel binnen ongeveer 13 GB VRAM te passen.
Deze snelheid wordt bereikt door middel van ‘destillatie’, een proces waarbij een groter, complexer model een kleiner, efficiënter model ‘leert’ om zijn resultaten in minder stappen te benaderen. De gedestilleerde (klein) varianten vereisen slechts vier stappen om een beeld te genereren. Dit verandert het generatieproces effectief van een koffiepauzetaak in een vrijwel onmiddellijke taak, waardoor wat BFL op X (voorheen Twitter) beschrijft als “het ontwikkelen van ideeën van 0 → 1” in realtime mogelijk wordt gemaakt.
Onder de motorkap: uniforme architectuur
Historisch gezien waren voor het genereren en bewerken van afbeeldingen vaak verschillende pijplijnen of complexe adapters (zoals ControlNets) nodig. FLUX.2 (klein) probeert deze te verenigen.
De architectuur ondersteunt standaard tekst-naar-afbeelding, bewerking met één referentie en compositie met meerdere referenties zonder dat modellen hoeven te worden gewisseld.
Volgens de documentatie die op GitHub is vrijgegeven, ondersteunen de modellen:
-
Bewerken met meerdere referenties: Gebruikers kunnen maximaal vier referentieafbeeldingen uploaden (of tien op de speelplaats) om de stijl of structuur van de uitvoer te bepalen.
-
Kleurcontrole met hexadecimale code: Een vaak voorkomend pijnpunt voor ontwerpers is het verkrijgen van ‘precies die tint rood’. De nieuwe modellen accepteren specifieke hexadecimale codes in prompts (bijvoorbeeld #800020) om een nauwkeurige kleurweergave te forceren.
-
Gestructureerde prompting: Het model parseert JSON-achtige gestructureerde invoer voor strikt gedefinieerde composities, een functie die duidelijk gericht is op programmatische generatie en bedrijfspijplijnen.
De licentiesplitsing: open gewichten versus open source
Voor startups en ontwikkelaars die voortbouwen op de technologie van BFL is het begrijpen van het licentielandschap van deze release van cruciaal belang. BFL heeft een gesplitste strategie aangenomen die het gebruik van ‘hobbyisten/onderzoekers’ scheidt van ‘commerciële infrastructuur’.
-
FLUX.2 (klein) 4B: Uitgebracht onder Apache 2.0. Dit is een vrije softwarelicentie die commercieel gebruik, wijziging en herdistributie mogelijk maakt. Als u een betaalde app, een SaaS-platform of een game bouwt die AI-generatie integreert, kunt u het 4B-model royaltyvrij gebruiken.
-
FLUX.2 (klein) 9B & (ontwikkelaar): Uitgegeven onder de FLUX niet-commerciële licentie. Deze gewichten kunnen door onderzoekers en hobbyisten worden gedownload en ermee worden geëxperimenteerd, maar kunnen zonder afzonderlijke overeenkomst niet voor commerciële toepassingen worden gebruikt.
Dit onderscheid positioneert het 4B-model als een directe concurrent van andere open-weights-modellen zoals Stable Diffusion 3 Medium of SDXL, maar met een modernere architectuur en een tolerante licentie die juridische onduidelijkheid voor startups wegneemt.
Ecosysteemintegratie: ComfyUI en meer
BFL is zich er duidelijk van bewust dat een model slechts zo goed is als de tools waarmee het wordt uitgevoerd. Gelijktijdig met de introductie van het model heeft het team officiële workflow-sjablonen uitgebracht voor Comfortabelde op knooppunten gebaseerde interface die de standaard geïntegreerde ontwikkelomgeving (IDE) voor AI-kunstenaars is geworden.
De workflows – in het bijzonder image_flux2_klein_text_to_image.json en de bewerkingsvarianten: stellen gebruikers in staat de nieuwe mogelijkheden onmiddellijk naar bestaande pipelines te slepen en neer te zetten.
De reactie van de gemeenschap op sociale media concentreerde zich op deze workflow-integratie en de snelheid. In een bericht op X benadrukte het officiële Black Forest Labs-account het vermogen van het model om “snel een specifieke esthetiek te verkennen”, waarbij een video werd getoond waarin de stijl van een afbeelding onmiddellijk veranderde terwijl de gebruiker door de opties bladerde.
Waarom het belangrijk is voor AI-beslissers in ondernemingen
De release van FLUX.2 (klein) luidt een volwassenheid in de generatieve AI-markt in, waarbij de eerste fase van nieuwigheid voorbij gaat naar een periode die wordt bepaald door nut, integratie en snelheid.
Voor Lead AI Engineers die voortdurend jongleren met de noodzaak om snelheid en kwaliteit in evenwicht te brengen, is deze verschuiving cruciaal. Deze professionals, die de volledige levenscyclus van modellen beheren, van datavoorbereiding tot implementatie, worden vaak geconfronteerd met de dagelijkse uitdaging om snel evoluerende tools in bestaande workflows te integreren.
De beschikbaarheid van een gedestilleerd 4B-model onder een Apache 2.0-licentie biedt een praktische oplossing voor degenen die zich richten op snelle implementatie en afstemming om specifieke bedrijfsdoelen te bereiken, waardoor ze de latentieknelpunten kunnen omzeilen die doorgaans het genereren van hifi-afbeeldingen teisteren.
Voor Senior AI Engineers die zich richten op orkestratie en automatisering zijn de implicaties even groot. Deze experts zijn verantwoordelijk voor het bouwen van schaalbare AI-pijplijnen en het handhaven van de modelintegriteit in verschillende omgevingen, vaak terwijl ze onder strikte budgetbeperkingen werken.
Het lichtgewicht karakter van de (kleine) familie is een directe oplossing voor de uitdaging van het implementeren van efficiënte systemen met beperkte middelen. Door een model te gebruiken dat past binnen VRAM van consumentenkwaliteit, kunnen orkestratiespecialisten kosteneffectieve, lokale inferentiepijplijnen ontwerpen die de zware operationele kosten vermijden die gepaard gaan met enorme bedrijfseigen modellen.
Zelfs voor de directeur IT-beveiliging biedt de overstap naar capabele, lokaal uitvoerbare open-weight-modellen een duidelijk voordeel. Als taak om de organisatie te beschermen tegen cyberdreigingen en om beveiligingsoperaties met beperkte middelen te beheren, kan de afhankelijkheid van externe API’s voor gevoelige creatieve workflows een kwetsbaarheid zijn.
Een kwalitatief hoogstaand model dat lokaal draait, stelt beveiligingsleiders in staat AI-tools te bestraffen die bedrijfseigen gegevens binnen de bedrijfsfirewall houden, waardoor de operationele eisen van het bedrijf in evenwicht worden gebracht met de robuuste beveiligingsmaatregelen die ze moeten handhaven.


