Home Nieuws Je hebt Sam Altman of zijn grote, mooie LLM niet nodig

Je hebt Sam Altman of zijn grote, mooie LLM niet nodig

5
0
Je hebt Sam Altman of zijn grote, mooie LLM niet nodig

We zijn hier eerder geweest.

Op zoveel cruciale momenten in onze adoptie van digitale technologie verwarren mensen en bedrijven de ommuurde tuin van een bedrijf met het bredere, krachtigere netwerk daaronder. In de jaren negentig geloofden veel mensen oprecht dat AOL het internet was. Toen ik in 2013 Facebook verliet, vroegen honderden mensen hoe ik zou functioneren ‘zonder internet’. Keer op keer overschaduwen verpakte producten (besturingssystemen, appstores, streamingdiensten) stillere, goedkopere bottom-up-alternatieven zoals Linux of torrents. We vergeten dat ze bestaan.

Vandaag maken we dezelfde fout met grote taalmodellen.

{“blockType”:mv-promo-block”,”data”:{“imageDesktopUrl”:https://images.fastcompany.com/image/upload/f_webp,q_auto,c_fit/wp-cms-2/2025/10/adus-labs-16x 9-1.png”, “imageMobileUrl”:https://images.fastcompany.com/image/upload/f_webp,q_auto,c_fit/wp-cms-2/2025/10/anduslabs.png”, “eyebrow”:”, “headline”: Download meer inzichten van Douglas Rushkoff en Andus Labs.”,”dek “Blijf op de hoogte van de laatste trends over hoe AI de cultuur en het bedrijfsleven hervormt, door de kritische lens van menselijke keuzevrijheid.” Meer”,”ctaUrl”:https://www.anduslabs.com/perspectives”, thema”:{“bg”:#1a064b”, “text”:#ffffff”, “eyebrow”:#9aa2aa”, subhed”:#ffffff”, “butto nBg”#ffffff”, “buttonHoverBg”:91420530,”buttonText”:false,”slug””}}

Voor velen van ons: “AI‘betekent nu kiezen uit een handvol commerciële LLM’s zoals ChatGPT, Claude, Tweelingof Grok– en misschien zelfs degene kiezen die past bij onze culturele of politieke gevoeligheden. Maar deze systemen delen belangrijke structurele beperkingen: het zijn gecentraliseerde, dure, energie-intensieve operaties die afhankelijk zijn van enorme datacenters, zeldzame chips en eigen datastores. Omdat ze op ongeveer hetzelfde openbare internet zijn getraind, hebben ze ook de neiging dezelfde algemene, afgevlakte resultaten te genereren. Bedrijven die ze in de groothandel gebruiken, vervangen vaak hun eigen expertise door recombinaties van wat er al beschikbaar is.

Dit is hoe AI met bedrijven zal doen wat sociale media met publicaties deden, en wat het vroege internet deed met retailers die zonder strategie online gingen. Het gebruik van dezelfde generieke tools als alle anderen levert dezelfde generieke resultaten op. Erger nog, het uitbesteden van kernkennisprocessen aan een black-boxdienst vervangt de langetermijnontwikkeling van interne capaciteit – vooral junior medewerkers die door de praktijk leren – door goedkopere maar toekomst-eroderende automatisering.

De grenzen van gecentraliseerde AI

Commerciële taalmodellen zijn geoptimaliseerd voor algemeenheid en schaal. Die schaal is indrukwekkend, maar zorgt voor reële beperkingen voor organisaties. Gecentraliseerde LLM’s vereisen:

  • Grote hoeveelheden trainingsgegevens afkomstig van het open web
  • Dure serverinfrastructuur en energieverbruik
  • Constante externe connectiviteit
  • Bedrijfsmodellen die zijn opgebouwd rond abonnementen, tokenkosten of upselling

Voor veel bedrijven worden deze modellen een nieuwe uitbestede afhankelijkheid. Elke keer dat een commerciële LLM zichzelf bijwerkt (wat wekelijks kan gebeuren), veranderen uw workflows onder u. Uw bedrijfseigen gegevens kunnen worden blootgesteld aan API’s van derden. En uw differentiatie erodeert, omdat de kennis van het model afkomstig is uit hetzelfde publieke corpus dat beschikbaar is voor uw concurrenten.

Ondertussen heeft het verhaal rond AI bedrijven ertoe aangezet te geloven dat dit gecentraliseerde pad het enige haalbare is: dat het bereiken van zinvolle AI-capaciteiten enorme datacentra, miljardentrainingen en deelname aan een mondiale race naar kunstmatige algemene intelligentie vereist.

Maar dit alles is geen vereiste voor een productief gebruik van AI.

Er bestaat al een praktisch alternatief

Je hebt geen modellen op grensschaal nodig om van AI te kunnen profiteren. Een groeiend ecosysteem van open source, lokaal inzetbare taalmodellen biedt organisaties veel meer autonomie, privacy en controle.

Een Raspberry Pi van €100,- of een andere bescheiden thuis- of kantoorserver, kan een compact open-sourcemodel draaien met behulp van tools als Ollama of GPT4All. Deze modellen ‘leren’ niet ‘onmiddellijk’ zoals mensen dat doen, maar ze kunnen antwoorden van hoge kwaliteit produceren terwijl ze volledig binnen uw eigen omgeving blijven. Belangrijker nog is dat ze kunnen worden gekoppeld aan een particuliere kennisbank met behulp van retrievalsystemen. Dat betekent dat het model kan verwijzen naar uw eigen onderzoeksbibliotheek, interne documentatie of samengestelde openbare bronnen zoals Wikipedia – zonder training op het hele internet en zonder uw gegevens naar een externe provider te sturen.

Deze systemen bouwen voort op uw eigen gegevens in plaats van deze te extraheren, versterken uw institutionele geheugen in plaats van deze te commoditiseren, en draaien tegen een fractie van de kosten.

Deze aanpak stelt een organisatie in staat een AI-systeem te creëren dat is afgestemd op haar werkelijke prioriteiten, waarden en domeinexpertise. Het wordt een privéassistent in plaats van een algemeen product dat wordt gevormd door de prikkels van een biljoenenplatform. En het alternatief hoeft geen eenzame inspanning te zijn.

Buurten, campussen of bedrijfsafdelingen kunnen een ‘mesh-netwerk’ vormen: een reeks apparaten die rechtstreeks met elkaar zijn verbonden via WiFi of kabels in plaats van via het openbare internet. Eén knooppunt kan een lokaal model hosten; anderen kunnen hun eigen datastores bijdragen of achterhouden. In plaats van dat één bedrijf de infrastructuur en de kennis bezit, krijg je iets dat dichter in de buurt komt van een community data commons of een digitaal bibliotheeksysteem.

Projecten zoals LoreKeeper’s Guild van het High Desert Institute experimenteren al met deze aanpak. Hun ‘Librarian’-initiatief voorziet in lokale bibliotheken die fungeren als datahubs voor AI-systemen in mesh-netwerken – veerkrachtig genoeg om zelfs tijdens connectiviteitsverstoringen te functioneren. Maar hun diepere innovatie is architectonisch. Deze systemen geven organisaties toegang tot krachtige taalmogelijkheden zonder abonnementskosten, lock-in, gegevensextractie of openbaarmaking van bedrijfseigen informatie.

Lokale of gemeenschapsmodellen stellen organisaties in staat om:

  • Beheer hun eigen gegevens
  • Behoud volledige privacy door de berekeningen ter plaatse te houden
  • Reduceer de latentie tot bijna nul
  • Behouden en versterken van interne expertise
  • Vermijd terugkerende token- of API-kosten

En ze doen dit met behulp van energie- en computerbronnen die ordes van grootte lager zijn dan die vereist door modellen op grensschaal.

Waarom gedecentraliseerde AI nu belangrijk is

Hoe meer instellingen gelokaliseerde of mesh-gebaseerde AI adopteren, hoe minder ze gedwongen zijn de gecentraliseerde bedrijven te financieren die in de richting van AGI racen. Die bedrijven hebben een effectief argument aangevoerd: dat geavanceerde AI alleen mogelijk is via hun diensten. Maar veel van waar organisaties voor betalen, is niet van henzelf productiviteit– het is de bouw van enorme serverparken, de aanschaf van zeldzame chips en langetermijnweddenschappen op energie-intensieve infrastructuur.

Interne of door de gemeenschap beheerde systemen kunnen daarentegen één keer worden ingezet en voor onbepaalde tijd worden onderhouden. Een week van installatie kan een decennium aan abonnementsbetalingen elimineren. Een kleine landelijke bibliotheek heeft al de haalbaarheid aangetoond van het exploiteren van een zelf-gehost LLM-knooppunt; een Fortune 500-bedrijf zou geen moeite moeten hebben om hetzelfde te doen.

Toch suggereert de geschiedenis dat de meeste organisaties de gemakkelijke optie zullen kiezen in plaats van de autonome optie. Er waren maar weinig mensen die rechtstreeks toegang hadden tot het vroege internet; ze kozen voor AOL. Tegenwoordig zullen velen blijven kiezen voor gecentraliseerde AI-diensten, zelfs als deze de minste controle bieden. Maar wat sociale-mediabedrijven deden met bedrijven die hen voor ‘het internet’ hielden, zal mild zijn vergeleken met wat er gebeurt als bedrijven deze propriëtaire interfaces voor ‘AI’ zelf aanzien.

Gedecentraliseerde AI bestaat al. De vraag is nu of we ervoor zullen kiezen om het te gebruiken.

{“blockType”:mv-promo-block”,”data”:{“imageDesktopUrl”:https://images.fastcompany.com/image/upload/f_webp,q_auto,c_fit/wp-cms-2/2025/10/adus-labs-16x 9-1.png “imageMobileUrl”https://images.fastcompany.com/image/upload/f_webp,q_auto,c_fit/wp-cms-2/2025/10/anduslabs.png”,”eyebrow” “headline” “Download meer inzichten van Douglas Rushkoff en Andus Labs.”,”dek “Blijf op de hoogte van de laatste trends over hoe AI de cultuur en het bedrijfsleven hervormt, door de kritische lens van menselijke keuzevrijheid.” Meer”,”ctaUrl”:https://www.anduslabs.com/perspectives”, thema”:{“bg”:#1a064b”, “text”:#ffffff”, “eyebrow”:#9aa2aa”, subhed”:#ffffff”, “butto nBg”#ffffff”, “buttonHoverBg”:91420530,”buttonText”:false,”slug””}}

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in