
Een Large Language Model (LLM) is een neuraal netwerk met miljarden parameters dat getraind is op enorme hoeveelheden tekst om mensachtige taal te begrijpen en genereren. Moderne LLM's zoals GPT-4, Claude en Llama zijn gebouwd op de transformer-architectuur en leren statistische patronen over biljoenen tokens aan tekst, code en gestructureerde data. Het woord 'large' verwijst naar zowel de omvang van de trainingsdata als het aantal parameters — variërend van 7 miljard voor kleinere open-source modellen tot honderden miljarden voor frontier-modellen. LLM's vormen de basis van vrijwel alle moderne AI-toepassingen, van chatbots en code-assistenten tot autonome agents en kennissystemen voor bedrijven.
Waarom het belangrijk is
LLM's vertegenwoordigen de belangrijkste vooruitgang in kunstmatige intelligentie sinds de deep learning-revolutie. Ze zijn de motor achter elke AI-chatbot, code-assistent, zoekverbetering en autonome agent die vandaag in productie draait. Voor bedrijven is het begrijpen van LLM's essentieel voor het evalueren van AI-leveranciers, het inschatten van kosten (die schalen met modelgrootte en tokenverbruik), en het identificeren van welke problemen AI realistisch kan oplossen. De keuze tussen verschillende LLM's — open-source vs. proprietary, klein vs. groot, general-purpose vs. fine-tuned — heeft directe impact op kwaliteit, kosten en dataprivacy van applicaties.
Hoe het werkt
Een LLM leert door tijdens pre-training enorme hoeveelheden tekst te verwerken, waarbij het een interne representatie ontwikkelt van taalstructuur, feiten en redeneerpatronen. Tijdens inferentie genereert het tekst één token per keer: gegeven een invoersequentie voorspelt het model het meest waarschijnlijke volgende token, voegt het toe en herhaalt. Dit autoregressieve proces produceert coherente tekst die instructies kan opvolgen, vragen beantwoorden, code schrijven en redeneren over complexe problemen. De capaciteiten van het model komen voort uit schaal — grotere modellen getraind op meer data vertonen kwalitatief nieuwe vaardigheden zoals chain-of-thought redeneren en few-shot leren die bij kleinere modellen volledig ontbreken.
Voorbeeld
Een bedrijf wil een interne kennisassistent bouwen die medewerkervragen beantwoordt over HR-beleid, technische documentatie en projectstatus. Ze evalueren drie LLM's: een klein open-source model (7B parameters) dat op eigen servers draait voor dataprivacy, een middenklasse API-model voor eenvoudige queries met hoog volume tegen lage kosten, en een frontier-model voor complexe meerstaps-redeneertaken. Het kleine model handelt FAQ-achtige vragen af tegen vrijwel nul marginale kosten. Het middenklasse model verwerkt honderden documenten en genereert gestructureerde samenvattingen. Het frontier-model pakt ambigue vragen aan die synthese over meerdere bronnen vereisen — een taak waar kleinere modellen hallucineren of oppervlakkige antwoorden geven. Deze gelaagde aanpak balanceert kosten, kwaliteit en privacy over de hele organisatie.