
Een embedding is een numerieke vector — een lijst van honderden tot duizenden getallen — die de semantische betekenis van een stuk tekst representeert in een hoog-dimensionale wiskundige ruimte. Embedding-modellen zetten woorden, zinnen of hele documenten om naar deze compacte vectoren, waarbij semantisch vergelijkbare inhoud dicht bij elkaar wordt geplaatst en ongelijke inhoud ver uit elkaar. De zin "Hoe reset ik mijn wachtwoord?" en "Ik ben mijn inloggegevens vergeten" zouden vectoren hebben die bijna dezelfde richting wijzen ondanks dat ze geen woorden delen, omdat ze dezelfde intentie uitdrukken. Embeddings zijn de fundamentele technologie achter semantisch zoeken, aanbevelingssystemen en Retrieval-Augmented Generation (RAG).
Waarom het belangrijk is
Embeddings lossen een fundamenteel probleem op: hoe laat je een computer begrijpen dat "auto" en "automobiel" hetzelfde betekenen, of dat een klant die vraagt "Hoe zeg ik op?" gerelateerd is aan je documentatie over "Abonnement beëindigen"? Traditioneel zoeken op trefwoorden faalt hier volledig. Embeddings maken semantisch zoeken mogelijk — inhoud vinden op basis van betekenis in plaats van exacte woordovereenkomsten. Deze mogelijkheid vormt de basis voor RAG-systemen die LLM's toegang geven tot organisatiekennis, aanbevelingsmotoren die relevante inhoud naar boven halen, en clusteralgoritmen die documenten automatisch op onderwerp ordenen. Voor elke AI-applicatie die tekst moet doorzoeken, vergelijken of organiseren, zijn embeddings de mogelijk makende technologie.
Hoe het werkt
Embedding-modellen zijn neurale netwerken die specifiek getraind zijn om betekenisvolle vectorrepresentaties te produceren. Ze leren van enorme datasets aan tekst en ontwikkelen het vermogen om gerelateerde concepten dicht bij elkaar in de vectorruimte te plaatsen. Wanneer je tekst naar een embedding-model stuurt, produceert het een vector van vaste lengte (gebruikelijk 768, 1536 of 3072 dimensies). De geometrische relaties tussen deze vectoren coderen semantische relaties: de vector voor "koning" minus "man" plus "vrouw" levert een vector op dicht bij "koningin." In de praktijk wordt de gelijkenis tussen embeddings gemeten met cosinus-similariteit (de hoek tussen vectoren) of het inproduct. Je genereert embeddings eenmalig voor je documentcorpus, slaat ze op in een vectordatabase, en genereert op het moment van de zoekvraag een embedding voor de gebruikersvraag, waarna je de meest vergelijkbare opgeslagen vectoren opzoekt.
Voorbeeld
Een advocatenkantoor bouwt een intern kennissysteem over 50.000 juridische documenten. Traditioneel zoeken vereist dat juristen de exacte termen raden die in documenten zijn gebruikt — zoeken op "schending van fiduciaire plicht" mist documenten die "overtreding van trustee-verplichtingen" bespreken ondanks identieke juridische betekenis. Door embeddings te genereren voor elke documentparagraaf, maakt het kantoor semantisch zoeken mogelijk: een zoekopdracht over "bestuurdersaansprakelijkheid voor misleidende aandeelhouderscommunicatie" haalt relevante secties op uit jurisprudentie, regulatory filings en interne memo's, ongeacht de specifieke terminologie. Het systeem vindt relevante precedenten die zoeken op trefwoorden zou missen, en reduceert de onderzoekstijd van uren naar minuten. Gecombineerd met een LLM om de opgehaalde passages te synthetiseren heeft het kantoor een RAG-aangedreven juridische onderzoeksassistent die juridische concepten begrijpt in plaats van alleen woorden te matchen.