Joseph Tsidulko | Senior-schrijver | 29 juli 2025
Grote taalmodellen (Large Language Models of kortweg LLM's) is een variant van kunstmatige intelligentie die momenteel sterk in populariteit toeneemt. Ze zijn voornamelijk ontworpen om te reageren op gebruikersinvoer via tekst, spraak of andere middelen, op een wijze die lijkt op die van mensen. Door middel van training met grote hoeveelheden tekstgegevens leren LLM's om het volgende woord of een reeks van woorden te voorspellen op basis van de context die wordt geboden in een zogeheten prompt. Hierbij kunnen ze zelfs de schrijfstijl van een bepaalde auteur of genre nabootsen.
Na de eerste ontwikkelingen in laboratoria kwamen LLM's in de vroege jaren 2020 ineens midden in de publieke belangstelling te staan. Dankzij het indrukwekkende vermogen om vragen te interpreteren en relevante reacties te produceren, hebben ze sindsdien hun plek gevonden als zowel standalone producten als functionaliteit met toegevoegde waarde die is ingebed in zakelijke software. Hierin bieden ze natuurlijke taalverwerking, machinevertaling, genereren van content, chatbots, samenvatten van documenten en nog veel meer.
Ook nu nog blijft deze technologie zich snel ontwikkelen. Er worden steeds grotere datasets in opgenomen en meer lagen van training en tuning toegevoegd om de modellen beter te laten presteren. Bredere en diepere training, mogelijk gemaakt door de steeds krachtigere computing-infrastructuur, levert steeds geavanceerdere redeneermogelijkheden op waarmee plannen kunnen worden gegenereerd om organisaties te helpen hun doelen te realiseren. Deze redeneringsmogelijkheden ondersteunen ook de functionaliteit van AI-agents, die met behulp van geavanceerde LLM's taken uitvoeren die menselijke operators voor hen hebben geconfigureerd.
Een groot taalmodel (Large Language Model of LLM) is een AI-systeem (Artificial Intelligence, kunstmatige intelligentie) dat is getraind met een enorme dataset die vaak miljarden woorden omvat afkomstig uit boeken, het internet en andere bronnen, waarmee contextueel relevante antwoorden op vragen worden gegenereerd die lijken op de reacties van echte mensen. LLM's zijn ontworpen om vragen (‘prompts’ in LLM-terminologie) te begrijpen en reacties in natuurlijke taal te genereren. Daarom kunnen ze taken uitvoeren zoals vragen van klanten beantwoorden, informatie in rapporten samenvatten, vertalen van de ene taal naar een andere, gedichten of softwarecode schrijven en eerste concepten van e-mails genereren. LLM's hebben over het algemeen een geavanceerde kennis van de grammatica en semantiek van de talen waarin ze zijn getraind. Ze kunnen worden geconfigureerd om aan de hand van de eigen data van een organisatie antwoorden te geven die uniek zijn voor de organisatie.
Ondanks deze indrukwekkende mogelijkheden moeten gebruikers zich bewust zijn van de beperkingen van LLM's. Als de data verouderd zijn of een prompt slecht is geformuleerd, kan dat leiden tot fouten. Denk bijvoorbeeld aan een chatbot die een verkeerd antwoord geeft op een vraag over de producten van een bedrijf. Een gebrek aan voldoende gegevens kan ervoor zorgen dat LLM's antwoorden gaan verzinnen ofwel ‘hallucineren’. En hoewel LLM's goed zijn in voorspellen, deden ze het in het verleden niet bepaald goed als ze moesten uitleggen hoe ze tot een bepaalde conclusie kwamen. Dit zijn enkele gebieden waar hard wordt gewerkt om de nieuwere LLM's te verbeteren.
Toch zijn LLM's een aanzienlijke stap vooruit als het gaat om natuurlijke taalverwerking. De zakelijke mogelijkheden zijn talrijk en nieuwe toepassingen worden voortdurend en snel ontwikkeld en ingevoerd.
Voornaamste conclusies
Natuurlijke taalverwerking is al sinds de 1960s een actief gebied van onderzoek naar kunstmatige intelligentie. De eerste taalmodellen werden al decennia geleden ontwikkeld. LLM's betekenden een grote stap vooruit door het gebruik van deep learning. Deze meer geavanceerde modellen komen tot stand doordat machine learning bovenop neurale netwerken wordt geplaatst. Een ander kenmerk van LLM's is dat het basismodel wordt getraind zonder menselijke tussenkomst door het labelen van data, in een proces dat 'self-supervised learning' wordt genoemd.
Het moderne concept van een LLM zag het daglicht in 2017, in een baanbrekend artikel van Google. Hierin werd een krachtige nieuwe architectuur beschreven die 'transformer networks' werd genoemd. Transformers pasten een mechanisme toe dat 'self-attention' wordt genoemd. Dit maakt parallelle verwerking mogelijk, waardoor modellen sneller konden worden getraind en geïmplementeerd en ook de kosten daarvan werden gereduceerd. OpenAI bouwde op basis van deze architectuur GPT-1, wat velen beschouwen als het eerste moderne LLM.
Dit ontging het bedrijfsleven natuurlijk niet. Bedrijven ontdekken snel dat LLM's veel uiteenlopende gebruiksscenario's kunnen ondersteunen en een enorm potentieel bieden om de bedrijfsvoering productiever en efficiënter te maken, maar ook responsiever voor klanten.
LLM's zijn een van de vele typen AI die zijn ontwikkeld door het proces van machine learning. Er zijn echter enkele elementen die deze modellen definiëren en waardoor ze zich onderscheiden. Allereerst is er de grootte. Het woord "grote" in "grote taalmodellen" verwijst naar het aantal parameters waarmee een definitieve output wordt berekend, evenals de hoeveelheid data waarmee het model wordt getraind door die parameters aan te passen.
LLM's zijn de motor onder de motorkap bij veel uiteenlopende geavanceerde toepassingen. Het grote publiek maakte grotendeels kennis met hun verbluffende mogelijkheden toen ChatGPT op het toneel verscheen: de browserversie van het GPT-3.5-model van OpenAI en recentere versies, zoals GPT-4o en GPT-4. Maar de voordelen reiken verder, naar vele uiteenlopende aspecten van het bedrijfsleven. Hier kunnen LLM's pronken met hun vaardigheden in branches en bedrijfsdivisies zoals financiële dienstverlening, HR, retail, marketing en sales, softwareontwikkeling, customer support en gezondheidszorg.
Populaire zakelijke toepassingen van LLM's zijn chatbots voor customer service, analyses van klantsentiment en vertaaldiensten die contextuele teksten leveren die informeel klinken en natuurlijk overkomen. Achter de schermen voeren LLM's ook meer gespecialiseerde taken uit, zoals eiwitstructuren voorspellen bij farmaceutisch onderzoek, softwarecode schrijven en de agents aansturen waarmee bedrijven steeds meer bedrijfsprocessen automatiseren.
LLM's worden toegepast een steeds groter wordend aantal zakelijke gebruiksscenario's. Veel bedrijven gebruiken nu bijvoorbeeld chatbots als onderdeel van hun customer service-strategieën. Maar omdat deze modellen zo veelzijdig zijn, passen creatieve ontwikkelaars van bedrijfssoftware de onderliggende technologie toe om een breed scala aan taken aan te pakken, die verder gaan dan alleen het genereren van taalkundige reacties.
1. Customer support automatiseren
Customer support is de meest voor de hand liggende toepassing van LLM's in het bedrijfsleven, met name voor klanten. Conversationele gebruikersinterfaces of chatbots, aangestuurd door taalmodellen, kunnen op elk moment een bijna onbeperkt aantal vragen afhandelen. Nu responstijden als gevolg van het tekort aan callcentermedewerkers oplopen (een belangrijke bron van frustratie bij klanten), kan dit helpen om klanten sneller te helpen.
Integratie van chatbots met andere LLM-aangestuurde toepassingen kan opvolgacties na een supportaanvraag automatiseren. Denk hierbij aan het verzenden van een vervangend machineonderdeel, een document of een enquête. LLM's kunnen ook menselijke agents rechtstreeks ondersteunen en hen snelle informatie, sentimentanalyse, vertaling en samenvattingen van interacties bieden.
Een fondsenbeheerder die actief is in meer dan 50 landen en 80 talen, maakt gebruik van deze mogelijkheden om het zijn klanten gemakkelijker te maken de financiële instrumenten te vinden en te kiezen die het beste hun behoeften vervullen. De specialist voor beheer van pensioengelden moderniseerde zijn customer support met een zelfgebouwde chatbot die het serviceniveau verhoogde met 150% en de operationele kosten reduceerde met 30%. Klanten kunnen nu naar de website van het bedrijf gaan en de chatbot vragen stellen over hun rekeningen, op elk moment van de dag en in vele talen.
2. Content genereren en samenvatten
Met LLM's kan oorspronkelijke content worden gemaakt of bestaande content worden samengevat. Beide gebruiksscenario's zijn zeer nuttig voor grote en kleine bedrijven. Zij zetten generatieve AI aan het werk om rapporten, e-mails, blogs, marketingmateriaal en berichten op sociale media te schrijven, terwijl ze profiteren van de mogelijkheid van LLM's om die gegenereerde content aan te passen aan specifieke groepen of individuele klanten.
Door middel van samenvatten worden grote hoeveelheden informatie met bewustzijn van het domein gecondenseerd in een vorm waarmee mensen de informatie gemakkelijker snel kunnen doornemen en opnemen. LLM's doen dit door het belang van verschillende ideeën binnen een tekst te beoordelen en vervolgens belangrijke secties te extraheren, of door beknopte overzichten te genereren van wat volgens hen de meest relevante en kritieke informatie uit de oorspronkelijke tekst is.
LLM's krijgen soms de kritiek dat ze "samenvatten tot gemiddeld", wat inhoudt dat hun samenvattingen veel te algemeen zijn en belangrijke details of belangrijke aandachtspunten uit het oorspronkelijke materiaal weglaten. Het is ook lastig om de betrouwbaarheid van samenvattingen te meten en de prestaties van verschillende modellen op basis daarvan te rangschikken. Toch voeren bedrijven deze functionaliteit met enthousiasme in.
Een toonaangevend cloudcommunicatiebedrijf implementeerde LLM's om automatisch transcripties samen te vatten van honderden supporttickets en transcripties van chats die dagelijks plaatsvinden in bijna twintig talen. Met behulp van deze samenvattingen kunnen supporttechnici nu klantuitdagingen sneller oplossen en de algehele ervaring verbeteren.
3. Vertalen
De oorspronkelijke bedoeling van Google bij de ontwikkeling van transformers, was om machines beter te laten vertalen van de ene taal naar de anderen. Pas later maakte het model indruk op ontwikkelaars door de bredere mogelijkheden die het bood. De eerste implementaties door de ontwikkelaars van deze architectuur bereikten hun doel: ze leverden ongeëvenaarde prestaties bij het vertalen van Engels naar Duits, met een model dat in veel minder tijd en met minder computingresources kon worden getraind dan zijn voorgangers.
Moderne LLM's zijn nu al veel verder dan dit beperkte gebruiksscenario. Hoewel de meeste LLM's niet specifiek zijn getraind voor vertalen, doen ze het nog steeds zeer goed wanneer ze een tekst in de ene taal moeten interpreteren en deze helder verwoorden in een andere taal, als ze uitgebreid zijn getraind op datasets in beide talen. Deze doorbraak in het slechten van taalbarrières is zeer waardevol voor ondernemingen die in meerdere landen actief zijn. Multinationale bedrijven maken gebruik van geavanceerde taaldiensten om bijvoorbeeld meertalige ondersteuning voor hun producten en diensten te ontwikkelen, gidsen, tutorials en marketingmiddelen te vertalen en met bestaande leermiddelen werknemers op te leiden wanneer ze markten in nieuwe landen betreden.
Vooruitgang bij multimodale modellen
Er wordt veel onderzoek gedaan naar het gebruik van LLM's als basismodellen voor AI die outputs genereert in andere modaliteiten dan taal. De indrukwekkende veelzijdigheid van LLM's maakt het mogelijk om door middel van fine-tuning met gelabelde gegevens audio, afbeeldingen en zelfs video te interpreteren en te maken. Deze modellen die prompts ontvangen of outputs genereren in andere modaliteiten dan taal, worden soms grote multimodale modellen (Large Multimodal Models) of LLM's genoemd.
Milieuoverwegingen
LLM's ontwikkelen en op grote schaal exploiteren, vereist doorgaans zeer veel rekenkracht. Het kan enorme hoeveelheden stroom kosten om vele weken lang één model te trainen in een cluster van honderden of soms duizenden GPU's. En nadat een succesvol model is geïmplementeerd, vereist de infrastructuur die inferentie uitvoert veel elektriciteit om de aanhoudende stroom van gebruikersvragen te beantwoorden.
GPT-4 trainen kost naar schatting 50 gigawattuur aan stroom. Ter vergelijking: 50 gigawattuur is wat 4500 tot 5000 gemiddelde Amerikaanse huishoudens gedurende één jaar verbruiken. Op dit moment slurpt ChatGPT elke dag honderden megawattuur aan stroom om miljoenen zoekopdrachten af te handelen en te beantwoorden. Naarmate taalmodellen groter worden, kunnen de zorgen over energieverbruik en duurzaamheid urgenter worden. Om die reden leiden AI-bedrijven de zoektocht naar alternatieve energiebronnen, zodat ze hun CO2-voetafdruk kunnen verminderen.
Oracle stelt de kracht van LLM's beschikbaar voor ondernemingen, zonder dat deze zich zorgen hoeven te maken om wat er onder de motorkap gebeurt of hoeveel stroom deze opwindende technologie verbruikt. Oracle Cloud Infrastructure (OCI) Generative AI is een volledig beheerde service die de implementatie van de nieuwste LLM's eenvoudiger maakt. Het proces is zeer effectief en kostenefficiënt en afgestemd op de klant, die zich geen zorgen meer hoeft te maken over het beheer van complexe infrastructuur. Ondernemingen kunnen kiezen uit verschillende basismodellen en deze vervolgens verfijnen op dedicated GPU-clusters met hun eigen data. Dit levert aangepaste modellen op die het beste voldoen aan hun bedrijfsbehoeften.
Ondernemingen die meer willen doen met de onderliggende technologie, wenden zich tot machine learning in Oracle Database. Met dit platform kunnen datawetenschappers snel modellen bouwen door belangrijke elementen van de levenscyclus van machine learning te vereenvoudigen en te automatiseren, zonder gevoelige data te moeten migreren uit hun Oracle databases. Kenmerken zijn onder meer populaire frameworks voor machine learning, API's, geautomatiseerde machine learning (AutoML), no-code interfaces en meer dan 30 hoogwaardige in-database algoritmen om modellen te bouwen voor gebruik in applicaties.
Veel toonaangevende organisaties bouwen ook hun eigen LLM's met behulp van de Oracle AI-infrastructuur. AI-infrastructuur vormt de basis voor AI-services op een hoger niveau, zoals OCI Generative AI. Bedrijven kunnen dit gebruiken voor de meest veeleisende LLM's met versnelde computing, netwerken en opslag.
Het potentieel van LLM's om de wijze waarop bedrijven werken en met hun klanten communiceren te transformeren, is zo groot dat nieuwe doorbraken en investeringen in de technologie de wereldwijde markten op hun kop kunnen zetten en bedrijfsstrategieën omgooien. Maar het is belangrijk dat bedrijfs- en IT-leiders verder kijken dan de hype. Ze moeten de basisprincipes van het functioneren van LLM's kennen, evenals de beperkingen ervan en de uitdagingen bij de invoering, zelfs als ze ernaar streven om de vele tastbare voordelen van de technologie te bepalen.
LLM's zijn de motor achter veel van de baanbrekende technologieën die de manier transformeren waarop we werken.
Hoe worden grote taalmodellen afgestemd op specifieke toepassingen?
LLM's worden afgestemd op specifieke toepassingen door na de eerste fase vóór de training, waarin met self-learning een basismodel wordt ontwikkeld, een fase van supervised learning te doorlopen met een kleinere set van domeinspecifieke, gelabelde data.
Welke branches profiteren het meest van het gebruik van grote taalmodellen?
In bijna elke branche is men bezig de voordelen van LLM's te ontdekken. De gezondheidszorg, de financiële dienstverlening en de detailhandel zijn enkele branches die verschillende gebruiksscenario's onderzoeken om customer support te ondersteunen en bedrijfsprocessen te automatiseren.
Kunnen grote taalmodellen worden geïntegreerd met bedrijfssystemen?
Grote taalmodellen worden vaak geïntegreerd met bedrijfssystemen, door basismodellen af te stemmen op bedrijfsdata en die modellen uit te breiden met eigen data door middel van Retrieval-Augmented Generation ofwel RAG.