Wat zijn grote taalmodellen?

Joseph Tsidulko | Senior-schrijver | 29 juli 2025

Grote taalmodellen (Large Language Models of kortweg LLM's) is een variant van kunstmatige intelligentie die momenteel sterk in populariteit toeneemt. Ze zijn voornamelijk ontworpen om te reageren op gebruikersinvoer via tekst, spraak of andere middelen, op een wijze die lijkt op die van mensen. Door middel van training met grote hoeveelheden tekstgegevens leren LLM's om het volgende woord of een reeks van woorden te voorspellen op basis van de context die wordt geboden in een zogeheten prompt. Hierbij kunnen ze zelfs de schrijfstijl van een bepaalde auteur of genre nabootsen.

Na de eerste ontwikkelingen in laboratoria kwamen LLM's in de vroege jaren 2020 ineens midden in de publieke belangstelling te staan. Dankzij het indrukwekkende vermogen om vragen te interpreteren en relevante reacties te produceren, hebben ze sindsdien hun plek gevonden als zowel standalone producten als functionaliteit met toegevoegde waarde die is ingebed in zakelijke software. Hierin bieden ze natuurlijke taalverwerking, machinevertaling, genereren van content, chatbots, samenvatten van documenten en nog veel meer.

Ook nu nog blijft deze technologie zich snel ontwikkelen. Er worden steeds grotere datasets in opgenomen en meer lagen van training en tuning toegevoegd om de modellen beter te laten presteren. Bredere en diepere training, mogelijk gemaakt door de steeds krachtigere computing-infrastructuur, levert steeds geavanceerdere redeneermogelijkheden op waarmee plannen kunnen worden gegenereerd om organisaties te helpen hun doelen te realiseren. Deze redeneringsmogelijkheden ondersteunen ook de functionaliteit van AI-agents, die met behulp van geavanceerde LLM's taken uitvoeren die menselijke operators voor hen hebben geconfigureerd.

Wat zijn grote taalmodellen?

Een groot taalmodel (Large Language Model of LLM) is een AI-systeem (Artificial Intelligence, kunstmatige intelligentie) dat is getraind met een enorme dataset die vaak miljarden woorden omvat afkomstig uit boeken, het internet en andere bronnen, waarmee contextueel relevante antwoorden op vragen worden gegenereerd die lijken op de reacties van echte mensen. LLM's zijn ontworpen om vragen (‘prompts’ in LLM-terminologie) te begrijpen en reacties in natuurlijke taal te genereren. Daarom kunnen ze taken uitvoeren zoals vragen van klanten beantwoorden, informatie in rapporten samenvatten, vertalen van de ene taal naar een andere, gedichten of softwarecode schrijven en eerste concepten van e-mails genereren. LLM's hebben over het algemeen een geavanceerde kennis van de grammatica en semantiek van de talen waarin ze zijn getraind. Ze kunnen worden geconfigureerd om aan de hand van de eigen data van een organisatie antwoorden te geven die uniek zijn voor de organisatie.

Ondanks deze indrukwekkende mogelijkheden moeten gebruikers zich bewust zijn van de beperkingen van LLM's. Als de data verouderd zijn of een prompt slecht is geformuleerd, kan dat leiden tot fouten. Denk bijvoorbeeld aan een chatbot die een verkeerd antwoord geeft op een vraag over de producten van een bedrijf. Een gebrek aan voldoende gegevens kan ervoor zorgen dat LLM's antwoorden gaan verzinnen ofwel ‘hallucineren’. En hoewel LLM's goed zijn in voorspellen, deden ze het in het verleden niet bepaald goed als ze moesten uitleggen hoe ze tot een bepaalde conclusie kwamen. Dit zijn enkele gebieden waar hard wordt gewerkt om de nieuwere LLM's te verbeteren.

Toch zijn LLM's een aanzienlijke stap vooruit als het gaat om natuurlijke taalverwerking. De zakelijke mogelijkheden zijn talrijk en nieuwe toepassingen worden voortdurend en snel ontwikkeld en ingevoerd.

Voornaamste conclusies

  • LLM's staan in voorste linie van ontwikkelingen op gebied van natuurlijke taalverwerking. Ze worden ook toegepast om multimodale AI te ontwikkelen, die audio en afbeeldingen kan genereren.
  • Het woord "grote" in "grote taalmodellen" is een relatieve term, die verwijst naar het aantal parameters dat het model evalueert om de output voor een bepaalde prompt te bepalen.
  • LLM's leidden in 2022 tot veel opzien met de release van ChatGPT, een applicatie die het GPT-3.5-model van OpenAI beschikbaar maakte voor het grote publiek. Andere populaire modellen zijn Llama, Gemini en Cohere Command R.

Grote taalmodellen uitgelegd

Natuurlijke taalverwerking is al sinds de 1960s een actief gebied van onderzoek naar kunstmatige intelligentie. De eerste taalmodellen werden al decennia geleden ontwikkeld. LLM's betekenden een grote stap vooruit door het gebruik van deep learning. Deze meer geavanceerde modellen komen tot stand doordat machine learning bovenop neurale netwerken wordt geplaatst. Een ander kenmerk van LLM's is dat het basismodel wordt getraind zonder menselijke tussenkomst door het labelen van data, in een proces dat 'self-supervised learning' wordt genoemd.

Het moderne concept van een LLM zag het daglicht in 2017, in een baanbrekend artikel van Google. Hierin werd een krachtige nieuwe architectuur beschreven die 'transformer networks' werd genoemd. Transformers pasten een mechanisme toe dat 'self-attention' wordt genoemd. Dit maakt parallelle verwerking mogelijk, waardoor modellen sneller konden worden getraind en geïmplementeerd en ook de kosten daarvan werden gereduceerd. OpenAI bouwde op basis van deze architectuur GPT-1, wat velen beschouwen als het eerste moderne LLM.

Dit ontging het bedrijfsleven natuurlijk niet. Bedrijven ontdekken snel dat LLM's veel uiteenlopende gebruiksscenario's kunnen ondersteunen en een enorm potentieel bieden om de bedrijfsvoering productiever en efficiënter te maken, maar ook responsiever voor klanten.

LLM's versus andere AI-modellen: efficiëntie en schaalbaarheid

LLM's zijn een van de vele typen AI die zijn ontwikkeld door het proces van machine learning. Er zijn echter enkele elementen die deze modellen definiëren en waardoor ze zich onderscheiden. Allereerst is er de grootte. Het woord "grote" in "grote taalmodellen" verwijst naar het aantal parameters waarmee een definitieve output wordt berekend, evenals de hoeveelheid data waarmee het model wordt getraind door die parameters aan te passen.

  • Grootte en prestaties: LLM's worden gedefinieerd door de grootte van het model, die het aantal parameters aangeeft die output bepalen. De toonaangevende modellen werden in slechts enkele jaren exponentieel groter. GPT-1 had iets meer dan 100 miljoen parameters, maar naar verluidt heeft de meest recente versie ervan, GPT-4, meer dan 1,75 biljoen parameters, alhoewel OpenAI de echte grootte niet heeft vrijgegeven.

    Over het algemeen geldt: hoe groter het model en hoe groter de trainingsset, hoe beter het model unieke, relevante reacties kan genereren die correct het menselijk begrip en het menselijke vermogen om taal te genereren nabootsen. Prestaties kunnen worden gemeten met 'perplexity'; deze metriek kwantificeert hoe zeker het model ervan is wanneer het het volgende woord in de outputreeks voorspelt.

    Grotere modellen bieden over het algemeen superieure prestaties, maar niet in alle opzichten. Er zijn potentiële nadelen zoals een hogere latentie, de tijd die het model nodig heeft om snel een antwoord te formuleren, en problemen met opschalen vanwege de vereiste computinginfrastructuur. Het is ook lastiger om ze aan te passen voor specifieke gebruiksscenario's voor bedrijven. Daarom wordt er ook hard gewerkt aan kleinere LLM's die minder duur zijn om te implementeren maar wel goede prestaties bieden, althans binnen meer beperkte domeinen en gebruiksscenario's.
  • Schaalbaarheid en implementatie: LLM's kunnen op uiteenlopende manieren worden geïmplementeerd. Commerciële partijen zoals OpenAI, Google en Cohere stellen hun modellen beschikbaar als gehoste services via een browser, app of API-aanroepen. Veel ondernemingen geven er echter de voorkeur aan om hun eigen LLM's te hosten. Dit zijn vaak basismodellen die zijn getuned of aangevuld met eigen zakelijke data, of beide, op lokale servers of in hun openbare cloudomgevingen, waar ze de inferentiefase leveren van de uitvoering van de modellen. Personen en software communiceren vervolgens met deze modellen via directe aanroepen of via API-endpoints.

    Hoe ze ook zijn geïmplementeerd, LLM's, en dan vooral de LLM's die toegankelijk zijn voor het grote publiek of een groot personeelsbestand, moeten kunnen opschalen om aan de verwachte vraag te voldoen zonder het bedrijfsbudget op te blazen. Hoe economisch dit opschalen is, hangt af van enkele afwegingen. Maatregelen die de schaalbaarheid kunnen verbeteren, zoals een krachtigere inferentie-infrastructuur, gedistribueerd computing en effectieve loadbalancing en caching, verhogen allemaal de kosten. Een verkeerde kosten-batenverhouding kan leiden tot latentie die het lastiger maakt om applicaties in real time uit te voeren, inconsistente prestaties, vertraging in de acceptatie door het personeel en ondoeltreffende maatregelen voor privacy en security.
  • Vermogen tot aanpassen aan andere domeinen: de beste basismodellen kunnen abstracte data op hoog niveau opnemen en creativiteit in hun output laten zien. Wanneer een basismodel met de juiste kracht en functionaliteit is geselecteerd, kan fine-tuning de prestaties verder verbeteren voor gespecialiseerde domeinen en gebruiksscenario's. In deze fase van supervised learning wordt het LLM aangepast aan een gewenst domein zonder het basismodel helemaal opnieuw te trainen.

    Het afstemmen van functiedistributies door de nadruk te leggen op data met kenmerken die overeenkomen tussen domeinen, zowel in de initiële trainingsfase als in de fine-tuning fase van de ontwikkeling, is ook een effectieve manier om het vermogen tot aanpassing aan domeinen te vergroten.

    Diagram van grote taalmodellen
    In het diagram ziet u hoe grote taalmodellen leren en vervolgens voorspellingen doen. In de trainingsfase leert het model patronen. Vervolgens gaat het door naar de inferentiefase, waarin het nieuwe data verwerkt om daarmee inzichten of voorspellingen te genereren.
    LLM's zijn een soort AI die taal genereert en door toepassing van uitgebreid getrainde neurale netwerken prompts evalueert en erop reageert. Voor "groot" geldt hierbij geen bepaalde drempel: wat in aanmerking komt voor die aanduiding wordt steeds groter naarmate modellen geavanceerder worden en computing meer beschikbaar is, met name toegang tot GPU-clusters.

    Voordat de training begint, wordt de taal omgezet in tokens. Dit zijn numerieke weergaven van woorden of delen van schrift en spraak die computers kunnen begrijpen.

    Dan worden een algoritme (dat een uitgebreid neuraal computernetwerk bevat) en een dataset geselecteerd voor self-supervised learning. Tijdens de trainingsfase past het algoritme de miljarden of zelfs biljoenen parameters aan om het volgende token in een reeks nauwkeurig te voorspellen, totdat het model op de juiste manier reageert op prompts. Als zodanig bevatten de parameters van het model alles wat is geleerd tijdens de trainingsfase.
  • Core Transformer Architecture: Transformers waren de conceptuele sprong die het huidige enthousiasme rond LLM's en generatieve AI inluidde. De transformer-architectuur, die in 2017 werd voorgesteld in een baanbrekend artikel van onderzoekers van Google, wijkt af van eerdere benaderingen voor het maken van taalmodellen. Transformers vertrouwen niet meer strikt op een proces dat 'recurrence' wordt genoemd, dat een opeenvolgende reeks in- en outputs omvat. In plaats daarvan implementeren ze een mechanisme dat 'self-attention' wordt genoemd. Dit beschouwt terwijl het zinnen verwerkt ook tegelijkertijd de relatie tussen verschillende woorden, zelfs als die ver van elkaar staan in een tekstflow. Dit gebeurt door drie verschillende vectors te maken: een voor het woord dat wordt overwogen, een andere voor de woorden ervoor en erna om te bepalen hoe belangrijk die zijn voor begrijp van het woord, en een derde vector die de informatie vertegenwoordigt die het woord bevat. Afhankelijk van de context van het woord kan deze derde vector verschillende waarden hebben. 'Blauw' kan bijvoorbeeld de kleur betekenen, of een zeer korte periode (als in 'een blauwe maandag'), of iets dat verband houdt met water (als in 'blauwe energie').

    De tekstreeks zou bijvoorbeeld kunnen zijn:
    “Hoe was het daar?”, vroeg ze.

    “Ik weet het eigenlijk niet,” antwoordde hij. “Ik had niet zo veel tijd om ze te leren kennen. Ik werkte er uiteindelijk maar een blauwe maandag.”

    Voordat self-attention in het proces werd opgenomen, hadden algoritmen geen manier om de relatie tussen 'tijd' en 'blauw' te bemerken. Dat maakte het waarschijnlijk dat 'blauw' hier verkeerd werd geïnterpreteerd. Self-attention biedt een manier om het belang van het verband tussen de twee woorden vast te stellen, ook al staan ze in de reeks woorden niet direct bij elkaar in de buurt.

    Daarnaast kunnen modellen dankzij de toepassing van self-attention bovendien parallel worden getraind op enorme hoeveelheden data, waarbij in wezen hele zinnen in één keer worden verwerkt in plaats van woord voor woord. Dat maakt nog beter gebruik van de mogelijkheden die GPU's bieden. Transformers kunnen ook tokens in een prompt tegelijkertijd analyseren, zodat ze sneller antwoorden kunnen geven en beter kunnen omgaan met dubbelzinnigheden.
  • Training en fine-tuning: Basismodellen, de huidige werkpaardjes onder de LLM's, worden getraind op basis van een verzameling data die vaak komen van het internet en andere repository's met schriftelijke informatie. Succesvolle modellen die uit deze fase van self-supervised learning komen, waarin miljarden parameters iteratief worden aangepast, zijn meestal goed in het leveren van algemene outputs: tekst in uiteenlopende contexten genereren, de betekenis begrijpen uit verschillende stijlen van taalgebruik en complexe of zelfs abstracte ideeën presenteren.

    Een basismodel kan worden verfijnd om de nauwkeurigheid te verbeteren en de prestaties ervan te optimaliseren binnen een specifiek domein, zoals gezondheidszorg of finance, of gebruiksscenario's, zoals vertalen of samenvatten. Het proces van fine-tuning begint met het basismodel. Dit wordt opgeleid aan de hand van kleinere, preciezere sets gelabelde data tot het definitieve LLM, om het vermogen te vergroten om specifieke taken uit te voeren die nuttig zijn voor een bedrijfssector of toepassing.
  • Het belang van model en schaalbaarheid: LLM-ontwikkelaars beslissen uiteindelijk met hoeveel parameters hun algoritme moet worden getraind en hoeveel data ze nodig hebben om dit effectief te doen. Hoe meer parameters worden gebruikt, des te complexer het resulterende model en, meestal, des te unieker, nauwkeuriger en relevanter de output. Maar die superieure prestaties leiden tot hogere trainings- en operationele kosten, en uitdagingen om het model na de training op te schalen om meer gebruikers van dienst te zijn.

    Hoe goed een LLM-implementatie kan worden opgeschaald, hangt deels af van de kwaliteit van het model. Het trainingsalgoritme, de modelarchitectuur en de dataset die de AI-ontwikkelaars kozen, zijn allemaal van invloed op hoe goed hun basismodellen het verbruik van resources, zoals geheugen, processors en energie, optimaliseren om de gewenste functies uit te voeren.

    Er worden ook nieuwe technieken ontwikkeld om de modelgrootte en het corpus van trainingsdata te reduceren. Dit helpt de kosten te reduceren en opschalen te vereenvoudigen zonder de prestaties van een LLM duidelijk aan te tasten, vooral wanneer het LLM wordt gebruikt voor minder brede gebruiksscenario's.

Voordelen en toepassingen van LLM's

LLM's zijn de motor onder de motorkap bij veel uiteenlopende geavanceerde toepassingen. Het grote publiek maakte grotendeels kennis met hun verbluffende mogelijkheden toen ChatGPT op het toneel verscheen: de browserversie van het GPT-3.5-model van OpenAI en recentere versies, zoals GPT-4o en GPT-4. Maar de voordelen reiken verder, naar vele uiteenlopende aspecten van het bedrijfsleven. Hier kunnen LLM's pronken met hun vaardigheden in branches en bedrijfsdivisies zoals financiële dienstverlening, HR, retail, marketing en sales, softwareontwikkeling, customer support en gezondheidszorg.

Populaire zakelijke toepassingen van LLM's zijn chatbots voor customer service, analyses van klantsentiment en vertaaldiensten die contextuele teksten leveren die informeel klinken en natuurlijk overkomen. Achter de schermen voeren LLM's ook meer gespecialiseerde taken uit, zoals eiwitstructuren voorspellen bij farmaceutisch onderzoek, softwarecode schrijven en de agents aansturen waarmee bedrijven steeds meer bedrijfsprocessen automatiseren.

  • Veelzijdigheid in uiteenlopende toepassingen: LLM's zijn de kerntechnologie die een divers en nog steeds toenemend aantal toepassingen voor consumenten en het bedrijfsleven mogelijk maakt. Deze veelzijdigheid komt voort uit het proces van self-training van de modellen met grote datasets. Dat levert AI's op die zeer bedreven zijn in het analyseren van complexe patronen in data om relevante, contextuele outputs te creëren.

    Bij geavanceerde toepassingen wordt gebruik gemaakt van dit kenmerk voor taken zoals unieke marketingcopy en rapporten schrijven, klantsentiment meten, documenten samenvatten en zelfs output genereren die niet gerelateerd is aan taal, zoals afbeeldingen en audio. Met name AI-agents zijn een voorbeeld van de veelzijdige vermogens van LLM's voor communicatie met een omgeving en uitvoering van taken in verschillende domeinen zonder gespecialiseerde kennis.

    Het fine-tuningproces voor modellen met supervised learning vergroot het scala aan zakelijke toepassingen die kunnen worden gebouwd op generatieve AI nog verder. En met RAG worden LLM's effectiever in het bedrijfsleven. Dit komt doordat hiermee de nauwkeurigheid en relevantie van hun outputs worden verbeterd door bedrijfseigen zakelijke data op te nemen, die voortdurend kan worden bijgewerkt zonder het onderliggende model te wijzigen.
  • Betere interacties met klanten: LLM's bewezen al snel hun kwaliteiten in de customer service. Dit is een voor de hand liggend gebruiksscenario voor iedereen die heeft ervaren hoe goed een LLM een dialoog kan voeren door de ene genuanceerde vraag na de andere te beantwoorden met duidelijke, gedetailleerde en nuttige outputs.

    Maar naast chatbots kunnen LLM's de interacties met klanten op nog veel meer manieren verbeteren. Sommige bedrijven zetten ze in om e-mails, sms-berichten of berichten op sociale media te genereren voor klanten, waarmee vragen over producten, technische kwesties of verkoop worden beantwoord. Anderen hebben LLM's ingezet om de vragen te vertalen van klanten die vreemde talen spreken. LLM's kunnen ook worden geconfigureerd om sales- en supportagents (menselijk en AI) te ondersteunen door hen bruikbare informatie en relevante documentatie te bieden, een overzicht te geven van eerdere interacties, follow-up met klanten te doen en de interacties te documenteren.

    Een van de grootste zakelijke dienstverleners ter wereld die actief is in ruim 100 landen, vergrootte onlangs de focus op CRM door applicaties met generatieve AI op basis van LLM's in te voeren. Om meer inzichten uit klantfeedbackonderzoeken te krijgen, implementeerde het bedrijf LLM's om het sentiment in de antwoorden te analyseren. De AI kan nu trends destilleren en brede inzichten bieden in hoe producten en services worden ontvangen en hoe ze kunnen worden verbeterd.
  • Automatisering en productiviteit: LLM's blijken zeer effectief bij de automatisering van herhalende taken, waaronder ook taken waarbij beslissingen moeten worden genomen die te complex zijn voor de eerdere AI-modellen. Deze automatisering kan de productiviteit van werknemers verhogen, door hen werk uit handen te nemen, zodat ze zich kunnen concentreren op taken op hoger niveau die creatief en kritisch denken vereisen.

    Een nieuwe technologie die de weg wijst bij het uitbuiten van de geavanceerde redeneringsmogelijkheden van LLM's, zijn agents. Deze processen kunnen workflows afwikkelen met minimaal ingrijpen van mensen. Deze applicaties zijn gebouwd op basistaalmodellen en kunnen beslissingen nemen tijdens de interactie met mensen en andere software binnen bedrijfsomgevingen. Ze kunnen ook autonoom taken uitvoeren op verschillende gebieden. Hierbij genereren ze meldingen voor acties die moeten worden beoordeeld of geautoriseerd, om menselijk toezicht te borgen.

    LLM's verhogen ook de productiviteit op andere manieren. Ze kunnen snel relevante informatie beschikbaar maken voor zakelijke leiders en andere besluitvormers, concepten opstellen voor marketeers en samen met ontwikkelaars softwarecode schrijven.

LLM's: gebruiksscenario's en voorbeelden

LLM's worden toegepast een steeds groter wordend aantal zakelijke gebruiksscenario's. Veel bedrijven gebruiken nu bijvoorbeeld chatbots als onderdeel van hun customer service-strategieën. Maar omdat deze modellen zo veelzijdig zijn, passen creatieve ontwikkelaars van bedrijfssoftware de onderliggende technologie toe om een breed scala aan taken aan te pakken, die verder gaan dan alleen het genereren van taalkundige reacties.

1. Customer support automatiseren

Customer support is de meest voor de hand liggende toepassing van LLM's in het bedrijfsleven, met name voor klanten. Conversationele gebruikersinterfaces of chatbots, aangestuurd door taalmodellen, kunnen op elk moment een bijna onbeperkt aantal vragen afhandelen. Nu responstijden als gevolg van het tekort aan callcentermedewerkers oplopen (een belangrijke bron van frustratie bij klanten), kan dit helpen om klanten sneller te helpen.

Integratie van chatbots met andere LLM-aangestuurde toepassingen kan opvolgacties na een supportaanvraag automatiseren. Denk hierbij aan het verzenden van een vervangend machineonderdeel, een document of een enquête. LLM's kunnen ook menselijke agents rechtstreeks ondersteunen en hen snelle informatie, sentimentanalyse, vertaling en samenvattingen van interacties bieden.

Een fondsenbeheerder die actief is in meer dan 50 landen en 80 talen, maakt gebruik van deze mogelijkheden om het zijn klanten gemakkelijker te maken de financiële instrumenten te vinden en te kiezen die het beste hun behoeften vervullen. De specialist voor beheer van pensioengelden moderniseerde zijn customer support met een zelfgebouwde chatbot die het serviceniveau verhoogde met 150% en de operationele kosten reduceerde met 30%. Klanten kunnen nu naar de website van het bedrijf gaan en de chatbot vragen stellen over hun rekeningen, op elk moment van de dag en in vele talen.

2. Content genereren en samenvatten

Met LLM's kan oorspronkelijke content worden gemaakt of bestaande content worden samengevat. Beide gebruiksscenario's zijn zeer nuttig voor grote en kleine bedrijven. Zij zetten generatieve AI aan het werk om rapporten, e-mails, blogs, marketingmateriaal en berichten op sociale media te schrijven, terwijl ze profiteren van de mogelijkheid van LLM's om die gegenereerde content aan te passen aan specifieke groepen of individuele klanten.

Door middel van samenvatten worden grote hoeveelheden informatie met bewustzijn van het domein gecondenseerd in een vorm waarmee mensen de informatie gemakkelijker snel kunnen doornemen en opnemen. LLM's doen dit door het belang van verschillende ideeën binnen een tekst te beoordelen en vervolgens belangrijke secties te extraheren, of door beknopte overzichten te genereren van wat volgens hen de meest relevante en kritieke informatie uit de oorspronkelijke tekst is.

LLM's krijgen soms de kritiek dat ze "samenvatten tot gemiddeld", wat inhoudt dat hun samenvattingen veel te algemeen zijn en belangrijke details of belangrijke aandachtspunten uit het oorspronkelijke materiaal weglaten. Het is ook lastig om de betrouwbaarheid van samenvattingen te meten en de prestaties van verschillende modellen op basis daarvan te rangschikken. Toch voeren bedrijven deze functionaliteit met enthousiasme in.

Een toonaangevend cloudcommunicatiebedrijf implementeerde LLM's om automatisch transcripties samen te vatten van honderden supporttickets en transcripties van chats die dagelijks plaatsvinden in bijna twintig talen. Met behulp van deze samenvattingen kunnen supporttechnici nu klantuitdagingen sneller oplossen en de algehele ervaring verbeteren.

3. Vertalen

De oorspronkelijke bedoeling van Google bij de ontwikkeling van transformers, was om machines beter te laten vertalen van de ene taal naar de anderen. Pas later maakte het model indruk op ontwikkelaars door de bredere mogelijkheden die het bood. De eerste implementaties door de ontwikkelaars van deze architectuur bereikten hun doel: ze leverden ongeëvenaarde prestaties bij het vertalen van Engels naar Duits, met een model dat in veel minder tijd en met minder computingresources kon worden getraind dan zijn voorgangers.

Moderne LLM's zijn nu al veel verder dan dit beperkte gebruiksscenario. Hoewel de meeste LLM's niet specifiek zijn getraind voor vertalen, doen ze het nog steeds zeer goed wanneer ze een tekst in de ene taal moeten interpreteren en deze helder verwoorden in een andere taal, als ze uitgebreid zijn getraind op datasets in beide talen. Deze doorbraak in het slechten van taalbarrières is zeer waardevol voor ondernemingen die in meerdere landen actief zijn. Multinationale bedrijven maken gebruik van geavanceerde taaldiensten om bijvoorbeeld meertalige ondersteuning voor hun producten en diensten te ontwikkelen, gidsen, tutorials en marketingmiddelen te vertalen en met bestaande leermiddelen werknemers op te leiden wanneer ze markten in nieuwe landen betreden.

De toekomst voor LLM's

Vooruitgang bij multimodale modellen

Er wordt veel onderzoek gedaan naar het gebruik van LLM's als basismodellen voor AI die outputs genereert in andere modaliteiten dan taal. De indrukwekkende veelzijdigheid van LLM's maakt het mogelijk om door middel van fine-tuning met gelabelde gegevens audio, afbeeldingen en zelfs video te interpreteren en te maken. Deze modellen die prompts ontvangen of outputs genereren in andere modaliteiten dan taal, worden soms grote multimodale modellen (Large Multimodal Models) of LLM's genoemd.

Milieuoverwegingen

LLM's ontwikkelen en op grote schaal exploiteren, vereist doorgaans zeer veel rekenkracht. Het kan enorme hoeveelheden stroom kosten om vele weken lang één model te trainen in een cluster van honderden of soms duizenden GPU's. En nadat een succesvol model is geïmplementeerd, vereist de infrastructuur die inferentie uitvoert veel elektriciteit om de aanhoudende stroom van gebruikersvragen te beantwoorden.

GPT-4 trainen kost naar schatting 50 gigawattuur aan stroom. Ter vergelijking: 50 gigawattuur is wat 4500 tot 5000 gemiddelde Amerikaanse huishoudens gedurende één jaar verbruiken. Op dit moment slurpt ChatGPT elke dag honderden megawattuur aan stroom om miljoenen zoekopdrachten af te handelen en te beantwoorden. Naarmate taalmodellen groter worden, kunnen de zorgen over energieverbruik en duurzaamheid urgenter worden. Om die reden leiden AI-bedrijven de zoektocht naar alternatieve energiebronnen, zodat ze hun CO2-voetafdruk kunnen verminderen.

LLM-applicaties bouwen met OCI Generative AI

Oracle stelt de kracht van LLM's beschikbaar voor ondernemingen, zonder dat deze zich zorgen hoeven te maken om wat er onder de motorkap gebeurt of hoeveel stroom deze opwindende technologie verbruikt. Oracle Cloud Infrastructure (OCI) Generative AI is een volledig beheerde service die de implementatie van de nieuwste LLM's eenvoudiger maakt. Het proces is zeer effectief en kostenefficiënt en afgestemd op de klant, die zich geen zorgen meer hoeft te maken over het beheer van complexe infrastructuur. Ondernemingen kunnen kiezen uit verschillende basismodellen en deze vervolgens verfijnen op dedicated GPU-clusters met hun eigen data. Dit levert aangepaste modellen op die het beste voldoen aan hun bedrijfsbehoeften.

Ondernemingen die meer willen doen met de onderliggende technologie, wenden zich tot machine learning in Oracle Database. Met dit platform kunnen datawetenschappers snel modellen bouwen door belangrijke elementen van de levenscyclus van machine learning te vereenvoudigen en te automatiseren, zonder gevoelige data te moeten migreren uit hun Oracle databases. Kenmerken zijn onder meer populaire frameworks voor machine learning, API's, geautomatiseerde machine learning (AutoML), no-code interfaces en meer dan 30 hoogwaardige in-database algoritmen om modellen te bouwen voor gebruik in applicaties.

Veel toonaangevende organisaties bouwen ook hun eigen LLM's met behulp van de Oracle AI-infrastructuur. AI-infrastructuur vormt de basis voor AI-services op een hoger niveau, zoals OCI Generative AI. Bedrijven kunnen dit gebruiken voor de meest veeleisende LLM's met versnelde computing, netwerken en opslag.

Het potentieel van LLM's om de wijze waarop bedrijven werken en met hun klanten communiceren te transformeren, is zo groot dat nieuwe doorbraken en investeringen in de technologie de wereldwijde markten op hun kop kunnen zetten en bedrijfsstrategieën omgooien. Maar het is belangrijk dat bedrijfs- en IT-leiders verder kijken dan de hype. Ze moeten de basisprincipes van het functioneren van LLM's kennen, evenals de beperkingen ervan en de uitdagingen bij de invoering, zelfs als ze ernaar streven om de vele tastbare voordelen van de technologie te bepalen.

LLM's zijn de motor achter veel van de baanbrekende technologieën die de manier transformeren waarop we werken.

Veelgestelde vragen over LLM's

Hoe worden grote taalmodellen afgestemd op specifieke toepassingen?

LLM's worden afgestemd op specifieke toepassingen door na de eerste fase vóór de training, waarin met self-learning een basismodel wordt ontwikkeld, een fase van supervised learning te doorlopen met een kleinere set van domeinspecifieke, gelabelde data.

Welke branches profiteren het meest van het gebruik van grote taalmodellen?

In bijna elke branche is men bezig de voordelen van LLM's te ontdekken. De gezondheidszorg, de financiële dienstverlening en de detailhandel zijn enkele branches die verschillende gebruiksscenario's onderzoeken om customer support te ondersteunen en bedrijfsprocessen te automatiseren.

Kunnen grote taalmodellen worden geïntegreerd met bedrijfssystemen?

Grote taalmodellen worden vaak geïntegreerd met bedrijfssystemen, door basismodellen af te stemmen op bedrijfsdata en die modellen uit te breiden met eigen data door middel van Retrieval-Augmented Generation ofwel RAG.