De zeven grootste uitdagingen van een taalmodel

uitdagingen llm

Taalmodellen hebben problemen die de ontwikkeling van applicaties en use-cases CoPilot en ChatGpt bemoeilijken. Hier de 7 belangrijkste: 

 1. Antwoorden op prompts zijn afhankelijk van het gebruikte taalmodel. Ofwel het ene taalmodel geeft een ander antwoord dan het andere. Als je eenmaal een goede prompt hebt, kan deze na een update van een taalmodel ineens niet meer werken. 

 2. Prompts bevatten onvoldoende kennis van de context zodat het antwoord grammaticaal correct is, maar inhoudelijk vaak niet logisch of niet aansluit bij de vraag. 

 3. Hallucineren (gebrek aan feitelijke juistheid) is een groot probleem. Antwoorden worden geformuleerd met 'het geheugen van het LLM'  als kennisbron. Daarom wordt steeds vaker RAG of Function Calling ingezet: je haalt feiten uit je eigen database en gebruikt het LLM om een 'net' antwoord te formuleren 

 4. Vooroordelen (Bias): taalmodellen van OpenAI, Anthropic, Google, Amazon, Mistral, Meta zijn getraind met Westerse data: dit levert dus ook Westers (en vaak Amerikaans) georienteerde antwoorden 

 5. Privacy, beveiliging en compliancy: In Europa moeten taalmodellen voldoen aan de AVG en de AI-Act en draaien op servers binnen Europa. Dit is zeker niet het geval voor de meeste taalmodellen (Alleen ChatGPT en CoPilot) 

 6. Meertaligheid (Nederlands): De grote modellen zijn meertalig, maar Nederlands (zeker gespecialiseerde vaktaal) is een probleem. Daarom wordt er gewerkt aan GPT-NL 

 7. Gebrek aan de mogelijkheid om te redeneren (Chain of Thought). Standaard geven taalmodellen rechtoe rechtaan antwoorden, maar worden problemen niet in stukjes gehakt. Afgelopen week heeft OpenAI GPT-01-reasoning vrij gegeven die dit wel kan en substantieel betere resultaten geeft

Zoeken
Gerelateerde pagina's
Contactpersoon