EPISODE · May 6, 2026 · 9 MIN
S08E50 - Uitlegbaarheid bij taalmodellen: wat kun je echt weten?
from AIToday Live · host Aigency by Info Support
Hoe weet je of je een AI-systeem kunt vertrouwen, en wat doe je als je dat niet kunt controleren? Het probleem is dat taalmodellen zoals ChatGPT geen simpele rekensom hebben die je kunt terugvolgen: ze hebben miljarden verbanden geleerd uit tekst, en dat maakt uitlegbaarheid fundamenteel anders dan bij klassieke AI-systemen. Joop Snijder laat zien welke drie instrumenten je hebt om toch grip te houden: bronvermelding, gestructureerde databronnen en monitoring van agents.Een juridisch team dat AI koppelt aan een vaste clausule-database, ziet de tijd voor een eerste contractcheck dalen van anderhalf uur naar twintig minuten, zonder dat de kwaliteitscontrole wegvalt. Morgen kun je voor je drie meest gebruikte AI-toepassingen een korte risicoafweging maken: wat zijn de consequenties als de output fout is, en hoeveel uitlegbaarheid heb je daarvoor nodig?Onderwerpen Uitlegbaarheid bij taalmodellen versus klassieke machine learning Bronvermelding en de beperkingen ervan Structuur toevoegen aan AI-systemen voor betere controleerbaarheid Monitoring van AI-agents die zelfstandig acties uitvoeren Risicogestuurd bepalen van het benodigde niveau van uitlegbaarheid LinksAI Tool: PerplexityGenoemde entiteiten: ChatGPT - Perplexity - Anthropic - ClaudeStuur ons een berichtAigencyAigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.Info SupportInfo Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!
NOW PLAYING
S08E50 - Uitlegbaarheid bij taalmodellen: wat kun je echt weten?
No transcript for this episode yet
Similar Episodes
Mar 19, 2026 ·34m
Feb 18, 2026 ·11m
Feb 11, 2026 ·45m
Nov 12, 2025 ·35m
Oct 17, 2025 ·40m