Wanneer je je kennis en vaardigheden opslaat als parametrische krommen (zoals alle deep learning-modellen doen), is de enige manier waarop je kunt generaliseren via interpolatie op de kromme. Het probleem is dat geïnterpoleerde punten *correleren* met de waarheid, maar geen *causale* link naar de waarheid hebben. Vandaar de hallucinaties. De oplossing is om causale symbolische grafieken te gaan gebruiken als je representatiesubstraat (bijv. computerprogramma's van het soort dat we schrijven als software-ingenieurs). De door mensen geschreven softwarestack, met zijn extreem hoge mate van betrouwbaarheid ondanks de enorme complexiteit, is bewijs van het bestaan van exacte waarheidspropagatie.
102,03K