Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
AI zal altijd tegen je liegen.
Dit is geen bug, het is een wiskundige wet.
Ik, een wiskundestudent aan de Carnegie Mellon Universiteit, zal je met wiskunde uitleggen waarom.
Alle taalmodellen doen maar één ding:
voorspellen welk woord het meest waarschijnlijk is, gebaseerd op al het materiaal dat ze hebben gelezen.
Maar hier is een doodlopende weg.
De schatting van het model, noemen we q(x).
De werkelijke waarschijnlijkheid in de echte wereld, noemen we p(x).
q(x) kan nooit gelijk zijn aan p(x).
Tussen hen is er altijd een kloof.
Er is een wiskundige formule die is ontworpen om deze kloof te meten.
Zolang het model het volgende woord niet perfect kan voorspellen en dat kan het nooit zal deze kloof nooit nul zijn.
Dus, wat gebeurt er als AI de waarheid niet weet?
Het kan niet stoppen, het moet je een antwoord geven.
Het kan alleen maar met een geforceerd antwoord komen, een antwoord dat het denkt dat het "het meest lijkt" op het juiste antwoord.
Zelfs als dat fout is.
Dit is de "hallucinatie".
Een gok die gebaseerd is op onvolledige informatie, maar vol zelfvertrouwen.
Het ergste is dat de wiskunde zelfs een ondergrens geeft.
Zelfs het meest perfecte model kan zijn hallucinatiepercentage nooit lager maken dan dit getal....
Boven
Positie
Favorieten
