AI zawsze będzie cię okłamywać. To nie jest błąd, to prawo matematyczne. Ja, student matematyki na Uniwersytecie Carnegie Mellon, powiem ci, dlaczego za pomocą matematyki. Wszystkie modele językowe robią tylko jedną rzecz: przewidują następne najbardziej prawdopodobne słowo na podstawie wszystkiego, co przeczytały. Ale jest tu martwy punkt. Przypuszczenie modelu nazywamy q(x). Prawdopodobieństwo w rzeczywistym świecie nazywamy p(x). q(x) nigdy nie może być równe p(x). Między nimi zawsze jest przepaść. Istnieje wzór matematyczny, który służy do pomiaru tej przepaści. Dopóki model nie może idealnie przewidzieć następnego słowa nigdy nie może ta przepaść nigdy nie będzie zerowa. Więc co się dzieje, gdy AI nie zna prawdy? Nie może się zatrzymać, musi dać ci odpowiedź. Może tylko na siłę wypluć odpowiedź, którą uważa za „najbardziej podobną”. Nawet jeśli jest błędna. To jest „halucynacja”. Przypuszczenie oparte na niekompletnych informacjach, ale niezwykle pewne. Najgorsze jest to, że matematyka nawet podaje dolną granicę. Nawet najdoskonalszy model nigdy nie może mieć wskaźnika halucynacji poniżej tej liczby....