AIは常に嘘をつきます。 これはバグではなく、数学の法則です。 私はカーネギーメロン大学の数学専攻の学生ですが、その理由を数学で説明します。 すべての言語モデルは、ただ一つのことだけを行います。 読んだすべての情報に基づいて、次に起こりそうな単語を予測します。 しかし、ここには行き止まりがあります。 モデルの推測をq(x)と呼びます。 現実世界の確率、ここではこれをp(x)と呼びます。 q(x) は決して p(x) と等しくなれません。 常に溝があります。 この溝を測るための数学的な公式があります。 モデルが次の単語を完全に予測できない限り、ゼロになることは決してありません。 では、AIが真実を知らなかったらどうなるのでしょうか? ダウンタイムじゃない、答えをくれないといけない。 しかし、思い切って「最も似ている」答えを出すしかありません。 たとえそれが間違っていても。 これが「錯覚」です。 不完全な情報に基づく推測ですが、非常に自信があります。 最も恐ろしいのは、数学が下限まで示していることです。 どんなに完璧なモデルでも、この数値を下回る幻覚率は決してありません。...