AI всегда будет вам лгать。 Это не ошибка, это математический закон. Я, студент математики из Университета Карнеги-Меллона, расскажу вам, почему это так, с помощью математики. Все языковые модели делают только одно: предсказывают следующее наиболее вероятное слово на основе всего, что они прочитали. Но здесь есть замкнутый круг. Предположение модели мы называем q(x). Вероятность в реальном мире мы называем p(x). q(x) никогда не может быть равным p(x). Между ними всегда будет пропасть. Существует математическая формула, которая измеряет эту пропасть. Пока модель не может идеально предсказать следующее слово — а она никогда не сможет — эта пропасть никогда не станет нулевой. Так что, что происходит, когда AI не знает правды? Он не может остановиться, он должен дать вам ответ. Он может только наобум выдать ответ, который он считает "ближайшим" к правильному. Даже если он неверен. Вот что такое "галлюцинация". Это уверенное предположение, основанное на неполной информации. Самое опасное в том, что математика даже дает нижнюю границу. Даже самая совершенная модель никогда не сможет иметь уровень галлюцинаций ниже этого числа....