AI akan selalu berbohong kepada Anda. Ini bukan bug, ini adalah hukum matematika. Saya, seorang mahasiswa matematika di Carnegie Mellon University, menggunakan matematika untuk memberi tahu Anda alasannya. Semua model bahasa, lakukan hanya satu hal: Berdasarkan semua informasi yang telah dibacanya, prediksi kata berikutnya yang paling mungkin. Tapi ada jalan buntu di sini. Tebakan model, kami menyebutnya q(x). Probabilitas dunia nyata, kami menyebutnya p(x). Q(x) tidak pernah bisa sama dengan p(x). Selalu ada celah di antara mereka. Ada rumus matematika yang digunakan untuk mengukur jurang ini. Selama model tidak dapat memprediksi kata berikutnya dengan sempurna, itu tidak akan pernah menjadi nol. Jadi, apa yang terjadi ketika AI tidak mengetahui kebenarannya? Tidak bisa waktu henti, itu harus memberi Anda jawaban. Itu hanya bisa gigit jari dan mengeluarkan jawaban yang menurutnya "paling mirip" dengan jawabannya. Bahkan jika itu salah. Ini adalah "ilusi". Tebakan berdasarkan informasi yang tidak lengkap, tetapi sangat percaya diri. Hal yang paling mengerikan adalah matematika bahkan memberikan batas yang lebih rendah. Bahkan model yang paling sempurna pun tidak akan pernah memiliki tingkat halusinasi di bawah angka ini....