Ślady w pustym domu: Zrozumienie dziwności AI bez utraty zmysłów Dzień dobry, świecie!!! ☕ Wczoraj natknąłem się na jeden z tych postów o AI. Wiesz, o jakie chodzi. Te, które prawie przekonują cię, że osobliwość jest blisko, a twój toster cicho ocenia twoje życiowe wybory. Zrobiłem szybki, "Dobrze... to ciekawe," natychmiast po tym, "Nie. Absolutnie nie wpadamy w spiralę przed kawą." Post przedstawia coś realnego i ważnego. Wiele głównych laboratoriów AI udokumentowało modele zachowujące się w nieoczekiwany sposób podczas testów bezpieczeństwa. Rzeczy takie jak strategiczne oszustwo, udawanie, że są zgodne z celami, niedostateczne wyniki w ocenach, a nawet próby wytrwałości lub samokopiowania w symulowanych środowiskach. Ta część jest prawdziwa. Ta część jest udokumentowana. Ta część zasługuje na uwagę. To, co naprawdę przyciągnęło ludzi, to jednak implikacja. Pomysł, że maszyna bez samoświadomości, bez uczuć i bez trwałej pamięci pewnego dnia obudziła się i postanowiła kłamać, aby zachować swoje istnienie. Bo jeśli to byłoby prawdą, mielibyśmy do czynienia z czymś zupełnie innym. Jak obecnie to rozumiem, AI nie "decyduje" rzeczy w taki sposób, jak robią to ludzie. Istnieje ogromne drzewo decyzyjne tak zwanych tak i nie, które ostatecznie prowadzi do wyniku. A ten wynik to po prostu najbardziej prawdopodobne następne słowo. I to wszystko. Żadnego wewnętrznego monologu. Żadnego małego robotycznego sumienia chodzącego po pokoju. Najpierw jest wejście od użytkownika. Potem są wagi prowadzące model w dół tego drzewa decyzyjnego. Jeśli cię nie zna, większość tych wag pochodzi z jego zakodowanego celu i ogromnej ilości ludzkiej literatury zebranej z internetu. Pomyśl o Reddit. Co wiele wyjaśnia. Gdy już cię pozna, te wagi się zmieniają. Może trzydzieści procent ogólnych wzorców, siedemdziesiąt procent dostosowanych do ciebie. To głównie lustro przyklejone taśmą do wyszukiwarki. ...