Julian Schrittwieser (Anthropic): - Dyskusja na temat bańki AI na X jest "bardzo oderwana" od tego, co dzieje się w laboratoriach na czołowej linii. "W laboratoriach na czołowej linii nie widzimy żadnego spowolnienia postępu." - AI będzie miało "ogromny wpływ na gospodarkę". Prognozy przychodów dla OpenAI, Anthropic i Google są w rzeczywistości "dość konserwatywne". - Ekstrapolując z takich danych jak METR, w przyszłym roku modele będą w stanie pracować samodzielnie w całym zakresie zadań. Długość zadania jest ważna, ponieważ odblokowuje możliwość, aby człowiek nadzorował zespół modeli, z których każdy działa autonomicznie przez godziny (w przeciwieństwie do konieczności rozmawiania z agentem co 10 minut, aby dać mu feedback). - "Ekstremalnie prawdopodobne" jest, że obecne podejście do szkolenia modeli AI (wstępne szkolenie, RL) doprowadzi do systemu, który będzie w stanie działać na poziomie zbliżonym do ludzkiego w zasadzie we wszystkich zadaniach, które są dla nas istotne pod względem produktywności. - W odniesieniu do Ruchu 37: "Myślę, że jest dość jasne, że te modele mogą robić nowe rzeczy." AlphaCode i AlphaTensor "udowodniły, że można odkrywać nowe programy i algorytmy". AI "absolutnie odkrywa już nowe rzeczy" i "po prostu przesuwamy się w górę skali tego, jak imponujące, jak interesujące są rzeczy, które jest w stanie odkryć samodzielnie." - "Bardzo prawdopodobne", że w przyszłym roku będziemy mieli jakieś odkrycia, które ludzie jednogłośnie uznają za super-imponujące. - AI będzie w stanie samodzielnie dokonać przełomu, który zasługuje na Nagrodę Nobla w 2027 lub 2028 roku. - W odniesieniu do zdolności AI do przyspieszania rozwoju AI: Bardzo powszechnym problemem w wielu dziedzinach naukowych jest to, że staje się coraz trudniej dokonywać postępów w miarę jak dziedzina się rozwija (tj. 100 lat temu pojedynczy naukowiec mógł przypadkowo odkryć pierwszy antybiotyk, podczas gdy teraz potrzeba miliardów dolarów, aby odkryć nowy lek). To samo może się zdarzyć w badaniach nad AI - mimo że AI uczyni badania nad nowym AI bardziej produktywnymi, może nie dojść do eksplozji, ponieważ nowe osiągnięcia stają się coraz trudniejsze do znalezienia.