oto najważniejsze punkty z dzisiejszego podcastu Ilya Sutskevera: - superinteligencja w ciągu 5-20 lat - obecne skalowanie zatrzyma się na dobre; wracamy do prawdziwych badań - superinteligencja = super-szybki uczeń ciągły, a nie skończony oracle - modele generalizują 100 razy gorzej niż ludzie, największa przeszkoda dla AGI - potrzebujemy zupełnie nowego paradygmatu ML (mam pomysły, nie mogę ich teraz ujawniać) - wpływ AI będzie silny, ale dopiero po dyfuzji ekonomicznej - przełomy historycznie potrzebowały prawie żadnej mocy obliczeniowej - SSI ma wystarczającą skoncentrowaną moc obliczeniową, aby wygrać - obecne RL już zużywa więcej mocy obliczeniowej niż wstępne szkolenie