aquí están los puntos más importantes del podcast de hoy de Ilya Sutskever: - superinteligencia en 5-20 años - la escalabilidad actual se detendrá drásticamente; hemos vuelto a la investigación real - superinteligencia = aprendiz continuo superrápido, no un oráculo terminado - los modelos generalizan 100 veces peor que los humanos, el mayor obstáculo para la AGI - necesitamos un paradigma de ML completamente nuevo (tengo ideas, no puedo compartir ahora) - el impacto de la IA será fuerte, pero solo después de la difusión económica - los avances históricamente necesitaban casi ningún cómputo - SSI tiene suficiente cómputo de investigación enfocado para ganar - el RL actual ya consume más cómputo que el pre-entrenamiento