el resumen del Interview de Dwarkesh Patel con Ilya Sutskever • Los enfoques actuales "llegarán a cierta distancia y luego se desvanecerán" seguirán mejorando, pero no entregarán AGI. • El tipo de sistema que funcionaría es algo "que aún no sabemos cómo construir." • Se esperan impactos significativos en el mercado laboral en los próximos años. • Principal cuello de botella: generalización. Los modelos son mucho peores que los humanos en esto. • Puedes entrenar en cada problema de programación competitiva, y el modelo aún no desarrollará un verdadero "gusto," mientras que un adolescente aprende a conducir en ~10 horas. • Las puntuaciones de evaluación se ven geniales, pero el rendimiento en el mundo real se queda atrás porque el entrenamiento de RL termina optimizando para las evaluaciones mismas. • Los verdaderos hackers de recompensas son los investigadores que crean estos puntos de referencia y bucles de entrenamiento. • Él dice que tiene ideas sobre lo que falta, pero no las compartirá públicamente. • Sin embargo, ASI dentro de 5-20 años "¿Sabes qué es loco? Que todo esto es real" Realmente sentí esa frase.