Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
En mi opinión, Dwarkesh cocinaba con esto:
-Paradoja RLVR: Los laboratorios gastan miles de millones en pre-hornear habilidades específicas, lo que genera una tensión fundamental: si estamos cerca de aprendices parecidos a humanos, todo este preentrenamiento hace inútil porque aprenderían en el trabajo.
-El verdadero valor del trabajo humano: No necesitamos pipelines de entrenamiento personalizados para cada microtarea; la IA actual sí.
-Retraso de difusión = adaptación: Si los modelos fueran equivalentes a humanos, se integrarían más rápido que los empleados [Puedo debatir esto: procedencia de datos, confianza empresarial en la fiabilidad, temores de reemplazo, etc., pueden retrasar razonablemente el despliegue de IA; pero, aún así, todos estaríamos convencidos de que es una mejor opción y eso aún no es cierto, así que el punto sigue siendo en mi opinión].
-Se ha producido un cambio de objetivo: Hemos resuelto lo que pensábamos que eran cuellos de botella en la AGI (por ejemplo, razonamiento) pero aún no podemos automatizar el 95% del trabajo de conocimiento. La inteligencia es más de lo que pensábamos y de lo que ya habíamos definido, y está bien admitirlo.
-Cuello de botella del aprendizaje continuo: La explosividad futura de la IA depende de resolver el aprendizaje continuo: agentes desplegados, aprender de la experiencia, fusionar conocimiento de nuevo en una "mente colmena". ¡Está lejos de esto, pero es optimista de que podamos llegar ahí!
Populares
Ranking
Favoritas

