Moderé una discusión entre Dwarkesh, el Dr. Burry y John Clark (de Anthropic) sobre los desacuerdos entre el grupo de personas mejor informadas sobre la IA, incluyendo el impacto futuro en el empleo, si es una burbuja, etc. Gracias a Substack por hacerlo posible.
Una sub-desacuerdo es hasta qué punto los LLM, que este grupo está absolutamente de acuerdo en que pueden hacer cosas comercialmente valiosas, son irregulares y propensos a errores de maneras difíciles de predecir. ¡Sí! También lo son los humanos. Y afortunadamente tenemos diferentes errores.
Un punto destacado por Jack y que es una de las mayores brechas de entendimiento entre las personas bien informadas y aquellas que necesitan estar bien informadas: las capacidades de hoy son un suelo en lugar de un techo. Cualquier sistema futuro puede optar por incluirlas o descartarlas.
Jack narra brevemente cómo los LLMs fueron un cambio drástico respecto a la noción previamente popular de que desarrollaríamos inteligencia construyendo cien mil bancos de pruebas, haciendo que soluciones puntuales aprendieran a ganar de manera específica, luego ??? la generalización implica inteligencia.
En su lugar, hemos construido una herramienta *notablemente* general sobre lo que se reduce a un entorno (“ponlo en una habitación con cada documento escrito”) y luego lo que salió resulta ser increíblemente exitoso cuando lo lanzas a nuevas tareas. Los próximos años podrían implicar la creación de bancos de pruebas.
Como observé: solíamos entrenar AIs para jugar StarCraft. Todos los intentos futuros de hacer esto pueden asumir que el sistema ha leído El arte de la guerra en chino original, a menos que el(los) arquitecto(s) crean que ese conocimiento te hará peor para detener los ataques de zerglings.
* Jack Clark, no John Clark. Lo siento, crecí leyendo a Tom Clancy. Uno de estos días podrán previsualizar mis tweets, y me alegraré de cuánto menos me equivoco al redactar en el móvil.
221