Compartiendo una interesante conversación reciente sobre el impacto de la IA en la economía. La IA se ha comparado con varios precedentes históricos: electricidad, revolución industrial, etc., creo que la analogía más fuerte es la de la IA como un nuevo paradigma informático (Software 2.0) porque ambos tienen que ver fundamentalmente con la automatización del procesamiento digital de la información. Si tuviera que pronosticar el impacto de la computación en el mercado laboral en ~ 1980, la característica más predictiva de una tarea / trabajo que vería es hasta qué punto el algoritmo es fijo, es decir, ¿está transformando mecánicamente la información de acuerdo con reglas fáciles de especificar (por ejemplo, mecanografía, contabilidad, calculadoras humanas, etc.)? En ese entonces, esta era la clase de programas que la capacidad informática de esa época nos permitía escribir (a mano, manualmente). Con la IA ahora, podemos escribir nuevos programas que nunca antes podríamos esperar escribir a mano. Lo hacemos especificando objetivos (por ejemplo, precisión de clasificación, funciones de recompensa), y buscamos en el espacio del programa a través del descenso de gradiente para encontrar redes neuronales que funcionen bien contra ese objetivo. Esta es mi publicación de blog de Software 2.0 de hace un tiempo. En este nuevo paradigma de programación, entonces, la nueva característica más predictiva a tener en cuenta es la verificabilidad. Si una tarea/trabajo es verificable, entonces es optimizable directamente o mediante el aprendizaje por refuerzo, y una red neuronal puede ser entrenada para funcionar extremadamente bien. Se trata de hasta qué punto una IA puede "practicar" algo. El entorno tiene que ser reiniciable (puede iniciar un nuevo intento), eficiente (se pueden hacer muchos intentos) y recompensable (hay algún proceso automatizado para recompensar cualquier intento específico que se haya realizado). Cuanto más verificable sea una tarea/trabajo, más susceptible será a la automatización en el nuevo paradigma de programación. Si no es verificable, tiene que caer de la magia de la red neuronal de la generalización con los dedos cruzados, o por medios más débiles como la imitación. Esto es lo que está impulsando la frontera "irregular" del progreso en los LLM. Las tareas que son verificables progresan rápidamente, incluso posiblemente más allá de la capacidad de los mejores expertos (por ejemplo, matemáticas, código, cantidad de tiempo dedicado a ver videos, cualquier cosa que parezca acertijos con respuestas correctas), mientras que muchas otras se retrasan en comparación (creativas, estratégicas, tareas que combinan conocimiento del mundo real, estado, contexto y sentido común). El software 1.0 automatiza fácilmente lo que puede especificar. El software 2.0 automatiza fácilmente lo que puede verificar.