Partage d'une conversation récente intéressante sur l'impact de l'IA sur l'économie. L'IA a été comparée à divers précédents historiques : électricité, révolution industrielle, etc. Je pense que l'analogie la plus forte est celle de l'IA comme un nouveau paradigme de calcul (Software 2.0) car les deux concernent fondamentalement l'automatisation du traitement de l'information numérique. Si vous deviez prévoir l'impact de l'informatique sur le marché du travail dans les années ~1980, la caractéristique la plus prédictive d'une tâche/emploi que vous examineriez est dans quelle mesure l'algorithme de celle-ci est fixe, c'est-à-dire si vous transformez simplement l'information de manière mécanique selon des règles faciles à spécifier (par exemple, la saisie, la comptabilité, les calculatrices humaines, etc.) ? À l'époque, c'était la classe de programmes que la capacité informatique de cette époque nous permettait d'écrire (à la main, manuellement). Avec l'IA maintenant, nous sommes capables d'écrire de nouveaux programmes que nous n'aurions jamais pu écrire à la main auparavant. Nous le faisons en spécifiant des objectifs (par exemple, précision de classification, fonctions de récompense), et nous explorons l'espace des programmes via la descente de gradient pour trouver des réseaux neuronaux qui fonctionnent bien par rapport à cet objectif. C'est mon article de blog Software 2.0 d'il y a quelque temps. Dans ce nouveau paradigme de programmation, la nouvelle caractéristique la plus prédictive à examiner est la vérifiabilité. Si une tâche/emploi est vérifiable, alors il est optimisable directement ou via l'apprentissage par renforcement, et un réseau neuronal peut être entraîné pour fonctionner extrêmement bien. Il s'agit de la mesure dans laquelle une IA peut "pratiquer" quelque chose. L'environnement doit être réinitialisable (vous pouvez commencer une nouvelle tentative), efficace (beaucoup de tentatives peuvent être faites), et récompensable (il existe un processus automatisé pour récompenser toute tentative spécifique qui a été faite). Plus une tâche/emploi est vérifiable, plus il est propice à l'automatisation dans le nouveau paradigme de programmation. S'il n'est pas vérifiable, il doit sortir de la magie des réseaux neuronaux de généralisation, les doigts croisés, ou via des moyens plus faibles comme l'imitation. C'est ce qui pousse la frontière "dentelée" du progrès dans les LLMs. Les tâches qui sont vérifiables progressent rapidement, y compris possiblement au-delà de la capacité des meilleurs experts (par exemple, mathématiques, code, temps passé à regarder des vidéos, tout ce qui ressemble à des énigmes avec des réponses correctes), tandis que beaucoup d'autres laguent par rapport (créatif, stratégique, tâches qui combinent connaissance du monde réel, état, contexte et bon sens). Le Software 1.0 automatise facilement ce que vous pouvez spécifier. Le Software 2.0 automatise facilement ce que vous pouvez vérifier.