D'accord, je dois parler de ce qui se passe avec Yann LeCun parce que c'est vraiment l'une des sorties les plus folles que j'ai jamais vues dans la tech. Pour ceux qui ne savent pas—LeCun est l'un des "pères fondateurs de l'IA." Ce n'est pas un titre marketing. L'homme a littéralement remporté le prix Turing (en gros le prix Nobel de l'informatique) pour avoir aidé à inventer l'apprentissage profond. Il est chez Meta depuis plus d'une décennie en tant que Chief AI Scientist. Une véritable légende. Voici ce qui s'est passé. Zuckerberg s'est frustré. Llama n'avançait pas assez vite. La course à l'IA s'intensifiait et Meta avait l'impression de prendre du retard. Alors que fait Zuck ? Il dépense 14 MILLIARDS de dollars sur Scale AI et embauche son co-fondateur de 28 ans, Alexandr Wang, pour diriger un tout nouveau "Superintelligence Lab." Et ensuite—et c'est la partie qui me sidère encore—il fait de Wang… le patron de LeCun. Pensez-y un instant. Un lauréat du prix Turing de 65 ans. Quatre décennies de recherche révolutionnaire. Le gars qui a aidé à CONSTRUIRE tout ce domaine. Maintenant sous les ordres de quelqu'un dont l'entreprise… étiquette des données. (Scale AI est impressionnant, ne vous méprenez pas, mais ils ne construisent pas réellement de modèles d'IA. Ils annotent des données d'entraînement pour d'autres entreprises.) LeCun vient de donner une interview au Financial Times et honnêtement ? Il a choisi la violence. Il a qualifié Wang de "jeune" et "inexpérimenté." Il a dit qu'il n'avait "aucune expérience en recherche ou sur la façon de pratiquer la recherche, comment on le fait. Ou ce qui serait attrayant ou repoussant pour un chercheur." Et puis il a lâché ce véritable bijou : "On ne dit pas à un chercheur quoi faire. On ne dit certainement pas à un chercheur comme moi quoi faire." Je veux dire. L'homme a dit ce qu'il a dit. Mais attendez—cela devient mieux. Ou pire, selon comment vous le voyez. LeCun a confirmé que l'équipe de Meta a "falsifié" les résultats de référence de Llama 4. Comme, les a réellement manipulés. Utilisé différents modèles sur différents tests pour faire paraître les chiffres meilleurs. Vous vous souvenez quand tout le monde était suspicieux à propos de ces benchmarks en avril ? Oui. Il s'avère qu'ils avaient raison de l'être. Apparemment, Zuckerberg était furieux quand cela a été révélé en interne. LeCun dit qu'il a "perdu confiance en tous ceux qui étaient impliqués" et a essentiellement mis de côté toute l'équipe GenAI. Et voici la chose qui me dérange vraiment—LeCun dit depuis DES ANNÉES que les LLMs sont une "impasse." Que vous ne pouvez pas atteindre une véritable intelligence juste en prédisant le mot suivant. Que nous avons besoin de "modèles du monde" qui comprennent réellement la réalité physique, pas seulement les modèles linguistiques. Tout le monde chez Meta voulait qu'il cesse de dire cela publiquement. Mauvais pour le récit, vous savez ? Mais LeCun a refusé. Ses mots exacts : "Je ne vais pas changer d'avis parce qu'un type pense que j'ai tort. Je n'ai pas tort." ...