Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

eigenrobot
robot. Ami. R1bro || Notes à @eigenrobot_feet
ton pire péché est que tu t'es détruit et trahi pour des loukoums

𝖓𝖎𝖓𝖊 🕯il y a 17 heures
« Le lokoum n'est même pas bon, je ne peux pas croire qu'Edmund ait trahi sa famille pour ça »
Oui, c'est le but, tout ce pour quoi tu trahis Dieu est sans valeur et futile, mais tu le fais quand même. Curieux !
39
mon conseil est de découvrir combien de cadeaux elle te fait et de lui en offrir autant plus deux

Robert Sterling26 déc., 08:01
POV : vous avez pris votre femme au sérieux quand elle vous a dit de ne pas lui offrir de cadeaux cette année

48
Je pensais que le ML causal était passionnant, mais c'est vraiment fou
Je ne suis pas capable d'évaluer cela techniquement sans beaucoup de temps et d'efforts. Donc, en guise de raccourci, je suis très excité de voir si quelque chose d'important est produit ici

Connor Davis26 déc., 19:01
Putain… cet article pourrait être le changement le plus important dans notre utilisation des LLMs cette année.
"Modèles causaux larges issus de modèles de langage larges."
Il montre que l'on peut développer des modèles causaux complets directement à partir d'un LLM, pas des approximations, pas des impressions, de véritables graphes causaux, des contrefactuels, des interventions et des structures vérifiées par des contraintes.
Et la façon dont ils le font est incroyable :
Au lieu d'entraîner un modèle causal spécialisé, ils interrogent le LLM comme un scientifique :
→ extraire un graphe causal candidat à partir du texte
→ demander au modèle de vérifier les indépendances conditionnelles
→ détecter les contradictions
→ réviser la structure
→ tester les contrefactuels et les prédictions interventionnelles
→ itérer jusqu'à ce que le modèle causal se stabilise
Le résultat est quelque chose que nous n'avons jamais eu auparavant :
un système causal construit à l'intérieur du LLM en utilisant sa propre connaissance latente du monde.
À travers des benchmarks synthétiques, des domaines réels et désordonnés, ces LCMs surpassent les méthodes classiques de découverte causale parce qu'ils tirent de l'immense connaissance préalable du LLM au lieu de se baser uniquement sur des corrélations locales.
Et le raisonnement contrefactuel ?
Étonnamment puissant.
Le modèle peut répondre à des questions "et si" sur lesquelles les algorithmes standards échouent complètement, simplement parce qu'il "sait" déjà des choses sur le monde que ces algorithmes ne peuvent pas inférer à partir des données seules.
Cet article laisse entrevoir un avenir où les LLMs ne sont pas seulement des machines à motifs.
Ils deviennent des moteurs causaux, des systèmes qui forment, testent et affinent des explications structurelles de la réalité.
Si cela se développe, chaque domaine qui repose sur l'inférence causale - économie, médecine, politique, science - est sur le point d'être réécrit.
Les LLMs ne vous diront pas seulement ce qui se passe.
Ils vous diront pourquoi.

104
Meilleurs
Classement
Favoris
