Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

eigenrobot
robot. przyjaciel. R1bro || Przypisy w @eigenrobot_feet
twoim najgorszym grzechem jest to, że zniszczyłeś i zdradziłeś samego siebie dla tureckich przyjemności

𝖓𝖎𝖓𝖊 🕯22 godz. temu
„Turecka rozkosz nie jest nawet dobra, nie mogę uwierzyć, że Edmund zdradził swoją rodzinę dla niej”
Tak, o to chodzi, wszystko, za co zdradzasz Boga, jest bezwartościowe i błahe, ale i tak to robisz. Ciekawe!
84
moja rada to dowiedzieć się, ile prezentów ona ci daje i kupić jej tyle samo plus dwa

Robert Sterling26 gru, 08:01
POV: wziąłeś swoją żonę na poważnie, kiedy powiedziała ci, żebyś w tym roku nie kupował jej żadnych prezentów

71
Myślałem, że causal ml jest ekscytujący, ale to jest naprawdę dzikie
Nie jestem w stanie ocenić tego technicznie bez dużej ilości czasu i wysiłku. Więc jako skrót, jestem bardzo podekscytowany, aby zobaczyć, czy tutaj powstanie coś godnego uwagi.

Connor Davis26 gru, 19:01
Święty Boże… ten artykuł może być najważniejszą zmianą w tym, jak używamy LLM-ów w tym roku.
"Duże modele przyczynowe z dużych modeli językowych."
Pokazuje, że można zbudować pełne modele przyczynowe bezpośrednio z LLM, a nie przybliżenia, nie wibracje, a rzeczywiste grafy przyczynowe, kontrfakty, interwencje i struktury sprawdzane pod kątem ograniczeń.
A sposób, w jaki to robią, jest szalony:
Zamiast trenować wyspecjalizowany model przyczynowy, przesłuchują LLM jak naukowiec:
→ wydobywają kandydatów na graf przyczynowy z tekstu
→ proszą model o sprawdzenie niezależności warunkowych
→ wykrywają sprzeczności
→ poprawiają strukturę
→ testują kontrfakty i przewidywania interwencyjne
→ iterują, aż model przyczynowy się ustabilizuje
Wynik jest czymś, czego nigdy wcześniej nie mieliśmy:
system przyczynowy zbudowany wewnątrz LLM, wykorzystujący jego własną latentną wiedzę o świecie.
Na różnych benchmarkach syntetycznych, w rzeczywistych, chaotycznych dziedzinach te LCM-y przewyższają klasyczne metody odkrywania przyczyn, ponieważ czerpią z ogromnej wiedzy wstępnej LLM, a nie tylko z lokalnych korelacji.
A rozumowanie kontrfaktyczne?
Zaskakująco silne.
Model potrafi odpowiadać na pytania "co jeśli", na które standardowe algorytmy całkowicie zawodzą, po prostu dlatego, że już "wie" rzeczy o świecie, których te algorytmy nie mogą wywnioskować tylko z danych.
Ten artykuł sugeruje przyszłość, w której LLM-y nie są tylko maszynami do rozpoznawania wzorców.
Stają się silnikami przyczynowymi, systemami, które tworzą, testują i udoskonalają strukturalne wyjaśnienia rzeczywistości.
Jeśli to się rozwinie, każda dziedzina, która opiera się na wnioskowaniu przyczynowym – ekonomia, medycyna, polityka, nauka – zostanie przepisana.
LLM-y nie tylko powiedzą ci, co się dzieje.
Powiedzą ci, dlaczego.

131
Najlepsze
Ranking
Ulubione
