Trend Olan Konular
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Connor Davis
Vay canına... Bu makale, bu yıl boyunca LLM'leri nasıl kullandığımızda en önemli değişim olabilir.
"Büyük Dil Modellerinden Büyük Nedensel Modeller."
Bu, tam nedensel modelleri doğrudan bir LLM'den geliştirebileceğinizi gösteriyor; yaklaşılmalar, vibes, gerçek nedensel grafikler, karşı gerçekler, müdahaleler ve kısıtlamalı yapılar değil.
Ve bunu yapma şekli çılgın:
Uzmanlaşmış bir nedensel model eğitmek yerine, LLM'yi bir bilim insanı gibi sorgular:
→ metinden aday nedensel grafiği çıkarmak
→ modelden koşullu bağımsızlıkları kontrol etmesini istemek
→ çelişkileri tespit eder
→ yapıyı gözden geçirmek
→ karşı gerçekleri ve müdahalesel tahminleri test etmek
→ nedensel model stabil olana kadar yineleme
Sonuç daha önce hiç yaşamadığımız bir şey:
LLM içinde kendi gizli dünya bilgisini kullanan nedensel bir sistem.
Ölçütlerde, sentetik, gerçek dünyada, karmaşık alanlarda bu LCM'ler, sadece yerel korelasyonlar yerine LLM'in büyük önceki bilgisinden yararlandıkları için klasik nedensel keşif yöntemlerini geride bırakıyor.
Peki ya karşıt mantık nedir?
Şaşırtıcı derecede güçlü.
Model, standart algoritmaların tamamen başarısız olduğu "ya şöyle olsaydı" sorularını yanıtlayabilir; çünkü zaten bu algoritmaların sadece veriden çıkaramayacağı şeyleri zaten "biliyor".
Bu makale, LLM'lerin sadece kalıp makineleri olmadığı bir geleceğe işaret ediyor.
Bunlar, gerçekliğin yapısal açıklamalarını oluşturan, test eden ve geliştiren nedensel motorlar haline gelirler.
Eğer bu ölçeklenirse, nedensel çıkarıma dayanan her alan – ekonomi, tıp, politika, bilim – yeniden yazılır.
LLM'ler sadece ne olduğunu söylemez.
Nedenini anlatacaklar.

37
Bu DeepMind makalesi, yapay zeka güvenliğindeki en rahatlatıcı yalanı sessizce ortadan kaldırdı.
Güvenliğin modellerin çoğu zaman nasıl davrandığıyla ilgili olduğu fikri mantıklı görünüyor. Sistemlerin ölçeklendiği anda da yanlış. DeepMind, dağıtım milyonlarca etkileşime ulaştığında ortalamaların neden önemini kaybettiğini gösteriyor.
Makale, AGI güvenliğini bir dağıtım problemi olarak yeniden çerçeveliyor. Önemli olan tipik davranış değil. Kuyruğu sorun. Nadir başarısızlıklar. Uç durumlar. Testlerde göz ardı edilebilecek gibi görünen düşük olasılıklı olaylar, gerçek dünyada kaçınılmaz hale gelir.
Benchmarklar, kırmızı takım ve demolar ortayı örnekliyor. Dağıtım her şeyi örnekliyor. Garip kullanıcılar, tuhaf teşvikler, düşmanca geri bildirim döngüleri, kimsenin planlamadığı ortamlar. Ölçekte, bu vakalar nadir olmaktan çıkıyor. Garanti altındadırlar.
İşte rahatsız edici bir içgörü: ilerleme sistemleri daha güvenli gösterirken sessizce daha tehlikeli hale getirebilir. Yetenek kuyruk kontrolünden daha hızlı büyürse, görünür arızalar azalır ve ekranda felaket riski biriktirilir.
İki model ortalama olarak aynı görünebilir ve en kötü durum davranışlarında yine de büyük farklılıklar gösterir. Mevcut değerlendirmeler bu boşluğu göremiyor. Yönetim çerçeveleri bunun mümkün olduğunu varsayıyor.
Dağıtımda risk kaydığında sınırlı testlerle güvenliği onaylayamazsınız. Gerçekten kurduğunuz sistemi asla test etmiyorsunuz. Kontrol etmediğiniz bir geleceği örnek veriyorsunuz.
İşte asıl espri bu.
AGI güvenliği model bir özellik değildir. Bu bir sistem sorunu. Dağıtım bağlamı, teşvikler, izleme ve toplumun ne kadar kuyruk riskine dayandığı temiz ortalamalardan daha önemlidir.
Bu makale rahatlatıcı değil. İllüzyonu ortadan kaldırır.
Soru, modelin genellikle iyi davranıp davranmadığı değil.
Önemli olan, bunun gerçekleşmediği ve ölçeklenmeden önce ne kadar sık izin verildiği.
Makale:

35
Anthropic'in içsel yönlendirme tarzı, çoğu insanın öğrettiğinden tamamen farklıdır.
Resmi dokümantasyonlarını, prompt kütüphanelerini ve API örneklerini analiz etmek için 3 hafta harcadım.
Kullanıcıların sadece %2'si XML yapılandırılmış yönlendirme hakkında bilgi sahibidir.
İşte çıkardığım 👇 tüm sırlar

33
En İyiler
Sıralama
Takip Listesi
