メインコンテンツへスキップ
マーケット
Meme Pump
トラッカー
シグナル
リーダーボード
スワップ
ポートフォリオ
紹介
さらに見る
商品
DeFi
マケプレ
インサイトハブ
エコシステム案内所
セキュリティ
開発者向け
X Layer
X Layer について学ぶ
X Layer エクスプローラー
チェーン間取引
開発者向けテクニカルドキュメント
テストネットフォーセット
GitHub
ウォレット API
ウォレット API を発見する
API ドキュメント
API キーを管理する
ブロックチェーンエクスプローラー
DAppでウォレットを連携する
Boost
X Launch
参加してトークンを獲得しよう
X キャンペーン
参加して報酬を獲得しよう
報酬センター
ボーナスとエアドロップを受け取る
アラート
言語
通貨
色の好み
OKX ウォレットをダウンロード
Web3 の詳細
お知らせ
戻る
日本語
简体中文
繁體中文
English
Tiếng Việt
Русский
Español (Latinoamérica)
Bahasa Indonesia
Français
Deutsch
Italiano
Polski
Čeština
Română
Português (Portugal)
Português (Brasil)
Українська
Español (España)
Nederlands
العربية
Norsk (bokmål)
Suomi
Svenska
Türkçe
戻る
戻る
詳しく知る
サポートセンター
トレンドトピック
#
Bonk Eco continues to show strength amid $USELESS rally
Hosico
+1.31%
USELESS
+4.11%
IKUN
+3.08%
gib
+3.85%
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
Bonk
-0.09%
ALON
-0.02%
LAUNCHCOIN
-9.82%
GOONC
-1.79%
KLED
+13.23%
#
Boop.Fun leading the way with a new launchpad on Solana.
BOOP
0.00%
Boopa
+0.82%
PORK
0.00%
Profile
Connor Davis
Connor Davis
12月26日 19:01
なんてこと。。。この論文は、今年を通じてLLMの使い方において最も重要な変化かもしれません。 「大規模言語モデルからの大規模因果モデル」 これは、近似や振動、実際の因果グラフ、反事実、介入、制約チェック構造ではなく、LLMから直接完全な因果モデルを育てられることを示しています。 そして、そのやり方は本当にすごいです: 専門的な因果モデルを訓練する代わりに、科学者のようにLLMを問い直します。 →テキストから候補因果グラフを抽出する →モデルに条件付き独立性をチェックさせます →矛盾を見抜く →構造の見直し → 反事実と介入的予測の検証 →因果モデルが安定するまで反復を繰り返します その結果、これまでにないものが生まれました: これはLLM内部に構築された因果システムであり、その潜在的な世界知識を用いて存在します。 ベンチマークや合成的、現実世界、複雑な領域において、これらのLCMは局所的な相関ではなく、LLMの膨大な事前知識から引き出すため、従来の因果発見手法を上回っています。 そして反事実的な推論は? 驚くほど強い。 このモデルは、標準的なアルゴリズムが完全に失敗する「もしも」の問いに答えることができます。なぜなら、すでにアルゴリズムがデータだけで推論できない世界について「知っている」からです。 この論文は、LLMが単なるパターンマシンではなくなる未来を示唆しています。 それらは現実の構造的説明を形成し、検証し、洗練させる因果エンジンシステムとなります。 もしこれが拡大すれば、因果推論に依存するすべての分野、経済学、医学、政策、科学が書き換えられることになる。 LLMは単に何が起こるかを教えてくれるわけではありません。 理由を教えてくれる。
35
Connor Davis
12月22日 17:53
このDeepMindの論文は、AIの安全性に関する最も安心できる嘘を静かに打ち砕いた。 安全性はモデルの挙動に関わるという考えは合理的に聞こえます。また、システムがスケールする瞬間も間違っています。DeepMindは、展開が数百万回のやり取りに到達すると平均が意味を失う理由を示しています。 この論文はAGIの安全性を分布の問題として再定義しています。重要なのは典型的な行動ではありません。尻尾だ。稀な失敗。例外的なケースです。テストでは無視できる低確率の出来事が現実世界では避けられないものになる。 ベンチマーク、レッドチーミング、デモはすべて中間をサンプリングしています。デプロイメントはすべてのサンプルを使います。奇妙なユーザー、奇妙なインセンティブ、敵対的なフィードバックループ、誰も計画していない環境。大規模になると、そうしたケースは珍しくなくなります。保証されています。 ここで不快な洞察があります。進歩はシステムを安全に見せかけながら、ひそかに危険を増す可能性があるということです。能力がテールコントロールよりも速く成長すれば、目に見える故障は減少し、画面外では壊滅的なリスクが積み重なっていきます。 2つのモデルは平均的に見た目が同じでも、最悪の挙動は大きく異なることがあります。現在の評価ではそのギャップが見当たりません。ガバナンスの枠組みはそれが可能だと想定しています。 リスクが配給シフトに存在している限り、有限のテストで安全性を証明することはできません。実際に導入するシステムをテストすることはありません。あなたは自分でコントロールできない未来を試しているのです。 それが本当のオチだ。 AGIの安全性はモデル属性ではありません。これはシステムの問題です。配備の文脈、インセンティブ、監視、そして社会が許容するテールリスクの度合いは、クリーンな平均よりも重要です。 この論文は安心感を与えません。それは幻想を取り除きます。 問題はモデルが通常うまく振る舞うかどうかではありません。 問題は、そうでないときに何が起こるか、そして規模がそれを受け入れられないほどまでに許される頻度がどれだけあるかということです。 論文:
33
Connor Davis
12月20日 19:27
Anthropicの内部プロンプトスタイルは、多くの人が教えるものとは全く異なります。 公式ドキュメント、プロンプトライブラリ、APIの例を3週間かけて分析しました。 XML構造プロンプトについて知っているユーザーの割合はわずか2%です。 ここに私が引き出した👇すべての秘密を紹介します
30
トップ
ランキング
お気に入り