私はDwarkesh、Dr. Burry、そしてJohn Clark(Anthropicの)による議論を司会しました。AIについてよりよく知っている人々の間で、将来の雇用への影響やバブルかどうかなどについての意見の相違についてです。 Substackのおかげで実現しました。
一つの小さな意見の相違点は、この群衆が商業的に価値のあることができると絶対に認めているLLMが、予測困難な形で棘がありエラーが起こりやすいかどうかです。 はい!人間も同じだ。そして幸運なことに、私たちは異なるバグを持っています。
ジャックが指摘したポイントであり、よく情報を持つ人と十分な情報を必要とする人との間の最大の理解のギャップの一つである:今日の能力は天井ではなく下限にある。 今後のシステムは、参加または除外を選択できます。
ジャックは簡単に語る。LLMは、10万台のテストベッドを作り、ポイント解を学んでから狭く勝つ方法を学ばせてから知能を育てるという従来の流行の考えから大きく逸脱した???一般化は知性を意味します。
代わりに、ある環境に切り替わるものを「すべての書かれた文書がある部屋に入れる」という非常に一般的なツールを作り、その新しいタスクに投げ込むと意外と成功を収めました。今後数年はテストベッドを作ることになるかもしれません。
私が観察したように、私たちはかつてAIをスタークラフトをプレイさせる訓練をしていました。 今後の試みはすべて、システムが元の中国語で孫子兵法を読んでいると仮定できますが、設計者がその知識がザグリングの攻撃を止めるのが苦手になると考えない限りは。
* ジャック・クラーク、ジョン・クラークではありません。すみません、トム・クランシーを読んで育ちました。 いつか私のツイートをプレビューできるようになり、モバイルでドラフトをする際にどれだけ顔面に油を塗るのが減るかを喜ぶでしょう。
237