AI 有信任問題。可驗證性是解決方案。 我們的 AI GM @nima_vaziri 與 @a16z 的 @alive_eth 和 @Stanford 的 @danboneh 坐下來探討當前 AI 中最深的斷層線。 ☁️ 我們無法信任的模型 ☁️ 當前的提供者可以進行審查、關閉或隨時改變規則。外包訓練隱藏了後門。即使是「開放」的權重也無法證明實際運行的內容。 信任。後門。黑箱。 前進的道路是明確的: 🔥 可驗證的評估 🔥 可驗證的推理 🔥 硬體支持的完整性 TEEs 🔥 超越單一控制點的基礎設施 🔥 區塊鏈作為 AI 的協調層 從「相信我們」到「自己驗證」。 這就是轉變。這就是解鎖。 邊界就在這裡。建設者決定接下來的發展。 創造並使用與你利益一致的 AI。 時間戳: 00:00:00 介紹:AI 與加密的交集概述 00:01:58 四大主要 AI-加密趨勢...