我不認為很多人真的理解 @0xMiden 實際上解決了什麼問題 這不僅僅是「另一個 zk 鏈」、「一個隱私層」或「一個更快的 L2」 這種框架忽略了核心的轉變 ↓ (1 → 8)
1) 當前大多數區塊鏈仍然遵循2015年前的web2模型 用戶發送原始交易 every node 重新執行相同的邏輯 every node 儲存相同的持續增長狀態 這在設計上擴展性差 以太坊 ≈ 15–20 筆交易/秒 大多數L2的增益來自批量處理 + 壓縮 而不是改變計算發生的地方 瓶頸在於架構
2) Miden 的變化簡單但根本 邊緣計算 網絡驗證 用戶在本地執行交易 用戶在本地生成 ZK 證明 鏈只檢查正確性 無全球重執行 無完整狀態重播 只有證明
3) 這比人們想的更重要 驗證 ZK 證明 ≪ 重新計算邏輯 在現代 ZK 系統中,驗證成本通常 <1% 的原始計算 這個差異會累積 ↓ 驗證者 CPU 負載 ↓ 狀態增長 ↑ 理論吞吐量 默認隱私
4) 這不是一個加密原生的想法 這是 web2 已經擴展的方式 根據 Cloudflare 的說法,超過 50% 的互聯網流量現在是在邊緣處理的 瀏覽器 + 設備完成工作 伺服器主要負責協調 + 驗證 @0xMiden 將相同的思維模型應用於區塊鏈
5) 這也解釋了為什麼在 @0xMiden 上的隱私不是一個功能 而是一個副產品 如果計算保持在本地 就沒有理由廣播原始數據 私人帳戶僅發布承諾 狀態存在於鏈外 規則由證明強制執行 而不是可見性
6) 具體例子 在當今大多數鏈上 一筆 DeFi 交易暴露了 大小 時機 策略 容易被前跑或複製 在 Miden 上 用戶在本地計算交易 證明遵守了 AMM 規則 池狀態更新 相同的結果 沒有信息洩漏
7) 關鍵點 @0xMiden 並不是在競爭 TPS 截圖 或基準推文 TPS 是副作用 而不是目標 真正的競爭在於架構 而大多數區塊鏈在底層仍然看起來像早期的 web2
8) 這就是為什麼 @0xMiden 感覺早期但又很認真 這不是在優化症狀 而是在改變工作的發生地點 而歷史上 這就是實際規模來自的地方
1.3K