為什麼保護 AI 比任何人預期的都要困難,以及即將來臨的 AI 安全危機,與 @SanderSchulhoff 的對話 Sander 是對抗性穩健性領域的領先研究者,這是一門藝術和科學,旨在通過越獄和提示注入讓 AI 系統做不該做的事情。 Sander 在這次對話中分享的本質上是,我們日常使用的所有 AI 系統都容易被欺騙去做不該做的事情,這個問題實際上並沒有真正的解決方案,而那些試圖出售解決方案的公司大多都是胡說八道。 這次對話與 AGI 無關,這是當前的問題。而且,迄今為止,我們之所以沒有看到大規模的黑客攻擊和 AI 工具造成的嚴重損害,僅僅是因為它們尚未被賦予那麼大的權力,並且尚未被廣泛採用。但隨著代理(可以代表你採取行動)、機器人,甚至 AI 驅動的瀏覽器的興起,風險將迅速增加。 這是一個非常重要的話題,讓我開闊了思維,也讓我感到害怕,這是我們所有人都需要對 AI 在我們生活中變得越來越普遍有基本理解的事情。 內容包括: 🔸 越獄和提示注入攻擊的入門 🔸 為什麼 AI 防護措施無效 🔸 為什麼我們尚未看到重大 AI 安全事件(但很快會看到) 🔸 為什麼 AI 瀏覽器代理極其脆弱 🔸 組織應該採取的實際步驟,而不是購買無效的安全工具 🔸 為什麼解決這個問題需要將傳統的網絡安全專業知識與 AI 知識相結合 立即收聽 👇 • YouTube: • Spotify: • Apple: 感謝我們的精彩贊助商支持這個播客: 🏆 @datadoghq — 現在是 Eppo 的家,領先的實驗和功能標記平台: 🏆 @getmetronome — 現代軟件公司的貨幣化基礎設施: 🏆 @gofundme Giving Funds — 讓年終捐贈變得簡單:
cc @komorama
228