Varför det är svårare att säkra AI än någon förväntat sig och den annalkande AI-säkerhetskrisen med @SanderSchulhoff Sander är en ledande forskare inom området adversarial robusthet, vilket är konsten och vetenskapen att få AI-system att göra saker de inte borde, genom jail-breaking och snabb injektion. Det Sander delar i denna diskussion är i princip att alla AI-system vi använder dagligen är öppna för att bli lurade att göra saker de inte borde, att det egentligen inte finns någon lösning på detta problem, och att de företag som försöker sälja lösningar på detta mestadels är skitsnack. Den här konversationen har inget med AGI att göra, det är ett problem idag. Och att den enda anledningen till att vi inte har sett massiva hack och allvarlig skada från AI-verktyg hittills är att de ännu inte har fått så mycket makt, och de är inte så allmänt accepterade än. Men med ökningen av agenter (som kan agera åt dig), robotar och till och med AI-drivna webbläsare, kommer risken att öka mycket snabbt. Det här är ett väldigt viktigt ämne och det öppnade mitt sinne och skrämde mig, och det är något vi alla behöver ha en grundläggande förståelse för när AI blir allt vanligare i våra liv. Inuti: 🔸 En introduktion till jailbreak och snabba injektionsattacker 🔸 Varför AI-skyddsräcken inte fungerar 🔸 Varför vi ännu inte har sett stora AI-säkerhetsincidenter (men snart kommer att göra det) 🔸 Varför AI-webbläsaragenter är extremt sårbara 🔸 De praktiska stegen organisationer bör vidta istället för att köpa ineffektiva säkerhetsverktyg 🔸 Varför det krävs att man kombinerar klassisk cybersäkerhetskompetens med AI-kunskap för att lösa detta Lyssna nu 👇 • YouTube: • Spotify: • Äpple: Tack till våra fantastiska sponsorer för att ni stödjer podden: 🏆 @datadoghq — Nu hem för Eppo, den ledande plattformen för experimenterande och funktionsflaggning: 🏆 @getmetronome — Intäktsinfrastruktur för moderna mjukvaruföretag: 🏆 @gofundme Givande Fonder — Gör årsslutsgivandet enkelt:
CC @komorama
240