Obranné systémy AI přetvářejí národní bezpečnost. Ale lidé chtějí lidský dohled a odpovědnost. Takto vypadá obranná AI poháněná DeepProve. 🧵
2/ V obraně lidský dohled ne vždy funguje. Studie amerického ministerstva obrany například zjistila, že u letů UAV (drony) "mezi 287 příčinnými faktory přisuzovanými 68 nehodám bylo 65 procent faktorů spojeno s lidmi."
3/ S obrannými systémy: → Intel/data jsou velmi rozsáhlé → Lidé zažívají zaujatost a stres → Rozhodování se zpomaluje → Chyby se vyskytují ve velkém měřítku
4/ Lidé prostě nemohou konkurovat schopnosti AI rychle analyzovat data a dávat obranná doporučení v logistice, dodavatelských řetězcích, detekci hrozeb a dalších oblastech. Potřebujeme pomoc od obranné AI. Ale musíme ověřit jeho práci.
5/ Vstupuje: DeepProve — první zkML (strojové učení s nulovými znalostmi), který dokázal plnohodnotnou AI inferenci (GPT-2, brzy LLAMA a další) Může zajistit, že obranná AI přináší výsledky, které jsou: •Přesný •Zajistit •Škálovatelný • Auditovatelné
49,78K