LLM's kunnen gevoelige trainingsgegevens onthouden en lekken, wat ernstige privacyrisico's met zich meebrengt. Dappere onderzoekers hebben een nieuwe open-source methode ontwikkeld om deze memorisatie en informatielekken te detecteren. 🧵
Trainingdata-lekken kunnen zowel individuen als instellingen bedreigen. Stel je een medische LLM voor die is getraind op klinische notities en per ongeluk gevoelige patiëntinformatie onthult. Of een LLM die is getraind op bedrijfsdocumenten en door een aanvaller wordt misleid om privécommunicatie te reproduceren.
12,78K