LLMs können sensible Trainingsdaten speichern und preisgeben, was ernsthafte Datenschutzrisiken darstellt. Mutige Forscher haben eine neue Open-Source-Methode entwickelt, um diese Speicherung und Informationsleckage zu erkennen. 🧵
Datenlecks aus Trainingsdaten können sowohl Einzelpersonen als auch Institutionen bedrohen. Stellen Sie sich ein medizinisches LLM vor, das auf klinischen Notizen trainiert wurde und versehentlich sensible Patienteninformationen offenbart. Oder ein LLM, das auf Unternehmensdokumenten trainiert wurde und von einem Angreifer dazu gebracht wird, private Kommunikationen zu reproduzieren.
12,78K