Los LLM pueden memorizar y filtrar datos de entrenamiento sensibles, lo que plantea serios riesgos de privacidad. Investigadores valientes han desarrollado un nuevo método de código abierto para detectar esta memorización y filtración de información. 🧵
Las filtraciones de datos de entrenamiento pueden amenazar tanto a individuos como a instituciones. Imagina un LLM médico entrenado con notas clínicas que revela accidentalmente información sensible de pacientes. O un LLM entrenado con documentos de la empresa que es engañado por un atacante para reproducir comunicaciones privadas.
54,8K