Los LLM pueden memorizar y filtrar datos de entrenamiento confidenciales, lo que plantea graves riesgos para la privacidad. Valientes investigadores han desarrollado un nuevo método de código abierto para detectar esta memorización y fuga de información. 🧵
Las fugas de datos de entrenamiento pueden amenazar tanto a individuos como a instituciones. Imagine un LLM médico entrenado en notas clínicas que revela accidentalmente información confidencial del paciente. O un LLM entrenado en documentos de la empresa que está siendo engañado por un atacante para que reproduzca comunicaciones privadas.
31.83K