Os LLMs podem memorizar e vazar dados de treinamento sensíveis, representando sérios riscos à privacidade. Pesquisadores corajosos desenvolveram um novo método de código aberto para detectar essa memorização e vazamento de informações. 🧵
Vazamentos de dados de treinamento podem ameaçar tanto indivíduos quanto instituições. Imagine um LLM médico treinado em notas clínicas revelando acidentalmente informações sensíveis de pacientes. Ou um LLM treinado em documentos de empresa sendo enganado por um atacante para reproduzir comunicações privadas.
12,78K