大型語言模型(LLMs)可能會記住並洩漏敏感的訓練數據,這對隱私構成嚴重風險。 勇敢的研究者們開發了一種新的開源方法來檢測這種記憶和信息洩漏。 🧵
訓練數據洩漏可能威脅到個人和機構。 想像一下,一個基於臨床筆記訓練的醫療 LLM 意外洩露敏感的病人資訊。 或者一個基於公司文件訓練的 LLM 被攻擊者欺騙,重現私人通信。
12.77K