LLM-y mogą zapamiętywać i ujawniać wrażliwe dane treningowe, co stwarza poważne ryzyko dla prywatności. Odważni badacze opracowali nową metodę open-source do wykrywania tego zapamiętywania i wycieku informacji. 🧵
Wycieki danych treningowych mogą zagrażać zarówno osobom, jak i instytucjom. Wyobraź sobie model LLM medyczny, który został wytrenowany na notatkach klinicznych i przypadkowo ujawnia wrażliwe informacje o pacjentach. Lub model LLM wytrenowany na dokumentach firmy, który zostaje oszukany przez atakującego, aby powtórzyć prywatne komunikacje.
15,46K