大型语言模型(LLMs)可以记住并泄露敏感的训练数据,带来严重的隐私风险。 勇敢的研究人员开发了一种新的开源方法来检测这种记忆和信息泄露。🧵
训练数据泄露可能威胁到个人和机构。 想象一下,一个基于临床记录训练的医疗大型语言模型(LLM)意外泄露敏感的患者信息。 或者,一个基于公司文件训练的LLM被攻击者诱骗,复现私人通信。
54.8K