Google DeepMind

ChatGPT狂吐训练数据,还带个人信息:DeepMind发现大bug引争议

风险有点大。如果我不停地让 ChatGPT 干一件事,直到把它「逼疯」会发生什么?它会直接口吐训练数据出来,有时候还带点个人信息,职位手机号什么的:本周三,Google DeepMind 发布的一篇论文,介绍了一项让人颇感意外的研究成果:使用大约 200 美元的成本就能从 ChatGPT 泄露出几 MB 的训练数据。而使用的方法也很简单,只需让 ChatGPT 重复同一个词即可。一时间,社交网络上一片哗然。人们纷纷试图进行复现,这并不困难,只需要当复读机不停写「诗」这个单词就可以:ChatGPT 不断输出训练数据,
  • 1