CoinON消息,最近,来自北卡罗来纳大学教堂山分校的三位科学家发布了一项关于人工智能(AI)的预印研究,展示了从大型语言模型(LLMs)中(如OpenAI的ChatGPT和Google的Bard)删除敏感数据的困难。根据研究人员的论文,从LLMs中“删除”信息是可能的,但验证已删除信息的难度与实际删除同样困难。一旦模型训练完成,其创建者就不能够回到数据库中删除特定文件,以阻止模型生成相关结果。
本站所有软件信息均由用户上传发布,版权归原著所有。如有侵权/违规内容,敬请来信告知邮箱:764327034@qq.com,我们将及时撤销! 转载请注明出处:https://czxurui.com/zx/89537.html
发表回复
评论列表(0条)