▲ 用户与人工智能之间的匿名对话仍然会泄露用户的真实身份,引发隐私和安全担忧。 Photo/Photo IC:您认为匿名使用大型模型安全吗?即使所有人都在一起,人工智能也可以识别您,甚至可以选择您的疾病或财产等敏感信息。南方都市报记者对几款大型模型进行了评估,发现一些传统的大型模型可以通过多次渐进式交互引导,结果还原了用户的真实身份。人工智能和更大模型的到来给互联网用户带来了极大的便利,但也带来了严峻的安全挑战。应对这些挑战的难度可能比传统的网络安全治理要大得多。由于我们需要保证用户个人信息的安全,从传统的技术角度来说,我们可以通过删除用户个人信息来履行我们的义务。来自我们服务器的数据。但在大规模模型场景下,即使业务主观上不想保留用户信息,模型在服务过程中也会无意识地“记住”相关数据。当谈到有意识地迫使模型“忘记”数据时,主流主流模型在这一领域仍然处于空白,至少目前如此。遗忘比学习更难。从本质上讲,金庸小说《宙天屠龙记》中张无忌的“太极忘”、颜回《庄子》中的“坐忘”、大模型的“机忘”,其底层逻辑几乎是同构的。真正的“学习”是一种更高级的技能,与动作或知识细节无关。真正的“遗忘”必须是选择性的,而不是全局性的损害。这意味着一些信息被删除,但基本功能被保留。新出现的数据安全风险给大规模模型开发带来了“可控遗忘”问题开发者。这是因为人工智能不是一个数据库,而是一个可以记忆的系统。不只是存储数据;将数据整合到参数中。 Just like when you drop ink into water, the individual ink drops are never found again.所以传统的删除没有效果,需要改变认知结构(修改模型)。对于开发人员来说,这代表着一个巨大的变化,并且可能会带来许多隐患。比如,如何精确控制遗忘的限度?它会让模型变得愚蠢吗?例如,模型中不同类型的信息是交织在一起且相关的。如何才能精准移除与自己相关的部分而不影响他人使用?例如,您可能有一些尚未泄露给更大模型的私人数据,但您可以从大量信息中推断出事实。我们如何限制这种容量?巨大的潜在风险意味着不可控的潜在转换成本。两者的优点是它们允许大sc随着技术的发展,啤酒模型可以主动学习“受控遗忘”,类似于“太极遗忘”或“坐着遗忘”。这并不是强制降低智力,而是一种高级技能。事实上,研究人员长期以来一直关注模型在线运行时的数据丢失问题。例如,浙江大学的主要成果是建立了一个在线遗忘机制的模型,可以在不停止模型或中断服务的情况下删除机密信息。这有效解决了行业模型上线后发现问题无法自由停止和更新模型的问题。同时考虑到模型中信息的纠缠性和关联性,该方法能够满足目标。保护您的信息,同时最大限度地发挥模型的整体功能。请注意,您不必太担心忘记大型模型的问题。新技术需要时间成熟。从蒸汽机到互联网,每一次变革都带来新的挑战,但人类总能通过探索找到解决方案。与人工智能可能引发的其他深层次问题相比,“可控遗忘”只是该技术进化的一步。通过算法优化和技术迭代,最终会成为一个大模型的高阶函数,比如“忘记打太极”或者“忘记坐下”。人工智能的进化从来不是为了变得更聪明或更强大,而是为了学习限制和选择。它不仅应该提供舒适感,还应该保持最大程度的隐私。只有这样,人工智能才能真正服务人类并实现长期稳定。撰稿/编辑:辛海光(媒体人)/徐秋英 校对:马小龙/李丽君