模型的通用能力让其能够应用到人类生产生活的各个场景中,可谓“无孔不入”,也因此带来了新的安全隐私问题。如何解决这一隐患,中国科学院院士何积丰开出了他的“药方”:利用对齐技术为大模型设“紧箍咒”。
何积丰院士认为,大模型的安全问题主要是在未经同意的情况下,收集、使用和泄露个人信息。隐私问题既可能发生在训练过程中,也可能发生在使用过程中,而大模型的生成能力则让“隐私泄露”的方式变得多样化,造成隐私保护更加困难。
“为了应对这些问题,我们需要大模型对齐技术。”何积丰说,“对齐(alignment)”是指系统的目标和人类价值观一致,使其符合设计者的利益和预期,不会产生意外的有害后果。“如果把人工智能看作《西游记》里的孙悟空,那么‘对齐’就是唐僧的‘紧箍咒’。有了‘紧箍咒’,就可以保证技术不会胡作非为。”不过,对齐技术同样面临挑战。一方面,对齐的基础,人类的价值观是多元且动态变化的,需要保证大模型为人服务、与人为善;另一方面,大模型的有用性与无害性之间目标也不完全一致。如何对错误进行有效纠正,设好大模型的“紧箍咒”也是挑战。
本报记者 杨硕
本文内容由互联网用户自发贡献,该文观点仅代表作者本人。如发现本站有涉嫌抄袭侵权/违法违规的内容,请发送邮件至 3587015498@qq.com 举报,一经查实,本站将立刻删除。本文链接:https://www.xmnhj.com/h/223180.html