斯坦福大学研究人员建议政策制定应综合考虑开放基础模型的利弊
| 来源:【字号:大 中 小】
2024年10月10日,斯坦福大学基础模型研究中心的研究人员在《科学》期刊上发表了题为《开放基础模型治理的注意事项》,就开放基础模型的治理与监管进行了深入探讨。
1. 基础模型的发布方式多样
基础模型的发布呈现出多样化的态势。从完全封闭,到有限访问,再到更开放的形式。其中,有限访问指模型公众可以使用,但无法深入了解其内部工作原理,即处于黑箱模式,如OpenAI的GPT-4;开放形式是指模型权重可以被广泛获取,允许用户进行下游修改和审查,如Meta的Llama 2。英国竞争与市场管理局的数据显示,截至2023年8月,公开披露模型最常见的发布方式是开放发布。
2. 开放基础模型的利弊
(1)优势显著
一是让权利更分散,封闭模型开发者在定义和限制使用案例上权力更大,而开放模型能让下游消费者更好地自己做决策;二是更有利于创新催化,开放基础模型具有可定制性,能提供更深入的访问,是创新的关键要素;三是更加透明化,2023年基础模型透明度指数显示,平均而言,主要的开放基础模型开发者比封闭模型开发者更透明,这种透明度有助于避免过去不透明数字技术带来的危害。
(2)风险存在争议
一是生物风险。有研究称开放基础模型可指导用户构建生物武器,但证据薄弱。即使模型能提供相关信息,实际制造生物武器还需要实验室的专业知识、设备和经验等。可能更好的政策干预点在下游,比如加强对生物序列购买者的筛选。
二是虚假信息。基础模型可能降低生成有说服力的虚假信息的成本,但目前没有证据表明开放基础模型会增加社会对虚假信息的敏感性。
三是网络安全。开放基础模型可能提高攻击性网络攻击的速度和质量,但同时也可能改善网络防御。如谷歌证明开放模型可大幅提高开源软件漏洞检测能力,广泛使用开放模型并配合相关工具,可能会加强网络安全。
四是鱼叉式网络钓鱼诈骗。基础模型能生成高质量的鱼叉式网络钓鱼邮件,但关键危险在于邮件附带的恶意软件,而不是邮件文本本身。而且,现代操作系统和浏览器有多层防护,在一定程度上能阻止钓鱼邮件的投递。
五是语音克隆诈骗。封闭模型开发者可通过一定的措施防止这类诈骗,如要求用户用信用卡注册并追溯音频来源。
六是非自愿亲密图像和儿童性虐待材料。开放的文本和图像模型降低了生成此类内容的门槛。封闭模型在这方面的防护相对更有效,监测封闭模型可阻止此类图像生成。
3. 政策对开放基础模型的影响
(1)合规负担不均。一些政策提案可能对开放基础模型开发者造成不利的影响。例如,要求开发者对模型生成的内容负责的立法,会伤害开放开发者,因为用户可修改模型生成非法内容。
(2)风险评估不准确。一些监管方法可能没有充分考虑开放基础模型相对于封闭模型或现有技术的边际风险。
4. 治理建议
(1)考虑潜在影响。政策制定者应明确考虑AI监管对开放基础模型创新生态系统的潜在影响。在制定政策时,应考虑到开放基础模型在权力分配、创新和透明度方面的社会利益,以及其可能存在的风险。
(2)精准定义模型。当法规直接涉及开放基础模型时,应仔细考虑用于识别这些模型和开发者的精确定义。仅基于开放权重来制定法规可能不合适,因为恶意行为者可能利用开放数据和源代码(无模型权重)重新训练模型并造成类似危害。
(3)直接咨询开发者。如果要实施相关干预措施,应直接咨询开放基础模型开发者,充分考虑其利益。例如,在考虑下游使用责任和严格的内容溯源要求等问题时,要考虑到开放基础模型开发者对下游使用控制有限的情况。
信息来源:
https://www.science.org/doi/10.1126/science.adp1848
https://mp.weixin.qq.com/s/BL9vJGBzt46zAquJ8_qO1w