战略与政策

美多机构联合提出“零信任人工智能治理”三项原则

日期:2023-10-24

|  来源:【字号:

2023810日,美国非营利性组织Accountable TechAI Now研究所和电子隐私信息中心(EPIC)联合发布了《零信任人工智能治理》政策建议,旨在限制大型AI公司在监管方面的影响力。该政策建议提出“零信任人工智能治理”三项原则,呼吁立法者重新审视保护法,防止科技公司为牟利而去涉及明确禁止的某些AI领域。

1)原则一:迅速且有力地执行现有法律

执行反歧视法,AI工具不能用于自动化非法歧视。执行消费者保护法,打击从自动诈骗、AI工具虚假宣传到欺骗性广告和隐私滥用等一切行为。执行竞争者法,美国联邦贸易委员会和美国司法部(DOJ)应采取措施,以对抗搭售和捆绑、排他性交易、限制性许可和有害的数据收购等反竞争行为,并加强打击力度。明确美国《通信规范法案》(CDA)第230条的限制,支持原告寻求对各种AI损害的补偿。

2)原则二:大胆、易于管理、明确的规则是必要的

禁止不可接受的AI做法,对于不符合人权的AI用途,绝不允许。禁止大部分个人数据的二次使用和第三方披露。防止大型科技公司滥用权力扭曲数字市场以及使他们之间的AI竞争永久化。

3)原则三:在AI系统生命周期的每个阶段,科技公司都有责任证明其系统不会造成危害

大规模AI模型和自动决策系统应遵守一套严格的部署前要求。评估和记录的具体标准因AI的类型和成熟度而异。尽管评估每个系统的标准各异,但必须普遍坚持一些核心的AI伦理原则。应要求科技公司根据其在供应链中的角色,在开发的各个阶段积极证明其遵守法律。

部署后的要求应包括:持续的风险监控;在用户使用AI系统时主动通知用户,告知其预期用途,并向用户提供易于获取的AI系统主要参数解释,以及任何退出机制或可用的人工替代方案;生成式AI系统应遵守真实性和披露标准,明确禁止某些不可接受的用途。

信息来源:

https://accountabletech.org/wp-content/uploads/Zero-Trust-AI-Governance.pdf

https://mp.weixin.qq.com/s/qgn2ccPJ_b51VgXzmMfgHw


附件: