随着人工智能 (AI) 能力的不断发展,其监管不能再只是一种优化和缓解措施,或者最大限度地利用创新机会并最大限度地降低危害风险。
人工智能相互交织的社会经济和法律影响需要动态治理安排来识别、应对和预测不断变化的监管要求。
本报告提出了一个框架,该框架不仅可以预测、识别和评估风险,还可以对风险进行响应管理。
这样的框架将开辟道路,以协调建设国家能力的主权要求,同时促进多边合作,制定全球公认的标准,以促进负责任地部署人工智能创新。
自 2016 年微软发布人工智能聊天机器人 Tay 以来,人工智能系统取得了长足进步,该机器人在发布种族主义和反犹太主义推文后,一天之内就不得不被关闭。
然而,如果说 Tay 的经历给世界带来了什么教训,那就是需要为人工智能算法设置护栏,这些算法可以动态、交互地从有害的用户行为中学习,或者从普遍存在的、具有负面社会、经济和政治后果的人类行为中得出模式和推论。
虽然自 Tay 以来,人工智能产生明显有害输出的可能性可能已经降低,但由于不同算法和模型广泛使用和重复使用具有固有偏见的通用数据集,其影响已变得不那么明显。
例如,人们越来越担心人工智能算法中普遍存在的性别和种族偏见和歧视。
同时,随着人工智能系统获得越来越强的自主能力,它引发了有关知识产权 (IP) 所有权和作者身份的问题。
从 2018 年开始,美国计算机科学家斯蒂芬·泰勒 (Stephen Thaler) 跨司法管辖区提交了一系列知识产权申请,以指定他的人工智能系统 DABUS(统一感知的自主引导设备)为发明人。
他的申请(有时在单个司法管辖区提交多个申请)被澳大利亚、英国、美国、新西兰以及欧盟专利局拒绝,这些国家都认为一项发明的作者身份只能归属于法人。
南非是唯一对他有利的司法管辖区,2021 年 7 月,南非专利局认定 DABUS 为“发明人”。
在印度,印度版权局于 2020 年拒绝了人工智能系统 RAGHAV 被视为艺术作品共同作者的申请。
围绕知识产权所有权的这些难题将人们的注意力重新引向了人工智能生成输出的责任和义务归属问题,更重要的是在出现不利后果的情况下。
人工智能系统的本质:不透明、不可捉摸和自主,对确定责任规则提出了巨大的挑战。
当生产者由于算法的自学性质而无法预见因果关系时,如何追踪因果关系并确定过错?
这些事例引发的问题多于答案:对于因系统性偏见的延续而导致的、需要归咎和分摊责任的人工智能造成的损害,如何确定责任?
应该通过产品责任制度、委托代理关系,还是人工智能与社会界面的新法律轮廓来实现?
我们应该如何处理由于历史上男性在教育和就业方面代表性过高我们如何应对算法幻觉的新风险、歧视行为的动态学习,这些风险可能是其数据中的系统性问题和无数用户交互的结合?
我们应该如何事后解决数据丰富的大型科技公司所享有的市场集中度问题,这些公司作为 Web 2.0 的先行者享受着连锁效益?
事实上,人工智能的治理和监管就像是九头蛇,给政策制定者和监管者带来了持续而看似棘手的挑战。
人工智能的发展涉及整个利益相关者和条件的生态系统,对资源的控制