Omdia观察:人工智能如何监管需要得到政策明确
2023年8月18日,美国联邦法院裁定,人工智能(AI)生成的艺术作品不受版权保护,因为这些作品不是由人类生成的。随着AI继续以前所未有的速度发展,版权和知识产权保护法等现有法规、规定正日益受到质疑。因此,规范人工智能使用的举措变得越来越重要。
鉴于此,Omdia发布了两份从监管角度审视AI的报告:《人工智能法规、政策和战略:分析-2023》和《人工智能法规、政策和战略:案例研究-2023》。报告指出,除了版权和知识产权法之外,安全、隐私、道德、透明度和安全都是监管需要首先解决的挑战。由于行业本身呼吁加强监管和某种形式的直接监管,监管机构将必须尽快正式制定一个框架,从而为该行业提供清晰信息。
监管机构必须尽快正式制定人工智能监管框架
2023年8月18日,美国联邦法院裁定AI生成的艺术作品不受版权保护,因为人类创造力仍然是版权资格的重要组成部分。受保护的作品必须“有一个具有智力、创造性或艺术劳动能力的原创者”,因此AI系统生成的内容不符合条件。一般来说,AI系统应该被视为人类创造内容的推动者,而不是生产受保护作品的工具。版权和保护知识产权的话题在AI领域仍然是有争议的,无论是从AI系统产生的版权材料的角度来看,还是从AI系统利用现有受版权保护的材料产生新输出的能力的角度来看,这一过程引发了AI系统是否可能侵犯版权的问题。很明显,生成式AI的日益广泛使用引发了新的问题,即著作权、侵权和合理使用等版权法原则将如何适用于AI系统创造或使用的内容。因此,行业迫切需要这些问题的答案。
Omdia资深分析师Sarah McBride表示,无论如何,讨论的范围远远超出了版权法。AI正在快速发展,并进入各个行业的广泛用例。该技术的广泛性在监管和保护最终用户免受伤害方面提出了问题。这也给监管机构带来了挑战,监管机构现在必须尝试预测AI服务的特定结果何时会是恶意的。这引起了全球各国政府和监管机构的极大关注,它们一直在加紧努力评估需要多大程度的监管参与。
根据Omdia报告《人工智能法规、政策和战略:分析-2023》,一种选择是政府和政策制定者考虑修改现有政策和监管框架以适应技术发展,而另一种选择是制定全新的框架,甚至选择自我监管。Omdia报告中指出的一些关键挑战包括安全、隐私、道德、透明度和安全,以及版权和知识产权法。任何监管都必须首先解决这些基本问题。到目前为止,发布的大多数指导方针都集中在与AI实施相关的道德和法律问题上。对于需要管制高风险情况(例如医疗保健环境)的必要性也开始出现某种形式的共识。与此同时,最近生成式AI的发展速度加快,引发了一个问题,即AI大语言模型本身是否也需要受到监管。至少,人们一直在推动提高透明度,以便对这些模型进行更多的审查。然而,这也可能涉及制定标准,以减轻对不可预见结果的担忧。
根据Omdia报告《人工智能法规、政策和战略:案例研究-2023》,一些国家已经宣布了国家AI战略,还有一些国家正处于最后起草阶段。许多国家AI战略优先考虑成为AI全球市场领导者,重点关注支持AI研发、发展AI技能和AI劳动力、加速AI在公共和私营部门的应用,以及建立强大的数据生态系统和ICT基础设施。与此同时,在监管方面,许多监管机构截至目前采取了事后(ex-post)态度,确保采取技术中立的方法,或者优先制定道德、隐私和安全指导方针。
特别是欧盟委员会,一直在积极推动AI监管政策,并发布了有史以来首个AI监管框架草案。它采用基于风险的方法,根据安全风险级别对AI系统实施禁令。然而,并不是只有欧盟在探索如何最好地应对AI的发展。包括美国(专注于特定的AI用例)、中国(推进深度合成技术和生成式AI的监管框架)和英国(采取针对特定行业的方法)等其他国家也在积极探索相关监管政策。它们都为未来树立了强有力的先例。
由于行业本身现在呼吁加强监督和某种形式的直接监管,监管机构必须制定一个框架来指导企业和保护社会。毫无疑问,在2023年的剩余时间里,AI领域将受到密切关注,尤其是在潜在的监管方面,因此,企业明智的的做法是主动开始在其系统内实施风险管理框架。
【注:Omdia由Informa Tech的研究部门(Ovum、Heavy Reading和Tractica)与收购的IHS Markit技术研究部门合并而成,是一家全球领先的技术研究机构。】