欧洲议会通过《人工智能法案》AI系统被禁止
【金色港湾资讯网为您推荐阅读】
欧洲议会人工智能法案的联合牵头人将 3 月 13 日描述为“历史性的一天”。
当地时间13日,欧洲议会以523票赞成、46票反对、49票弃权的压倒性多数通过了《人工智能法案》(以下简称《法案》),并公布了法案文本。
接受采访的专家指出,与今年1月发布的非官方文本相比,官方公告的内容实质上没有太大变化。 对通用人工智能系统、生物识别、国家安全等条款进行了一定调整。 在议会成功通过后,该法案就少了一个需要克服的障碍。 如果4月29日获得欧盟理事会批准,该法案预计将于5月和6月生效。
欧盟可能再次成为数字技术的全球标准制定者。
实质性内容已经敲定
“欧盟的人工智能法是一个比较重要的立法样本。” 对外经济贸易大学数字经济与法律创新研究中心执行主任张欣指出,总体来看,欧盟对于人工智能的立法监管思路还是和之前一脉相承,即基于风险分类分级管理。
根据欧洲议会官网披露的法案,人工智能系统根据风险不同分为四类:完全禁止、高风险、有限风险和低风险的人工智能系统。
有六类人工智能应用被完全禁止,例如公共场所的面部识别以及在工作或学校中使用人工智能识别情绪。 值得注意的是,此前颇受争议的生物识别最终并没有被彻底禁止。 当执法人员需要追踪严重犯罪分子、预防恐怖主义时,如果有司法或行政授权,面部识别技术仍然可以在公共场合使用。
比较熟悉的基本模型如 、 等可以用于各种目的,因此属于“典型的通用人工智能(AI,GPAI)”。 他们必须满足一些额外的透明度要求,例如遵守现行的欧盟版权法、发布培训数据的详细摘要。

据媒体报道,版权条款是该法案中“游说最激烈”的部分。 不同立场的观点不断碰撞,难以达成一致。 同济大学法学院助理教授、上海人工智能社会治理协同创新中心研究员朱跃认为,版权问题之争围绕一个问题:人工智能企业的培训内容应该披露到何种程度?
“媒体、作家和其他版权持有者可能会认为,既然他们的数据被使用,人工智能公司就应该尽可能详细地披露相关信息; 但另一端的模型开发者会认为,一方面,训练数据的选择和配置比例是公司的商业秘密,不能完全公开; 另一方面,Sora等顶级大型模型的训练数据很可能是高质量的私人数据,泄露可能会对公司产生负面的商业影响。”
“说实话,在详细的行为准则或指导意见发布之前,或者在重要案件裁决之前,很难说清楚欧盟在版权问题上的做法能达到什么程度,”他说。
该法案还强调,人工智能系统的部署者和提供商都有义务明确标记人工或操纵的图像、音频或视频内容(深度伪造)。
“目前官方在这个问题上的监管态度还是比较谨慎的。” 朱跃指出,一般来说,这种识别可以通过水印、标识、元数据等方式来实现。 从技术成熟度来看,图像的明暗水印技术已经逐渐成熟,但如何对文本内容进行水印可能还需要进一步探索。 “可能还需要一个支持性的行为准则来提供技术手段等方面的指导。”
是否规范基本模式此前也是一个核心争议。 各自拥有明星AI初创公司的法国和德国去年12月突然对基础模型监管提出反对,一度让《法案》谈判陷入僵局。 在欧洲议会的新闻发布会上,当被问及对法国企业的游说以及游说是否削弱了该法案基本模式的监管时,欧盟内部市场专员蒂埃里·布雷顿驳斥了这一说法。 他强调:“这是游说力度最大的立法之一,但欧盟顶住了压力。”
在朱跃看来,本轮之后的文本显示,欧盟对GPAI的监管力度并不算太强。 “主要是信息披露义务和一些常规的自律义务。 很可能此前业界及其他各方的游说对此产生了一定的影响。”
张欣认为,基本模式和风险识别评估的监管思路是本轮法案值得借鉴的亮点。 该法案提议根据某些指标和基准来评估通用人工智能模型的影响。 “生成式人工智能是一个技术群体,不同模型所能带来的风险和影响不能一概而论。这种计算通过训练、模型技能获取效率、通用分析,以及数据丰富度、算法效率和模型来进行计算基于性别维度并结合具体模型基准构建的基本模型分级治理思想具有一定的参考价值。
在她看来,无论是今天的生成式人工智能,还是即将到来的AI Agent(人工智能代理),治理的关键节点都在于基础模型环节。 因此,欧盟的分层治理是其努力协调发展、安全和精准治理的思路之一。

评估细化、框架整合等难点亟待解决
步骤越来越近,人工智能法案正在迈向下一步。 接受采访的专家指出,新规则与旧制度的融合、新风险与旧框架的冲突,都是未来执法面临的难题。
张欣指出,一方面,欧盟需要思考人工智能法如何与人工智能责任指令、产品责任指令、一般产品安全法规、GDPR、《数据治理法》、《数字市场法》相关联。 《》和《数字服务法》已经生效。 》避免法律规则之间的冲突和重叠; 另一方面,虽然以风险分类为基本治理思路,但人工智能风险呈现出动态特征,即使欧盟制定了更新的评估机制,但仍可能面临滞后和评估偏差的风险。 此外,风险评估和基本模型分级评估所依赖的评估机构体系和评估生态仍处于起步阶段,未来如何高效运作、能否满足立法者的期望仍存在不确定性。
“未来实施的挑战仍然非常艰巨,”她说。
该法案出台后,新的机构和规则是否会效仿?
21日记者发现,支持欧盟相关机构和规则的进展也在逐步加快。 今年年初,宣布决定成立欧洲人工智能办公室(AI)。 该办公室将成为通信网络、人工智能内容和技术总司行政结构的一部分。 其职能主要包括推动人工智能系统、人工智能的实施、监测和监督。 智慧治理。 目前,该办公室的人员协调工作已经开始。
规则方面,《产品责任指令》(以下简称“指令”)和《通用数据保护条例》(Data,以下简称“GDPR”)的进一步适用值得关注。
在朱跃看来,GDPR包含了多种类型的个人数据,人工智能的发展和运行都离不开数据。 “GDPR在人工智能领域的应用很可能会对AI实践产生非常大的影响。”
产品责任指令的重要性不可低估。 朱跃认为,《指令》多处规定,构成软件进而构成产品的人工智能将是其监管的重要对象。 一般来说,大多数民事诉讼都遵循“谁主张、谁举证”的原则。 但该指令对诉讼权利和责任的分配有特别规定。 如果原告能够证明该系统在科学上是复杂的,那么原告就可以证明该系统在科学上是复杂的。 举证责任可能会减轻。 对于AI从业者来说,《指令》也有相对“人性化”的规定,比如“发展抗辩”——如果损害是由于AI企业无法预见、以目前技术水平无法克服的风险而发生的,企业可以可以免除责任。
欧洲议会法律工作联席负责人在新闻发布会上表示,夏季议会选举后可能会出台更多与人工智能相关的立法和规则。









