从今日起,全球首部全面、系统的人工智能监管法规——欧盟《人工智能法案》正式进入实施阶段。这部具有里程碑意义的法案,旨在基于AI系统的风险水平建立分级监管框架,将对在欧盟市场运营的所有科技企业,包括正在出海的中国AI公司,带来前所未有的合规挑战。
法案将AI应用划分为“不可接受风险”、“高风险”、“有限风险”和“极小风险”四个等级。其中,“不可接受风险”的AI系统(如社会信用评分、操纵性潜意识技术、实时远程生物识别执法等)被直接禁止。“高风险”AI系统(涉及关键基础设施、教育、就业、执法、移民管理等)则面临严格的事前评估、数据治理、透明度及人工监督义务。
对于谷歌、Meta、微软等国际巨头,以及百度、阿里云、大疆等中国出海企业而言,其提供的诸多产品和服务可能被归类为“高风险”系统。这意味着它们必须立即启动合规审查,包括建立风险管理系统、确保训练数据集的偏差管控、进行详细的技术文档记录,并接受欧盟当局的严格监管。
法律专家指出,法案的“长臂管辖”效应显著,只要AI系统的输出在欧盟境内被使用,即使提供商在欧盟之外,也受该法规约束。短期内,企业合规成本将显著上升,部分功能可能需要在欧洲市场进行调整或下架。长期看,该法案很可能成为全球AI治理的“事实标准”,促使其他国家和地区跟进类似立法,重塑全球人工智能产业的发展路径。