人工智能飞速发展,在为新一轮技术革命提供支撑的同时,也给社会带来诸多风险和挑战。麦肯锡全球人工智能最新调研显示,近5年全球范围内企业的AI使用率大幅提升,2022年有50%的公司部署了AI,远高于2017年的20%。对AI的资本投入也随使用率的提升而大幅增长。5年前约有40%的公司对AI投入了超过5%的总预算,而2022年已有超过一半的公司有此投入比例。
在此背景下,中国社会科学院国情调研重大项目《我国人工智能伦理审查和监管制度建设状况调研》起草组近日发布全国首个《人工智能法示范法1.0(专家建议稿)》(以下简称《示范法》),坚持发展与安全并行的中国式治理思路,提出了负面清单管理等治理制度,并对人工智能产业链条各主体责任义务分配等核心问题进行了回应。
中国社会科学院法学研究所网络与信息法研究室副主任周辉介绍称,与其他人工智能政策不同,《示范法》的创新之处在以下三个方面:首先,在监管上,创设性提出设置国家人工智能主管机关统筹负责全国范围内人工智能发展与管理工作。鼓励AI发展,采用负面清单管理制度对人工智能进行风险管理,负面清单内的研发、提供活动采取许可机制,实行事前监管;负面清单外的研发、提供活动则采取备案机制,事后监管机制。
其次,在方向上,坚持发展导向,设计了尽职免责等相应条款,采取有效措施鼓励生成式人工智能创新发展,在制度设计上留出更多容错空间。
最后,在主体架构上,按“研发者—提供者—使用者”三类主体进行制度设计,跳出具体应用场景,直接穿透底层技术逻辑。
值得注意的是,《示范法》对人工智能研发者、提供者的安全性义务进行了强调。一方面,要求其将人工智能投入使用或投放市场前进行安全测试,防范网络数据人工智能安全风险,保障人工智能全生命周期的安全、稳健运行,符合预期目的。另一方面,要求其按照相关规定履行安全漏洞管理义务,确保其安全漏洞得到及时修补和合理发布,并指导支持使用者采取防范措施。特殊情形下,人工智能研发者需要进行评估。如果发现研发阶段存在问题风险的,在问题风险解决前,暂停或下架人工智能产品、服务。
在星纪魅族集团有限公司数据合规执行总监朱玲凤看来,行业期待法律的确定性,有利于明确义务边界,营造更优的营商环境。人工智能产业链上的企业一般会将注意力放在自己的上下游上,而忽略了对整体方向的把控,通过法律指引可以帮助经营者识别和管理风险。
北京视界律师事务所合伙人吴凡指出,我国人工智能法律规范落实过程中,需要重视不同行业、不同场景下出现的不同法律风险,按照人工智能适用的场景和相应的风险进行差异化管理。
上海瑞达律师事务所律师冉鑫告诉《中国贸易报》记者,《示范法》可以与今年7月国家网信办等七部门发布的《生成式人工智能服务管理暂行办法》结合看待,鼓励生成式人工智能技术在各行业、各领域的创新应用,生成积极健康、向上向善的优质内容,探索优化应用场景,构建应用生态体系。同时,在知识产权保护、技术保护、个人信息数据保护等方面建立防火墙,重视人工智能与金融、医疗、教育等实体产业融合过程中出现的多样化风险,共同推动人工智能产业的健康发展。