随着ChatGPT的诞生,生成式人工智能正式进入公众视野。背后的技术正在改写各行各业,与此同时也带来法律方面的相关风险。在日前举办的人工智能治理创新论坛上,中国法学会副会长江必新表示,生成式人工智能同任何其他的技术和工具一样,它都具有二重性。用好可以为人类谋福祉, 用不好也可能给人类带来负面的影响。因此,需要建立法律制度对其进行约束。由于人工智能的特殊性,只有高度的智慧化和智能化的法治,才能真正有效地驾驭人工智能的发展方向。
上海市法学会会长崔亚东表示,人工智能的发展引发了数字治理的现实难题,包括数据安全、伦理道德、知识产权保护、应用规范及相关法律、文明传承等问题。应当加强生成式人工智能发展的法治引领,健全完善伦理道德规范体系、生成式人工智能法律法规体系、技术标准、数字治理机制,对生成式人工智能予以结构化调整规制,以引领科技向善、趋利避害,保障人工智能等新技术安全、可控、可靠、可信、可持续发展。
中国人民大学教授王利明表示,人工智能侵权在侵权客体、侵权主体、构成侵权的认定、侵权的责任承担方式等方面具有自身的特殊性。生成式人工智能对传统民法尤其是侵权法提出了新的挑战,但是生成式人工智能引发的侵权纠纷,没有完全超出《民法典》和《个人信息保护法》的相关规定,现行法的规定仍然可以作为处理和解决纠纷的依据。未来条件成熟时,还可以通过特别立法预防和处理生成式人工智能引发的各种风险,有效保障民事主体合法权益,促进人工智能产业的健康发展。
记者了解到,2022年3月,中共中央办公厅和国务院办公厅印发了《关于加强科技伦理治理的意见》,为科技创新活动提供了“向善”性引导,也为科技创新持续造福人类提供了重要保障。在《数据安全法》和《个人信息保护法》等基础制度的有力保障下,深圳和上海先后出台《深圳经济特区人工智能产业促进条例》和《上海市促进人工智能产业发展条例》,在为产业发展保留足够的弹性与空间的前提下,通过专门的人工智能治理机构,设定监管底线,推动当地产业有序发展。
蚂蚁集团副总裁、首席合规官李臣表示,虽然生成式人工智能的发展面临着风险与挑战,但其中很多并不是由于该技术而产生的新风险,也并非无法防控的难题,可以通过建立全生命周期的合规管理与监测机制,引入合规科技等技术手段,为生成式人工智能的技术发展与应用创新提供安全保障。人工智能领域的国际治理规制竞争与科技创新竞争一样日益激烈,我国应积极参与国际相关标准、规则的制定,广泛凝聚人工智能治理的全球共识,不断提升在该领域的影响力。