当今世界正经历新一轮科技革命和产业变革,人工智能技术的迅猛发展深刻改变着全球各个领域。然而,随着人工智能技术的广泛应用,安全风险也日益显现。面对纷繁复杂的形势,党的二十届三中全会指出:“国家安全是中国式现代化行稳致远的重要基础。必须全面贯彻总体国家安全观,完善维护国家安全体制机制,实现高质量发展和高水平安全良性互动,切实保障国家长治久安。”因此,我们要学习贯彻党的二十届三中全会精神,围绕推进国家安全体系和能力现代化,建立人工智能安全监管制度,统筹好发展与安全两个点,确保人工智能技术的安全、可靠和可控,为中国式现代化保驾护航。
第一,建立人工智能安全监管的法律框架。随着人工智能技术的发展,世界各国都着手通过法律手段加强监管。2024年7月,欧盟在《欧盟官方公报》上正式发布了《欧盟人工智能法案》,成为全球首个人工智能监管法案。目前,我国相继出台了《互联网信息服务算法推荐管理规定》《生成式人工智能服务管理暂行办法》等。但现有规范大多属于部门规章,法律位阶相对较低,且大多针对应用场景,难以有效对人工智能开展全面的安全规制。所以,今后应制定专门的法律法规,明确人工智能技术的定义、适用范围、监管主体和责任主体,为相关技术的研发、应用和管理提供法律依据和保障;完善相关法律体系,包括数据保护法、隐私法、网络安全法等,对人工智能相关技术根据其风险程度进行分类监管;健全法律执行机制,确保法律法规的落地实施,坚持风险导向、分类管理、协同共治、创新引领等原则,确保执行机制既严格又灵活,能够适应人工智能技术的快速发展。
第二,规范人工智能研发与创新的技术标准。2021年巴以冲突、2022年乌克兰危机和2023年巴以冲突都引入了致命性自主武器系统、人工智能信息处理系统、生成式人工智能等人工智能技术的最新成果,导致部分商用人工智能系统被用于军事行动,对国际安全造成了冲击。部分大国趁虚而入,以制定规则标准为名,限制其他国家的技术开发路径,甚至将人工智能武器定义为自动化武器而非自主性武器,以规避《特定常规武器公约》的制约和限制。对此,我国应制定统一的技术标准,涵盖人工智能系统的设计、开发、测试和应用等各个环节,涉及数据处理、算法透明性、安全性评估等内容,保障人工智能系统的安全性和可靠性;建立人工智能系统的认证与评估机制,通过独立的认证机构,对人工智能系统进行综合评估,并颁发认证证书,作为合法投入我国应用市场的依据;鼓励国内高校、科研机构和企业开拓人工智能前沿领域,建立标准更新机制,掌握技术标准话语权,并定期对技术标准进行评估和更新,确保其适应技术发展的需要。
第三,构建规制人工智能发展的伦理规范。科技伦理作为科技创新活动中人与社会、人与自然和人与人关系的思想与行为准则,规定了科技工作者及其共同体应恪守的价值观念、社会责任和行为规范,是法律规范的重要补充。2021年9月,国家新一代人工智能治理专业委员会发布了《新一代人工智能伦理规范》,提出了6项基本伦理要求,将伦理道德融入人工智能全生命周期,为从事人工智能相关活动的自然人、法人和其他相关机构等提供伦理指引。今后,在已有伦理规范的基础上,应建立伦理审查机制,对人工智能系统的伦理风险进行评估,确保人工智能系统的研发和应用符合社会主义核心价值观和伦理标准;加强对科技公司、社交媒体平台和搜索引擎的伦理监督力度,要求其规范数据采集、加强数据保护、修改推送规则、监管虚假信息,防止出现数据滥用和虚假信息蔓延;推动伦理教育与宣传,提高全社会对人工智能伦理问题的认知,加强科研人员的科技伦理意识,促进全社会共同遵守人工智能伦理规范。
第四,加强人工智能安全监管的国际合作。由于人工智能技术展现出强大的颠覆性和创新性,部分大国竭尽全力遏制其他国家在算法、算力、大数据等关键领域的技术突破。为了防止国际社会在人工智能领域陷入无序竞争,应建立国际合作机制,与各国监管机构和国际组织开展合作,分享经验和信息,共同应对全球性的安全挑战。2020年,中国提出《全球数据安全倡议》,倡导共同构建和平、安全、开放、合作、有序的网络空间命运共同体,反对侵害数据安全、企业和个人信息等行为。2023年10月,中国发布了《全球人工智能治理倡议》,并将其纳入全球安全倡议的框架内,倡导各方“以人为本”,坚持“智能向善价值”的宗旨,不断提升人工智能技术的安全性、可靠性、可控性,秉持共商共建共享的理念,协力共同推进人工智能治理,达成普遍参与的国际机制,建立跨国监管合作机制,共同打击跨国犯罪和滥用行为,提高全球范围内的监管效率和效果,避免人工智能技术被滥用。
建立完善的人工智能安全监管制度,是确保人工智能技术安全、可靠、可控发展的重要基础,可以有效应对人工智能技术发展带来的各种挑战和风险。未来,随着人工智能技术的不断发展,监管制度也需要不断完善和创新,以实现高质量发展和高水平安全良性互动,为推进中国式现代化构筑坚强的安全保障。(赵志升 西安工业大学)