筑牢AI发展的安全屏障

  人工智能是引领新一轮科技革命和产业变革的战略性技术,同时也有着非常明显的“双刃剑”特征。

  一方面,人工智能赋能国家安全相关领域,是筑牢国家安全屏障的有力抓手。另一方面,人工智能因其脆弱性、不稳定性、不可解释性等特点,在与经济社会深层次地融合应用的过程中,极易引发国家、社会、企业和个人等层面的安全风险。

  在席卷全球的人工智能浪潮中,怎么样应对人工智能风险、把握发展的策略主动、有效维护和保障国家安全,是国家治理的重要议题。我国格外的重视人工智能安全发展,逐步完善相关政策法规。

  数据是数字化的经济时代的关键生产要素,保障数据安全是促进人工智能安全发展的重要基础。我国2022年数字化的经济规模逾50万亿元,总量稳居世界第二,占GDP比重41.5%,数据量呈爆发式增长态势。随着数据要素规模逐步扩大,以AI为代表的数字技术将实现知识与数据双轮驱动,数据价值得到进一步释放,生产资源配置、生产运行逻辑以及生产、分配、流通和消费关系等得以重塑,生产方式和生产关系发生变革。这在赋能传统产业转型升级、助力数字化的经济加快速度进行发展的同时,也伴随着数据泄露、虚假信息、算法歧视等数据安全新问题。只有筑牢数字安全屏障,才能为AI发展保驾护航。

  人工智能产业加快速度进行发展过程中显现出数据安全领域的风险挑战。当前,人工智能进入加快速度进行发展期,应高度关注并有效应对随之而来的问题。例如,神经网络具有“黑盒”特点,导致人工智能存在不可解释性。深度学习对训练样本过度依赖,导致学习结果的不可判定性。此外,漏洞等引发的问题交织叠加,使得AI应用系统的数据安全问题变得更复杂。有关机构针对IT行业领导者进行的一项关于ChatGPT等大模型的调查显示,安全性是受访者最关心的问题,71%的受访者认为生成式AI会给企业的数据安全带来新的风险。为避免敏感数据外流,微软、亚马逊等科技公司已相继限制或禁止其员工使用生成式AI工具。可见,全面加强人工智能数据安全保障体系和能力建设已成为应对新形势新挑战的必然之举。

  人工智能时代的数字安全威胁到底有多大?AI系统自身面临多维度安全风险。技术内生风险和系统衍生风险交织叠加,使得AI时代的安全问题异常复杂。数据安全风险方面,人工智能依托海量数据发展,有敏感信息泄露风险,且人工智能平台收集的原始数据与衍生数据的归属权、控制权和使用权目前在法律上尚难界定。算法模型安全方面,安全风险贯穿数据采集、预处理、模型训练、模型微调、模型部署应用等人工智能模型构建的全生命周期。外部攻击安全方面,数据投毒、对抗样本、数据泄露、模型窃取、软件漏洞等安全风险隐患屡见不鲜。

  人工智能技术滥用带来数字安全威胁。当前,生成式人工智能的发展标志着人工智能正在从专用智能迈向通用智能,进入了全新发展阶段。大部分传统人工智能模型的安全风险任旧存在,同时生成式人工智能也有一些特有的问题,如技术软肋难以避免易培育假信息“温床”,使用方式简单便捷易形成失泄密“陷阱”,新兴技术尚难监管易成为信息战“武器”。

  因此,亟须加强AI发展的潜在风险研判和防范,确保人工智能安全、可靠、可控。

  (作者为国家信息中心信息化和产业发展部主任、国家大数据发展专家咨询委员会秘书长)