4IquAZpUsy1作者:马俊world.huanqiu.comarticle“全球蓝屏”事件发出预警,AI时代网络安全威胁有多大?/e3pmh22ph/e3pmh26vv【环球时报报道 记者 马俊】迅猛发展的人工智能(AI)浪潮正席卷全球,网络安全领域也受到巨大影响。不久前的“全球蓝屏”事件已经证明,现代社会对于信息化的依赖度有多强,而构建在大数据基础上的AI时代,又将如何保证网络安全?《环球时报》记者在7月31日到8月1日举行的ISC.AI 2024第十二届互联网安全大会上,听取了多名业内专家的见解。 当前AI存在特殊缺陷 中央网络安全和信息化委员会办公室副主任、国家互联网信息办公室副主任王京涛在致辞中表示,截至目前,我国已经完成备案并上线、能为公众提供服务的生成式AI服务大模型已达180多个,注册用户已突破5.64亿。 但是目前的AI在自身基础理论和具体应用上都还存在诸多特殊缺陷。中国科学院院士、清华大学计算机系教授张钹在大会主题演讲中表示,当前流行的生成式AI拥有语言生成、自然语言交互和迁移三大能力,但同时也存在“幻觉”缺陷,也就是“一本正经地乱说”,而且“很多情况下AI并不知道自己说错了”。他表示,生成式AI的这个缺陷与“三大能力”是同时出现的,“这是因为我们要求它有多样性的输出,必然就会产生错误。这种跟机器都会产生常见错误非常不一样,后者往往是我们可以控制的,而生成式AI的错误是本身的错误,是一定会发生的,而且是我们不可控的。” 中国工程院院士、国家数字交换系统工程技术研究中心主任邬江兴表示,人类社会正在以前所未有的热情拥抱AI时代的来临,但是人类社会也正面临前所未有的AI安全威胁。AI应用系统安全问题既包括传统的网络安全问题,也有独特的内生安全个性问题,这成为当前AI推广应用中的最大障碍。邬江兴表示,内生安全个性问题存在着“三不可问题”,即不可解释性、不可推论性、不可判识性。不可解释性是指通过训练拟合阶段,让AI从大数据掌握到知识规律,但其中的工作原理是什么,我们仍然不明确,一旦出现问题,想要定位具体故障点有难度。不可判识性是指用来训练AI的大数据质量高低直接影响到大模型的判断结果。不可推论性是指AI目前对没有经历过的未知事物通常是无法理解和判断的。 “全球蓝屏”事件已发出预警 王京涛强调说,网络安全是一项系统工程,涉及的领域广、方面多,维护网络安全不仅是政府的事,也是全社会的共同责任,需要企业、社会组织、网民等各方共同参与,共筑防线。关键信息基础设施是经济社会运行的神经中枢,是国家网络安全工作的重中之重。当前,万物互联、产业数字化日趋明显,经济社会运行和人民生产生活对关键信息基础设施的依赖性日益增强,网络攻击、供应链中断等都可能带来严重影响。 如果说在个人电脑时代,网络安全是指存储在电脑里的信息安全,在移动互联网时代,网络安全可能影响财务的安全,那么在AI时代,网络安全面临什么样的新威胁呢? 360集团创始人周鸿祎表示,不久前美国“众击”公司升级程序错误导致的“全球蓝屏”事件造成全球航空业瘫痪,就已经提前发出了警告。他表示,过去电脑、手机都只是个人工具,存放的都是个别信息,遭到攻击后损失和影响范围相对有限;但在数字化时代,电脑、网络和数据在生产流程和很多关键基础设施中发挥了极大作用,如果受到网络攻击,会影响整个社会的正常运行,导致医院开不了门、柜台无法值机、麦当劳结不了账。而AI时代的这个问题进一步放大了,未来AI可以发挥的作用远非现在看到的“写篇作文”“做点图片”。他以AI最典型的应用场景——无人驾驶为例介绍说,未来真正实现无人驾驶汽车,驾驶座上可以完全没有人时,如果车厂运营中心遭到网络攻击,后果远超想象。轻则是车辆跟车厂失去联系,很多车只能趴窝无法行驶。更严重的是“黑客控制了车厂服务器”。因为自动驾驶汽车都是通过车联网听从车厂的AI遥控指挥,“车厂的网络结构非常复杂,网络攻击的难度比针对单辆自动驾驶汽车的难度要低得多。”因此黑客控制了车厂的AI中心服务器,就可以给它所控制的自动驾驶汽车下达各种指令,可能导致车门打不开,或者一路狂奔,后果非常严重。 周鸿祎还提到,外界普遍预测未来很多养老服务会由机器人负责,如果它们因网络攻击失控更可怕,“比如机器人正在给你洗头、洗澡,突然接到黑客指令,如果只是不动了还好办,就怕传来的指令是‘再用力一点’”。 以模制模,“用魔法打败魔法” 周鸿祎表示,网络安全行业有很多痛点能用AI解决。比如海量的数据分析难、快速处置难、追踪溯源所需要的安全专家人力不足等。“今天传统网络安全最大痛点就是缺乏专业的网络安全人才,中国有100多万专业人才的缺口,在发现攻击、抵御攻击、情况处置、自动化运营方面现在跟不上时代要求。我们通过训练安全大模型,通过AI自动化解决发现攻击、解决攻击和运营处置的问题,可以提高水平,能够填补这块人才的缺口。” 但周鸿祎也承认,AI在网络安全领域带来了新挑战,“首先是AI一定会成为坏人的工具,包括如何编写攻击软件、编写钓鱼网站。现在网络安全是人跟人的对抗,未来会生成人和机器的对抗,最后发展成机器和机器的对抗。所以必须要用AI应对AI升级的安全问题。” 其次,现在很多国家都意识到AI安全治理问题,随着AI的发展,会带来很多网络安全之外、数据安全之外新的安全威胁和安全挑战。“眼前的挑战还不明显,可能我们看到的还是内容安全,但是将来会出现更多我们现在还无法预测的网络安全问题。所以从现在开始要有人解决AI安全的问题。”他认为,AI带来的安全问题用传统安全思路解决是不行的,因为AI比传统的软件要聪明。所以对AI就得“以模制模”,必须用大模型解决大模型的安全问题。 中国网络空间安全协会副理事长卢卫也表示,人工智能的发展和治理,就是有关全人类的共同命运。人工智能学习模型存在很多问题,同时数据有很多自身风险。在发展的过程中,一定要应对好、梳理好这些风险。“我们国家对安全高度重视,在确保安全的情况下发展人工智能,已经建立或者正在建立比较完整的治理体系。目前AI模型的安全性落后于现在的性能和发展,要引起重视。安全治理要围绕以人为本、智能向善、公平正义、负责任、非恶意、防攻击等重点环节展开。” 1722534426812环球网版权作品,未经书面授权,严禁转载或镜像,违者将被追究法律责任。责编:赵建东环球时报172255172874211[]{"email":"xiaoshan@huanqiu.com","name":"肖山"}
【环球时报报道 记者 马俊】迅猛发展的人工智能(AI)浪潮正席卷全球,网络安全领域也受到巨大影响。不久前的“全球蓝屏”事件已经证明,现代社会对于信息化的依赖度有多强,而构建在大数据基础上的AI时代,又将如何保证网络安全?《环球时报》记者在7月31日到8月1日举行的ISC.AI 2024第十二届互联网安全大会上,听取了多名业内专家的见解。 当前AI存在特殊缺陷 中央网络安全和信息化委员会办公室副主任、国家互联网信息办公室副主任王京涛在致辞中表示,截至目前,我国已经完成备案并上线、能为公众提供服务的生成式AI服务大模型已达180多个,注册用户已突破5.64亿。 但是目前的AI在自身基础理论和具体应用上都还存在诸多特殊缺陷。中国科学院院士、清华大学计算机系教授张钹在大会主题演讲中表示,当前流行的生成式AI拥有语言生成、自然语言交互和迁移三大能力,但同时也存在“幻觉”缺陷,也就是“一本正经地乱说”,而且“很多情况下AI并不知道自己说错了”。他表示,生成式AI的这个缺陷与“三大能力”是同时出现的,“这是因为我们要求它有多样性的输出,必然就会产生错误。这种跟机器都会产生常见错误非常不一样,后者往往是我们可以控制的,而生成式AI的错误是本身的错误,是一定会发生的,而且是我们不可控的。” 中国工程院院士、国家数字交换系统工程技术研究中心主任邬江兴表示,人类社会正在以前所未有的热情拥抱AI时代的来临,但是人类社会也正面临前所未有的AI安全威胁。AI应用系统安全问题既包括传统的网络安全问题,也有独特的内生安全个性问题,这成为当前AI推广应用中的最大障碍。邬江兴表示,内生安全个性问题存在着“三不可问题”,即不可解释性、不可推论性、不可判识性。不可解释性是指通过训练拟合阶段,让AI从大数据掌握到知识规律,但其中的工作原理是什么,我们仍然不明确,一旦出现问题,想要定位具体故障点有难度。不可判识性是指用来训练AI的大数据质量高低直接影响到大模型的判断结果。不可推论性是指AI目前对没有经历过的未知事物通常是无法理解和判断的。 “全球蓝屏”事件已发出预警 王京涛强调说,网络安全是一项系统工程,涉及的领域广、方面多,维护网络安全不仅是政府的事,也是全社会的共同责任,需要企业、社会组织、网民等各方共同参与,共筑防线。关键信息基础设施是经济社会运行的神经中枢,是国家网络安全工作的重中之重。当前,万物互联、产业数字化日趋明显,经济社会运行和人民生产生活对关键信息基础设施的依赖性日益增强,网络攻击、供应链中断等都可能带来严重影响。 如果说在个人电脑时代,网络安全是指存储在电脑里的信息安全,在移动互联网时代,网络安全可能影响财务的安全,那么在AI时代,网络安全面临什么样的新威胁呢? 360集团创始人周鸿祎表示,不久前美国“众击”公司升级程序错误导致的“全球蓝屏”事件造成全球航空业瘫痪,就已经提前发出了警告。他表示,过去电脑、手机都只是个人工具,存放的都是个别信息,遭到攻击后损失和影响范围相对有限;但在数字化时代,电脑、网络和数据在生产流程和很多关键基础设施中发挥了极大作用,如果受到网络攻击,会影响整个社会的正常运行,导致医院开不了门、柜台无法值机、麦当劳结不了账。而AI时代的这个问题进一步放大了,未来AI可以发挥的作用远非现在看到的“写篇作文”“做点图片”。他以AI最典型的应用场景——无人驾驶为例介绍说,未来真正实现无人驾驶汽车,驾驶座上可以完全没有人时,如果车厂运营中心遭到网络攻击,后果远超想象。轻则是车辆跟车厂失去联系,很多车只能趴窝无法行驶。更严重的是“黑客控制了车厂服务器”。因为自动驾驶汽车都是通过车联网听从车厂的AI遥控指挥,“车厂的网络结构非常复杂,网络攻击的难度比针对单辆自动驾驶汽车的难度要低得多。”因此黑客控制了车厂的AI中心服务器,就可以给它所控制的自动驾驶汽车下达各种指令,可能导致车门打不开,或者一路狂奔,后果非常严重。 周鸿祎还提到,外界普遍预测未来很多养老服务会由机器人负责,如果它们因网络攻击失控更可怕,“比如机器人正在给你洗头、洗澡,突然接到黑客指令,如果只是不动了还好办,就怕传来的指令是‘再用力一点’”。 以模制模,“用魔法打败魔法” 周鸿祎表示,网络安全行业有很多痛点能用AI解决。比如海量的数据分析难、快速处置难、追踪溯源所需要的安全专家人力不足等。“今天传统网络安全最大痛点就是缺乏专业的网络安全人才,中国有100多万专业人才的缺口,在发现攻击、抵御攻击、情况处置、自动化运营方面现在跟不上时代要求。我们通过训练安全大模型,通过AI自动化解决发现攻击、解决攻击和运营处置的问题,可以提高水平,能够填补这块人才的缺口。” 但周鸿祎也承认,AI在网络安全领域带来了新挑战,“首先是AI一定会成为坏人的工具,包括如何编写攻击软件、编写钓鱼网站。现在网络安全是人跟人的对抗,未来会生成人和机器的对抗,最后发展成机器和机器的对抗。所以必须要用AI应对AI升级的安全问题。” 其次,现在很多国家都意识到AI安全治理问题,随着AI的发展,会带来很多网络安全之外、数据安全之外新的安全威胁和安全挑战。“眼前的挑战还不明显,可能我们看到的还是内容安全,但是将来会出现更多我们现在还无法预测的网络安全问题。所以从现在开始要有人解决AI安全的问题。”他认为,AI带来的安全问题用传统安全思路解决是不行的,因为AI比传统的软件要聪明。所以对AI就得“以模制模”,必须用大模型解决大模型的安全问题。 中国网络空间安全协会副理事长卢卫也表示,人工智能的发展和治理,就是有关全人类的共同命运。人工智能学习模型存在很多问题,同时数据有很多自身风险。在发展的过程中,一定要应对好、梳理好这些风险。“我们国家对安全高度重视,在确保安全的情况下发展人工智能,已经建立或者正在建立比较完整的治理体系。目前AI模型的安全性落后于现在的性能和发展,要引起重视。安全治理要围绕以人为本、智能向善、公平正义、负责任、非恶意、防攻击等重点环节展开。”