美顶级智库指出人工智能与网络安全交叉领域
呈现三种新兴趋势
| 来源:【字号:大 中 小】
2023年8月16日,美国伍德罗·威尔逊国际学者中心发布《人工智能与网络安全交叉领域的新兴趋势》研究报告指出,人工智能已经在网络安全领域产生了巨大影响,人工智能和网络安全之间出现出以下趋势:
(1)基于人工智能的防御策略在抵御黑客攻击方面展现巨大潜力
以人工智能为基础的防御策略可能成为正确保护网络的决定性因素。SecurityWeek最近在一个网络安全洞察会议上强调了人工智能软件在计算机网络异常检测中的常见应用,例如识别恶意软件、进行主动对抗或监测系统受到威胁的迹象。此外,人工智能软件现在还用于自动化其他网络安全流程,例如隔离受到攻击的设备。
此外,Electronics最近的一项研究表明,利用机器学习模型进行威胁检测的主动措施对于阻止网络攻击至关重要。例如,神经网络、深度强化学习和自动编码器是基于人工智能模型的案例。这些模型被认为对强大的网络安全响应至关重要。此外,阿联酋发布的一项综合调查显示,人工智能软件可能是少数几个能够检测计算机上其他人工智能系统是否有“被投毒的”信息或数据的应用之一。
(2)可解释人工智能(XAI)模型使网络安全应用更加安全
大多数用户不理解机器学习算法的目的和工作原理。2019年,美国国防高级研究计划局启动了开创性研究,以解决这个问题,并探索可解释人工智能在创建人类用户可理解的模型和决策系统方面的重要性。然而,根据美国电气和电子工程师协会(IEEE)最新研究,尽管人工智能在网络安全异常检测方面被广泛使用,但大多数机器学习算法都以“黑盒方式”部署,这意味着安全专家和客户无法解释这些过程是如何得出特定的结论的。这种不透明性降低了用户对这些模型的信心,并且低估了它们在解决各种网络入侵方面的局限性。然而,在网络安全中应用可解释人工智能可增强用户信心,并在防御机制失效时帮助管理网络安全,因为其能提供对模型运作模式的清晰评估。
随着人工智能模型在入侵检测、软件逆向工程、网站指纹识别和其他应用中的更频繁应用,可解释人工智能模型可能会在增强安全漏洞识别、人类用户错误修复和归因能力方面更具弹性,效果更佳,从而更有效地阻止网络威胁。
(3)人工智能民主化降低了自动化网络安全实践的准入门槛
今年的另一个趋势是人工智能输入的民主化,这降低了网络安全实践自动化的障碍。帕特里克·萨福托博士认为,人工智能产品开发者和学术团体已经发布了他们的算法模型、代码和数据源,以推动开源系统的发展,这样可以获得建设性反馈、社区驱动的创新,并提高功能的透明度。此外,信息系统协会发现,这种人工智能民主化,以及使知识和经验有限的群体能够更容易接触人工智能组件的措施,可以实现网络安全实践自动化。
一个案例是使用“无代码工具”。根据瑞典乌默奥大学的一项最新研究,这些工具使用户能够在不具备高级技术能力或编码技能的情况下开发基于人工智能的平台。根据于韦斯屈莱应用科学大学的研究,对于那些能够从自动化网络安全实践中受益但缺乏资源来创建和分析复杂算法系统的组织来说,这些平台变得更加经济实惠。尽管将人工智能输入民主化供公众使用有着很大好处,但网络安全公司SlashNext追踪网络犯罪工具的工作表明,恶意行为者可以利用或武器化这些模型来强化自己的行动。此外,如果这些模型对用户来说是不可解释的,那么长期内它们可能缺乏强劲的安全性。因此,人工智能输入的民主化可能会产生进一步的漏洞,从而抵消组织从自动化网络安全实践中获得的好处。
在网络安全和人工智能交叉点的这三个趋势将从根本上改变了数字领域,尽管无法确定产生的后果,但它们的发展在未来几个月内值得密切关注。基于人工智能的防御策略和可解释人工智能模型可能会显著改善网络安全协议。然而,当前的人工智能民主化趋势将为数字系统带来漏洞,对网络安全产生制衡。正如安全领域中的一个常见比喻所说的那样,只有在最薄弱的时候才会爆发力量。随着这些趋势不断发展,网络安全社区和人工智能从业者需要共同努力,在创新性自动化与综合安全响应措施之间达成平衡。
信息来源:
https://www.wilsoncenter.org/blog-post/emerging-trends-nexus-artificial-intelligence-cybersecurity