正如其他许多新兴技术一样,AI是一把双刃剑,它对于云计算的安全影响是双重的:这项技术可以使工作负载变得更加安全,但也可能会为新的威胁打开大门。
出现这种分歧的部分原因是,AI和机器学习正融入到主要的公有云平台中。云供应商和第三方供应商提供了一系列针对新手和经验丰富的数据科学家的AI服务,但其中一些很可能会带来新的机器学习安全挑战。此外,一些供应商还提供依赖AI识别潜在危险的安全服务。
大量的AI和机器学习安全工具以及潜在的威胁可能最终会淹没用户,因为大多数组织才刚刚开始涉足这些技术。四个专家提示,供应商需要让用户尽快了解云计算、安全和AI之间的相互作用。
云供应商将AI添加到安全工具中
企业无法直接访问AI在云计算中的一些最有趣的应用,因为这些算法被嵌入到托管的安全服务中。这些工具通常有两种形式。第一种会使用机器学习扫描用户记录来识别和分类敏感信息。那些主流云提供商和第三方安全公司,如FixStream、Loom Systems、Devo和ScienceLogic,都提供相应服务。
第二种变体使用机器学习来检测威胁。云安全服务,如Amazon GuardDuty和微软Azure Sentinel,利用供应商庞大的网络来识别常见的威胁,并提醒管理员潜在的风险。
然而,来自公有云供应商的工具有一个主要缺点:它们不能在其他供应商的云上工作。对于希望跨多云体系结构实现统一安全状态的组织来说,这可能是个问题。
安全专家警告称,希望永久使用AI和机器学习的人,以及计划将其用于邪恶目的的人之间,存在一场军备竞赛。随着这些技术的进步,恶意者可能会使用机器学习来应对网络防御,破坏检测模型,从而更快地发现漏洞,而不是修补漏洞。
鉴于机器学习背后需要依赖于大量的数据,今天大部分的工作必须依托于云。公司可以快速地提供资源来处理他们的计算需求。然而,随着公司收集有关用户行为的数据,培训和运行模型所需的数据可能会增加隐私方面的担忧。为了降低这些风险,公司可以匿名化用户数据,因此他们将不得不继续了解数据驻留要求和其他合规规定。
在未来,当AI和机器学习工具越来越受欢迎时,云供应商也可能会采取更多措施,将安全特性直接构建到它们的AI和机器学习工具中。例如,谷歌最近添加了TensorFlow Privacy,这是其流行的TensorFlow机器学习框架的一个变体。它使用不同的隐私技术来提高模型的安全性。
通过自动化实现机器学习安全实践
公有云非常适合快速扩展,但是大规模的操作会带来复杂性。组织可能难以监视由其资源生成的大量日志,以及分布在其帐户上的大量用户。未能监视这些活动还可能会导致漏洞。
当组织删除尽可能多的手工步骤时,就可以更好地处理这些激增的信息。AI和机器学习可以使这些努力更进一步,以实现自动化。
不过......
AI不是万能钥匙
从来没有一种技术会是应对安全威胁的万灵药,AI当然不例外,尽管许多组织都希望它是。对于初学者来说,算法的结果只取决于设计和数据。他们也可能被操纵和歪曲。当这些技术出现时,组织需要意识到它们的局限性。
更重要的是,适当的网络清洁始于公司里的人,而不是技术。AI和机器学习可以加强安全方面的努力,但企业应该首先关注如何教育员工进行正确的安全实践。
原文来自:
本文地址://gulass.cn/ai-deepleaning-machine.html编辑:public,审核员:逄增宝
Linux大全:
Linux系统大全: