您现在的位置是:人工智能 >>正文

CISO保障AI业务安全的五个优先事项

人工智能5268人已围观

简介安全领导者必须成为AI的倡导者、风险专家、数据管理员、教育者和研究者,以下是如何引领你的企业走向更安全、更有效的AI使用之路。当ChatGPT首次问世时,我询问了一个由CISO组成的小组,这对他们的网 ...

安全领导者必须成为AI的保障倡导者、风险专家、业务优先数据管理员、安全教育者和研究者,事项以下是保障如何引领你的企业走向更安全、更有效的业务优先AI使用之路 。

当ChatGPT首次问世时 ,安全我询问了一个由CISO组成的事项小组  ,这对他们的保障网络安全计划意味着什么 。他们认识到了即将到来的业务优先变化,源码下载但回顾了过去的安全颠覆性技术 ,如iPods、事项Wi-Fi接入点和SaaS应用程序进入企业界的保障情况。大家的业务优先共识是,安全AI将成为一个类似的安全颠覆者,因此他们认为80%(或更多)的AI安全要求已经到位  。诸如强大的资产清单、数据安全 、身份治理、建站模板漏洞管理等安全基础,将作为AI网络安全的基础 。

快进到2025年,我的CISO朋友们说得对——但又不完全对  。确实,一个健全且全面的企业安全计划可以作为AI安全的锚点,但剩下的20%比最初想象的要更具挑战性 。AI应用正在迅速扩大攻击面 ,同时还将攻击面扩展到第三方合作伙伴,以及深入到软件供应链内部,免费模板这意味着有限的可见性和盲点。AI通常根植于开源和API连接性,因此可能到处都存在影子AI活动 。最后,AI创新正在迅速推进  ,使得负担过重的安全团队难以跟上步伐 。

除了AI的技术方面外 ,值得注意的是 ,许多AI项目最终都以失败告终 。根据标准普尔全球市场情报(S&P Global Market Intelligence)的研究 ,高防服务器2025年有42%的企业关闭了大部分AI倡议(相比之下 ,2024年这一比例为17%)。此外,近一半(46%)的企业在AI概念验证还未进入生产阶段就已叫停 。

为什么这么多AI项目会失败?行业研究指出 ,成本、数据质量差 、缺乏治理、人才缺口以及扩展问题等是主要原因 。

随着项目的失败和一系列安全挑战的出现,企业在确保稳健的香港云服务器AI创新和安全战略方面有一长串且不断增长的任务清单。当我最近与我的CISO朋友们会面时  ,他们经常强调以下五个优先事项:

1. 以强大的治理模型为起点

需要明确的是,我所说的不仅仅是技术或安全 。事实上,AI治理模型必须始于业务和技术团队之间就AI如何以及在哪里用于支持企业使命达成的一致  。

为了实现这一点,CISO应与CIO合作 ,源码库对业务领导者以及法律、财务等业务职能部门进行教育 ,以建立一个支持业务需求和技术能力的AI框架,该框架应遵循从构思到生产的生命周期,并包括伦理考虑 、可接受的使用政策 、透明度、监管合规性以及成功指标。

在此过程中 ,CISO应审查现有的框架 ,如NIST AI风险管理框架 、ISO/IEC 42001:2023、联合国教科文企业关于人工智能伦理的建议 ,以及RockCyber的RISE(研究 、实施、维持、评估)和CARE(创建、采用、运行 、进化)框架 。企业可能需要创建一个适合其特定需求的“最佳”框架。

2. 全面且持续地了解AI风险

要掌握企业的AI风险  ,首先要从基础做起,如AI资产清单  、软件物料清单 、漏洞和暴露管理最佳实践以及AI风险登记册 。除了基础卫生外,CISO和安全专业人员必须了解AI特有的威胁,如模型中毒、数据推断、提示注入等  。威胁分析师需要跟上新兴的战术、技术和程序(TTP) ,这些用于AI攻击 。MITRE ATLAS是一个很好的资源。

随着AI应用扩展到第三方,CISO将需要对第三方数据 、AI安全控制  、供应链安全等进行定制审计 。安全领导者还必须关注新兴且经常变化的AI法规 。欧盟AI法案是目前最全面的 ,强调安全性 、透明度 、非歧视性和环境友好性。其他法规,如科罗拉多州人工智能法案(CAIA) ,可能会随着消费者反应、企业经验和法律判例法的演变而迅速变化 。CISO应预期其他州 、联邦、地区和行业法规的出现。

3. 关注不断发展的数据完整性定义

你可能会认为这是显而易见的 ,因为机密性、完整性和可用性构成了网络安全的CIA三要素 ,但在信息安全领域 ,数据完整性一直侧重于未经授权的数据修改和数据一致性等问题。这些保护措施仍然是必要的,但CISO应扩大其视野 ,以包括AI模型本身的数据完整性和真实性。

为了说明这一点 ,这里有一些著名的数据模型问题示例 。亚马逊创建了一个AI招聘工具,以帮助其更好地筛选简历并选择最合格的候选人。不幸的是,该模型主要使用男性导向的数据进行训练,因此它歧视女性申请者。同样,当英国创建一个护照照片检查应用程序时,其模型是使用白皮肤的人进行训练的 ,因此它歧视深色皮肤的人。

AI模型的真实性不是CISSP认证的一部分 ,但CISO必须将其作为AI治理责任的一部分来掌握。

4. 在所有层面追求AI素养

每个员工、合作伙伴和客户都将在某种程度上与AI合作,因此AI素养是一个高度优先事项。CISO应从自己的部门开始,对整个安全团队进行AI基础知识培训 。

已建立的软件安全开发生命周期(SDLC)应进行修订,以涵盖AI威胁建模、数据处理 、API安全等内容  。开发者还应接受AI开发最佳实践的培训 ,包括大型语言模型(LLM)的OWASP十大安全风险  、谷歌的安全AI框架(SAIF)以及云安全联盟(CSA)的指导。

最终用户培训应包括可接受的使用、数据处理、错误信息和深度伪造培训 。来自Mimecast等供应商的人类风险管理(HRM)解决方案可能是跟上AI威胁并为不同个体和角色定制培训所必需的。

5. 对用于网络安全的AI技术保持谨慎乐观的态度

我会将今天的AI安全技术归类为更像是“驾驶员辅助”,如巡航控制 ,而非自动驾驶 。尽管如此,事情正在迅速推进。

CISO应要求其员工识别离散的任务 ,如警报分类 、威胁狩猎、风险评分和创建报告,在这些任务中他们可能需要一些帮助,然后开始研究这些领域的新兴安全创新。

同时 ,安全领导者应与领先的安全技术合作伙伴安排路线图会议。参加这些会议时,要准备好讨论具体需求 ,而不是听那些不切实际的PowerPoint演示 。CISO还应直接询问供应商AI将如何用于现有技术的调优和优化 。创新正在不断涌现,因此我认为值得在现有合作伙伴  、竞争对手和初创企业中广泛寻找。

然而 ,要小心谨慎,许多AI“产品”实际上只是产品功能,AI应用需要大量资源,且开发和运营成本高昂。一些初创企业将被收购 ,但许多可能会迅速衰落 。买家要当心!

未来的机遇

我将以一个预测来结束这篇文章,目前,约70%的CISO向CIO汇报工作 ,我相信,随着AI的普及 ,CISO的汇报结构将迅速发生变化,更多地将直接向CEO汇报,那些在AI业务和技术治理中发挥领导作用的人很可能会成为首批被提拔的人 。

Tags:

相关文章


滇ICP备2023006006号-16