您现在的位置是:系统运维 >>正文
四大攻击类型并存,NIST 警告人工智能系统带来的安全和隐私风险
系统运维24人已围观
简介美国国家标准与技术研究院 (NIST) 近日发布了有关对抗性机器学习 (AML) 攻击和缓解措施指南,呼吁人们再度关注近年来人工智能 (AI) 系统部署增加所带来的隐私和安全挑战,并表示这类系统目前没 ...
美国国家标准与技术研究院 (NIST) 近日发布了有关对抗性机器学习 (AML) 攻击和缓解措施指南 ,大攻的安 呼吁人们再度关注近年来人工智能 (AI) 系统部署增加所带来的击类隐私和安全挑战 ,并表示这类系统目前没有万无一失的型并方法进行保护。

NIST指出 ,告人工智这些安全和隐私挑战包括恶意操纵训练数据、统带恶意利用模型漏洞对人工智能系统的全和性能造成不利影响,甚至是隐私恶意操纵 、修改或仅仅是风险与模型交互,就可以外泄关乎个人、模板下载大攻的安企业甚至是击类模型本身专有的敏感数据 。
伴随着OpenAI ChatGPT 和 Google Bard 等生成式人工智能系统的型并出现 ,人工智能系统正快速融入在线服务 ,告人工智但支持这些技术的统带模型在机器学习操作的各个阶段都面临着许多威胁。NIST ,全和重点关注了四种主要类型的隐私攻击:逃避、中毒、高防服务器隐私和滥用。
规避攻击:目的是在模型部署后产生对抗性输出中毒攻击:通过引入损坏的数据 ,针对算法的训练阶段进行攻击隐私攻击:目的是通过提出规避现有防护措施的问题 ,收集有关系统或其训练数据的敏感信息滥用攻击 :目的是破坏合法的亿华云信息来源,如包含错误信息的网页,以重新利用系统的预期用途在规避攻击中,NIST 以对自动驾驶车辆的攻击作为示例 ,例如创建令人困惑的车道标记导致汽车偏离道路 。

针对自动驾驶车辆的规避攻击
在中毒攻击中,攻击者试图在人工智能训练期间引入损坏的数据。例如 ,服务器租用通过将大量此类语言实例植入对话记录中,让聊天机器人使用不恰当的语言,以使人工智能相信这是常见的用语 。
在隐私攻击中,攻击者试图通过询问聊天机器人大量问题,并使用给出的答案对模型进行逆向工程 ,进而发现弱点来获取有关人工智能或其训练数据中存在的敏感数据 。
滥用攻击涉及将不正确的信息插入到源中,源码库例如网页或在线文档,然后人工智能吸收这些信息 。与前面提到的中毒攻击不同,滥用攻击试图从合法但受损的来源向人工智能提供不正确的信息,以重新调整人工智能系统的预期用途 。
NIST表示,上述攻击并不需要完全掌握人工智能系统某些方面就可以轻松实施,希望科技界能拿出更好的防御措施来应对这些风险。
免费模板Tags:
转载:欢迎各位朋友分享到网络,但转载请说明文章出处“算法与编程”。http://www.bzli.cn/news/006f499989.html
相关文章
探索增强IT基础设施保护的十种网络安全措施
系统运维译者 | 刘涛审校 | 孙淑娟如今,网络安全正迅速成为各大组织关注的焦点。由于对数字化系统的依赖性越来越强,网络威胁对于各种规模的企业来说都是主要的挑战。网络攻击可能导致数据泄露、敏感信息被窃取、财产 ...
【系统运维】
阅读更多监管机构禁令频发,谷歌将被禁止追踪数百万用户数据
系统运维6 月 27 日消息,欧盟一直在监管谷歌对于其在移动搜索引擎行业和应用程序中垄断权力的滥用,现在,欧盟中越来越多的国家正在追查谷歌数据分析工具Google Analytics),因为它被发现违反了《通 ...
【系统运维】
阅读更多云计算配置错误导致的漏洞如何进行处理
系统运维在准备大规模的黑客攻击和漏洞利用时,网络攻击者通常依赖受害者的人为错误、天真和粗心,而不是他们自己的技巧和狡猾。事实上,大多数公司拥有所有正确的安全工具和资源来解决其安全中的大多数漏洞。然而,调查发 ...
【系统运维】
阅读更多