博客
关于我
对抗机器学习简介
阅读量:663 次
发布时间:2019-03-16

本文共 910 字,大约阅读时间需要 3 分钟。

机器学习的安全与对抗机器学习的关系

近年来,机器学习在多个领域取得了显著的进展,但其安全性问题却长期未被充分重视。直到Ian Goodfellow和Alexandre Papernot等研究者提出了相关问题,安全性和隐私保护才逐渐成为机器学习研究的重要议题。本文将探讨他们提出的安全问题与对抗机器学习(Adversarial Machine Learning, AML)的关系,以及相关攻击手段。

对抗机器学习的定义与作用

对抗机器学习作为机器学习安全研究的一个细分领域,在一定程度上提供了保障模型安全的方法。在这儿,我们将对抗机器学习视为Goodfellow等人提出的安全问题的一个子集。

CIA指标:评估机器学习安全的三个维度

在计算机网络领域,安全性通常通过CIA(Confidentiality, Integrity, Availability,机密性、完整性、可用性)三个指标来评估。这些概念在机器学习安全中同样具有重要意义。

  • 机密性(Confidentiality):机密性关注数据和模型的保密性。例如,在训练模型时,处理的敏感数据需要始终保密,以防止被未授权访问或滥用。

  • 完整性(Integrity):完整性指模型和数据的真实性。一旦数据被篡改或模型被污染,可能导致严重后果,因此确保数据和模型的完整性至关重要。

  • 可用性(Availability):可用性保证模型和数据在需要时可一直访问。例如,传感器在探测障碍物时,不能因数据问题而断机。

  • 对抗机器学习中的攻击手段

    对抗机器学习中的攻击主要分为训练阶段攻击和推理阶段攻击。

    1. 训练阶段攻击

    在训练阶段,攻击者通过对训练数据进行扰动,导致模型获取错误的模型参数。这种方法简单有效,但难以在推理阶段体现出攻击效果。

    2. 推理阶段攻击

    在推理阶段,攻击者对已训练好的模型施加干扰,迫使模型产生错误的预测。这种方法在实际应用中更具挑战性,因为需要找到模型的易受攻击点,并在不影响正常运行的前提下实施攻击。

    结论

    理解对抗机器学习的概念及其攻击手段,对于提升机器学习模型的安全性具有重要意义。通过熟悉CIA指标,我们可以更好地评估和保护机器学习系统的安全性。

    转载地址:http://zqjqz.baihongyu.com/

    你可能感兴趣的文章
    UML-配置图
    查看>>
    JS高级面向对象(二)-构造函数和原型
    查看>>
    python入门到秃顶(10):异常
    查看>>
    ES6_变量生明
    查看>>
    考研复试英语问答
    查看>>
    百度背景换肤案例
    查看>>
    修改ng-zorro中table对齐及宽度等细节
    查看>>
    输出对象的值——踩坑
    查看>>
    angular2项目里使用排他思想
    查看>>
    折线图上放面积并隐藏XY轴的线
    查看>>
    zabbix之自动发现
    查看>>
    Experience of tecent interview
    查看>>
    failed to push some refs to git
    查看>>
    在苹果Mac上如何更改AirDrop名称?
    查看>>
    1110 Complete Binary Tree (25 point(s))
    查看>>
    541【毕设课设】基于单片机电阻电感电容RLC测量仪系统
    查看>>
    568【毕设课设】基于单片机多路温度采集显示报警控制系统设计
    查看>>
    基于8086交通灯系统仿真设计(微机原理设计资料)
    查看>>
    解读域名管理之:域名注册机构介绍
    查看>>
    找中位数
    查看>>