【人工智能安全问题分类】
一、数据风险
01
“数据投毒”
所谓的“数据投毒”指人工智能训练数据污染导致人工智能决策错误。通过在训练数据里加入伪装数据、恶意样本等,破坏数据的完整性,进而导致训练的算法模型决策出现偏差。
一种是采用模型偏斜方式,攻击目标是训练数据样本,通过污染训练数据达到改变分类器分类边界的目的;
另一种则是采用反馈误导方式,攻击目标是人工智能的学习模型本身,利用模型的用户反馈机制发起攻击,直接向模型“注入”伪装的数据或信息,误导人工智能做出错误判断。
“数据投毒”危害性十分巨大,特别是在自动驾驶领域,可导致车辆违反交通规则甚至造成交通事故。
02
数据泄露
03
数据异常
图像识别、图像欺骗等会导致算法出问题,比如自动驾驶,谷歌也做了一些研究,如果模型文件被黑客控制恶意修改,并且给它学习,会产生完全不一样的结果;
算法设计或实施有误可产生与预期不符甚至伤害性结果;
算法潜藏偏见和歧视,导致决策结果可能存在不公;
算法黑箱导致人工智能决策不可解释,引发监督审查困境;
-
含有噪声或偏差的训练数据可影响算法模型准确性。


关于我们:
河北镌远网络科技有限公司(Hebei JYCYBER TechnologyCo.,Ltd.)是一家集人才、技术和经验于一体的,提供全面网络安全解决方案的专业服务商。镌远科技致力于为各行业的网络安全需求提供软件研发和通用解决方案,业务领域主要包括基础服务、咨询业务、产品研发和安全培训四大版块,各版块相互独立又相辅相成,完美阐释了“专业服务、全程服务、延伸服务”的服务体系和“单一业务与长远目标相融合”的服务理念。
关注镌远科技,关注网络安全!
河北分公司:河北镌远网络科技有限公司
地址:河北省邯郸市丛台区中华北大街193号慧谷大厦14层
总公司:北京冠程科技有限公司
地址:北京市昌平区科技园区东区产业基地企业墅上区一号楼九单元四层
实训基地:河北省石家庄市电子信息学校冠程科技研究与实训中心


欢迎关注我们,及时了解更多关于网络安全相关知识

点分享

点点赞

点在看

