“一键换脸”和喜爱的明星合影,数字拜年,虚拟主持人……
随着“互联网+”时代的到来,网络技术不断进步, AI(人工智能)正迅速进入大众生活,AI技术给人们的生活带来了很多新鲜的玩法,但同时,这些“过于便利”的方式也为不法分子留下了可乘之机。
随着AI技术被犯罪分子用于电信诈骗,关于如何防止AI诈骗的话题也引发社会广泛关注。
当前利用AI新型技术实施诈骗主要有“拟声”“换脸”两种手段,即通过模拟他人声音或形象骗取信任,进而诈骗钱财。特别需要关注的是,AI可以对明星、专家,甚至你身边的家人等音视频进行人工合成,假借其身份传播虚假消息,从而实现诈骗目的。
东方小红特别提醒广大投资者,要警惕AI新型诈骗手段,识破骗局,维护个人及家庭财产安全。
面对AI新型诈骗 如何练就火眼金睛
知己知彼,方能百战不殆,面对骗局,首先要识破骗局。那让我们看看,AI诈骗是如何花样百出的?
AI诈骗手段迷惑性、隐蔽性较强,诈骗一旦发生,追回难度较高。为保护广大金融消费者合法权益,东方小红提醒广大投资者要提升安全意识:
第一,网络渠道“眼见”不一定为实。
“拟声”“换脸”等合成技术的一大特点即“以假乱真”,不法分子可利用此类技术轻易伪装成他人,并通过快速筛选目标人群、定制化诈骗脚本,精准实施诈骗。因此,在涉及资金往来时,一个“声音很熟的电话”、一段“貌似熟人的视频”都可能是不法分子的诈骗套路,消费者应提高警惕。
第二,先核验身份,再转账汇款。
面对自称“熟人”“领导”等通过社交软件、电话等以各种理由诱导汇款,务必核验对方身份。如可在沟通过程中提问仅双方知晓的问题,也可利用其他通讯方式或见面核实,或向对方的朋友、家人验明身份和情况。在无法确认对方身份时,应尽量避免转账操作。
第三,提高信息保护意识,不随意注册网站或添加网友。
消费者应提高个人信息保护意识,不随意下载陌生软件、注册陌生平台或添加陌生好友,对个人社交账户的安全状况保持警惕。尽量避免在互联网过多暴露个人照片、声音、视频等信息,不贪图方便把身份证、银行卡照片等直接存放在手机内。如不慎被骗或遇可疑情形,应注意保存证据并立即向当地公安机关报案。

本材料中包含的内容仅供参考,信息来源于已公开的资料,我司对其准确性及完整性不作任何保证,也不构成任何对投资人的投资建议或承诺。市场有风险,投资需谨慎。前瞻性陈述具有不确定性风险,不代表任何投资意见或建议,本公司不对任何依赖于该内容而采取的行为所导致的任何后果承担责任。

