5 月 24 日消息,今日中国互联网协会微信公众号发文,提醒网友警惕“AI 换脸”新骗局。
根据此前报道,近期,包头市公安局电信网络犯罪侦查局发布一起使用智能 AI 技术进行电信网络诈骗的案件。不法分子利用 AI 技术,通过声音合成,伪造成特定人物的声音,通过 AI 换脸,伪装成特定人物,实时与他人进行视频通话。更换后的面部表情自然,以假乱真,能够冒充他人身份联系被害人,博取被害人信任后实施诈骗。
中国互联网协会表示,面对利用 AI 技术的新型骗局,广大公众需提高警惕,加强防范。
针对“AI 换脸”新骗局,中国互联网协会提出以下两方面防范建议:
01.做好个人信息安全第一责任人
1、加强个人信息保护意识,防止信息泄露:不轻易提供人脸、指纹等个人生物信息给他人;不要轻易透露自己的身份证、银行卡、验证码等信息;不要贪图方便把身份证、银行卡照片等直接共同存放于手机内。
提示:发现 App 过度、强制收集个人信息,请至 12321.cn 投诉。
2、陌生链接不要点,陌生软件不要下载,陌生好友不要随意添加,不明二维码不要随意扫描。管理好自己的朋友圈,也不要轻易向陌生人开启手机屏幕共享。
3、做好个人防护,安装安全软件,防止手机和电脑中病毒。对个人账户的安全状况保持警惕,尤其是陌生设备的登录情况,防止微信、QQ 等被盗号给亲朋好友带来麻烦。
4、对于不常用的 App,建议卸载前注销个人帐号。
提示:App 不提供个人帐号注销方式,或为注销帐号设置各类障碍的,请至 12321.cn 投诉。
02.远程转账务必需要多重验证,把好“钱袋子”
如果有人自称“家人”“朋友”“老师”“领导”通过社交软件、短信、电子邮件等以“手机掉水里了,学校需要紧急交辅导班学费”“人在境外旅游,需要帮忙买机票”“给领导办私事,需紧急转账”“遭遇车祸,需要马上手术”“情况特殊,需要过桥资金拆借”等各种方式和理由诱导你转账汇款,务必第一时间提高警惕!
在 AI 时代,文字、声音、图像和视频都有可能是深度合成的。在转账汇款、资金往来这样的典型场景,要通过回拨对方手机号等额外通信方式核实确认,不要仅凭单一沟通渠道未经核实就直接转账汇款!无论对方是谁!
提示:遭遇诈骗信息,请至 12321.cn 反诈专栏举报,如发生资金损失请及时报警。
来源:IT之家