万泰娱乐资讯

【中国】请特别关心老人家:骗子利用人工智能技术换脸换声行骗

  中国官方媒体发文警示,“AI换脸”诈骗在中国出现涉政的苗头,有不法分子利用人工智能“深度伪造”冒充领导干部行骗。

  新华社下属的 《瞭望》新闻周刊星期天(7月2日)报道,中国北方某地警方近日发布一起利用“AI换脸”的诈骗案件。引人关注的是,该案不仅是一起新型网络诈骗,更是一起涉政诈骗案件。

  报道称,诈骗分子在微信视频聊天中“换脸”成受害人认识的一名领导干部,并提出其朋友有一笔工程保证金需要借用受害人公司的对公账户走账。

  在视频画面中,骗子“换脸”后面部表情自然,声音逼真,受害人便放松了警惕,转账后打电话确认,才知道被骗。

  报道还提到另一起案例,华北某地一名地方干部近日也发现有人冒用他的名义,与他的亲朋好友大范围添加微信好友。

  该干部说,“和我的亲戚朋友加完好友后,骗子还给他们打了视频电话。通话时间只有几秒钟,朋友们感觉声音、画面都有点儿像。”

  该干部认为,估计下一步就要开始骗钱了,因此最近几天他连续发了好几条朋友圈提醒大家。

  业内人士表示,只要有足够的图像、音频素材,不法分子就可以通过人工智能“换脸”软件、合成声音软件伪造虚拟形象,实施诈骗。而由于工作原因,一些领导干部的面部、声音等生物特征信息更易被获取,被人工智能学习利用后造成的潜在危害性也更大。

  业内人士提醒社会各界提高识骗防骗意识,有关部门也应依法加大对人工智能“辅助”诈骗案件的执法力度,严肃追究相关人员法律责任。

  大陆网络安全专家裴智勇说,目前专业级别的人工智能“深度伪造”仍需通过较强的硬件在实验室环境实现。这意味着,近期“AI换脸”诈骗形成系统性风险的可能性不大,但仍需未雨绸缪、预防打击。

  香港《星岛日报》报道,香港警方今年接获2宗情报,指有青年在网上交友,并与对方视像通话后,怀疑面容被盗,更移花接木成为色情片主角,再遭勒索;又有银行首席执行员被伪冒于电视上介绍投资项目等。

  人工智能相关骗案或有机会增加,香港商罪科高级督察张文瀚提醒要小心一些不明来历的视像电话,留意对方的眼神或口形会否不自然,甚至要求对方在镜头前做指定动作,如手指于脸上横扫、头部上下左右转头等,若发现脸部变形,便证明骗子以“AI变脸”。

  最重要是提防任何人在视频或录音中提出汇款要求,若亲友提出可先测试其身分真伪,切勿轻易相信。