万泰娱乐资讯

这两种刷屏朋友圈的新型诈骗背后都有哪些套路?

  为何一条错漏百出的诈骗短信让北京公安直呼“无语”,里面暗藏了哪些骗子心机?披上AI外衣的“先进”骗术,又为何屡试不爽,让一些“多金人士”频频上当。今天,南方读+带你擦亮双眼,别被这些最新的诈骗手段给套路了!

  “无语死了……”今天,北京公安发布的一则微博冲上热搜,网友纷纷跟帖热议。

  南京江宁公安表示,如果这条“枪决通知”真的是诈骗短信,那骗子只是在用极高的效率筛选潜在受害者。

  换句话说,如果你一眼就能看出这是诈骗短信,那么骗子就不会在你身上浪费时间。如果你连这条是诈骗信息都看不出来,真的按照他的指示去进行后续操作,那你极大概率就无法识破骗子后面的所有连环骗。

  这些以“菜茑驿站”“菜乌驿站”开头的短信,打着快递破损、邮寄礼品等旗号,忽悠消费者加微信、打电话,进而实施诈骗行为。

  随后,菜鸟驿站紧急辟谣,表示不会以包裹签收等问题为由,引导用户做任何转账、退款等资金操作,更不会私自要求添加用户个人社交账号。

  只需一条“钓鱼”短信,就能在几秒钟内从茫茫人海筛选出可能上当的对象,这样一想,骗子效率是不是还挺高的?

  所以,永远不要低估骗子的专业程度,收到陌生短信一定要提高警惕,善用“国家反诈中心”APP。

  但是骗子从来不会停滞不前,新的骗局层出不穷。现在利用人工智能进行包装的骗局,大大增加了反诈难度。

  试想一下,如果有朋友找你借钱,并且通过视频聊天确认了身份,你还会怀疑吗?

  近日,安徽安庆通报了一起诈骗案,诈骗分子就利用了一段9秒钟的AI换脸视频通线万元。

  骗子同样是通过AI换脸和拟声技术,假扮“好友”给某科技公司法人代表郭先生打视频电线万元。

  早在2021年,浙江温州市公安局曾发布案例,受害人小陈与女网友视频聊天后,被对方利用AI换脸技术,将小陈视频中的面部合成到不雅视频中,借此对其实施勒索。

  最近,“刘亦菲”“杨幂”“迪丽热巴”等当红明星出现在直播间。仔细一看,其实都是使用AI实时换脸技术的普通主播。

  同一时段、不同主播竟然共享同一张“明星脸”,为的就是增加卖点,助力卖货……

  有调查显示,互联网上有人售卖人脸合成视频制作教程和明星人脸“万能模型”,一套明星人脸模型只需10元。根据中新财经,AI实时换脸全套模型仅需3.5万元,商家称可适用于各大直播平台。

  据澎湃新闻,在应用商店搜“AI换脸”,市面上已有一批软件的换脸技术,几乎可以以假乱真。某短视频平台还推出一款“AI随拍”玩法,用户可以将自己的脸代入明星身上,即可发布视频。

  近年来,诈骗有了AI的加持,耳听可以为虚,眼见也不一定为实,令人防不胜防。

  随着越来越多AI诈骗侵权事件被曝光,公众开始思考如何降低AI技术被滥用风险,深度合成技术将走向何方。

  自从ChatGPT横空出世后,AI技术似乎从未像今年这样,频繁走进大众视野。

  就在这周,一张“美国五角大楼附近发生爆炸”的图片疯传导致美股下跌,随后美国国防部发言人证实,这是一张由AI生成的虚假图片。

  24日,一篇名为《科大讯飞出现重大风险的警示文》的生成式AI写作虚假“小作文”,让中国人工智能研发公司科大讯飞股价出现短暂跳水。

  如何规范、管理人工智能,成为了亟待解决的问题,推动技术向善、AI向善的尝试也在不断深入。

  去年12月,国家网信办、工信部、公安部联合发布《互联网信息服务深度合成管理规定》,对人脸生成、替换、操控,合成人声、仿声等都有明确约束。

  今年4月11日,国家网信办出台了第一份《生成式人工智能服务管理办法(征求意见稿)》,对人工智能服务产品和使用提出了多项明确规定,包括不得利用生成内容损害他人形象、名誉以及其他合法权益,尊重知识产权等。

  其中提到,在AI时代,文字、声音、图像和视频都有可能是深度合成的。在转账汇款、资金往来这样的典型场景,要通过回拨对方手机号等额外通信方式核实确认,不要仅凭单一沟通渠道未经核实就直接转账汇款。

  技术是把双刃剑。对AI换脸、AI换声等技术,既不能因噎废食,一味阻止其发展,也不能放任自流,要防止其被有心之人恶意利用。