万泰娱乐资讯

女星“被下海”视频电话“换脸”?本质是同种AI技术!

  最近,到南京旅游的小李,突然接到同学电话称需要借一笔钱。小李很谨慎,通过与对方视频确认了是同学本人,就放心地把钱转了过去。可没想到,小李还是被骗了。

  无独有偶,最近在油管有一个热门视频,《神奇女侠》的女主角盖尔·加朵竟出现在了某某网站里,让许多网友大跌眼镜:难道她下海了?

  在盖尔·加朵的视频爆红之后,又出现了艾玛·沃特森、娜塔莉·波特曼等一系列女星“下海”的视频。打这开始,这些视频竟成了一种灰色产业在全球开始蔓延,一发不可收拾。虽然斯嘉丽·约翰逊严词谴责这种行为,但并不能骂醒那些沉迷的人。

  Deepfake这项AI技术犹如病毒,只需要借助一个人的身体,就可以让她变成唐嫣,杨幂,刘亦菲,甚至任何你想变成的人,真的是猥琐至极。但随着技术被广泛使用,许多普通人也被瞄准了。所以当这样的事情发生在你自己、亲人和朋友身上时,人们终于感到了恐惧。

  除了“被下海”的明星,Deepfake最近还瞄准上了人们的钱包。当李女士接到同学借钱的视频通话之后,她便很快借给了同学。“如果没有这个视频,是不会给她钱的。”之后经过调查判断,确认了李女士看到同学的那段视频,很可能被人做了手脚。

  “很可能就是犯罪分子得到了小王的一些信息,比如她的面部照片,通过AI换脸技术,找一段在医院里的视频,把小王的脸切到医院实际拍视频的那个人的脸上。”调查人员后来这样分析。目前专家提醒,如果遇到以紧急情况为由,通过网络账号向自己借钱时,一定要打电话核实对方身份,不能轻易转账。

  门槛低,才让这项AI技术的滥用如此猖獗。挂着AI的头衔,其实技术原理很简单,使用者只需在Face2Face、fake等软件中导入两段的录像,就可以通过AI算法自动生成对应的人脸模型,之后再用Deepfake将两个模型合在一起,换脸就完成了。

  而泛滥的另一个原因则是:该算法不需要太强算力的设备就能够运行。你能想象到吗?如此强大的AI算法,只需要一台普通的电脑即可运行!虽然软件UI并不直观,但这并不能阻挡那些别有用心的人,哪怕是对神经网络一窍不通的人,只要按着说明来操作,依然能完成制作。

  除了以假乱真的影像,耳熟的芊芊细语也难以分辨。不法之徒采集了很多音频片段,再把口型和新的音频文件剪辑匹配。最终成品,除非是技术大咖,否则根本无法分辨出真伪。斯嘉丽·约翰逊说到,“这让任何一个人成为这项技术的攻击目标只是时间问题。”

  唯一让索菲亚感到欣慰的是,在《速度与激情7》还没有拍完时,演员保罗·沃克不幸去世了。还好导演借助AI换脸技术,将保罗的弟弟换了张脸,续写了保罗·沃克的车神故事。也算是了却了保罗·沃克和观众们的遗憾了。

  可见,deepfake作为AI的一项技术,今天可以给大家带来乐趣、缅怀逝者,也许明天就会催生色情暴力、甚至政治恐慌以及犯罪。如果没有合理管制,那么以后可能没有人能够自证清白!初心不变,始终为世界带来欢乐才是AI的正途。