万泰娱乐资讯

女子“裸照”被疯传、男子“热吻”女明星AI不该用在这上面

  原标题:女子“裸照”被疯传、男子“热吻”女明星......AI不该用在这上面

  据报道:近日,广东广州,一女子在地铁上的照片被AI一键脱衣,造谣图在网络广泛传播引发关注。

  事实上,照片的女主角是小红书的一名博主,而所谓的“裸照”则是她去年7月在平台分享的一张照片。原图中她衣着正常,完全没有任何不妥之处,但却被有心之人用AI软件一键脱衣,故意全网散播。

  在美国前总统特朗普“预告”可能于21日被捕后,近日,几张特朗普在纽约街头遭警察围捕的图片在美国社交网络上疯传。虽然外媒很快辟谣称,这些照片只是由人工智能(AI)生成的图像,并非真实照片。但由于图片太过以假乱真,不但骗到了不少美国网民,也开始被一些有心之人利用。

  近日,一网红特效合成师利用电脑后期制作,合成与某知名女星亲吻的影片,在网上广泛传播开来,引起了网友热议。

  特效师洪某,在网上经常发布视频,把一些热门剧里的男主角用“特效合成”后换成自己的脸,把相关剧情再演一遍。抖音粉丝100多万,微博粉丝10多万。

  3月25日,洪某发布视频,称自己的脸被某女星的粉丝抓伤,“破相”了。“女星粉丝,几个20多岁左右的小孩,找到我发过的定位,来我工作室门口,然后就变这样了。”

  早在2019年,国外程序员就开发出了DeepNude这款使用AI技术“脱衣”的应用,通过使用类似deepfakes的深度学习技术,DeepNude使用女性裸照训练之后可将图像中女性身上的衣服替换掉,创造出几可乱真的合成裸照,也就是大家所说的“一键脱衣”。

  后因广泛的舆论争议,开发团队选择将该项目关闭。但在现在,这些软件似乎有“死灰复燃”的迹象,在搜索网站搜索“AI脱衣软件”,依然能搜索到众多“替代品”。

  随着AI技术的不断升级,这些图像正变得越来越以假乱真,用户只需提供一个简单的文字提示,这些工具就能迅速生成以假乱真的图像,背景中往往还包含大量令人信服的细节。

  就像在2019年曾一夜爆火的换脸软件“ZAO”,就让换脸变得超级简单:普通手机用户只需上传一张照片,就可以“换脸”成为短视频主角。

  对此,美国《福布斯》杂志网站称,AI生成图像现在已开始出现“危险信号”。

  过去,AI在生成人手方面特别困难。有时候,图像上会出现缺失的、扭曲的四肢,以及多余的手指和牙齿,让人感到诡异甚至恐怖。但那已经是过去式了,大部分情况下,更新版本的Midjourney已能够生成正常的手部。

  随着越来越多AI合成的假照片和视频“淹没”社交媒体,真实和虚假间的界限将会变得更加模糊。

  有博主发视频称,在现今AI强大的算法下,时间、地点都对得上的情况下,伪造谣言对普通人来说百口莫辩。而唾手可得的脱衣软件则更让造谣者有机可乘。

  一些“AI换脸”的App使用明星的图片制作换脸视频进行推广,其趣味性背后暗藏不少法律风险和侵权纠纷。

  明星刘昊然就曾在2021年8月26日发博打假,控诉网上流传的某淫秽视频为AI换脸技术伪造,并向警方报案。

  有网友表示,如果将普通人的视频随意换脸,恐怕将对当事人造成很大的困扰,甚至有网友直接发问:“这种行为算隔空猥亵吗?”。

  据法治日报报道,中国政法大学传播法研究中心副主任朱巍表示,猥亵是一个法律上的用语,“隔空猥亵”最早是媒体针对未成年人权利保护提出来的名词。例如,以互联网为媒介,诱骗、胁迫未成年人进行“”或发送“裸照”“裸体视频”等方式进行猥亵,检察机关将该行为认定为“隔空猥亵”。

  目前,在司法实践中,暂未遇到过利用PS、特效等合成技术制作的影片被判定为“隔空猥亵”的情况。但是,以上例子中特效师洪某的行为涉嫌构成寻衅滋事罪。

  朱巍称,在明星与视频合成者互不相识的情况下,用“特效”手段把剧里的男主角换成特效师,这毫无疑问构成对当事人肖像权、名誉权、隐私权的侵害。

  另外,在《中华人民共和国网络安全法》第二十七条的规定当中特别强调,明知他人实施危害网络安全活动的,不能够为他提供技术支持,如果情节严重,还会构成帮助信息网络犯罪活动罪等刑事犯罪。

  今年1月10日开始施行的《互联网信息服务深度合成管理规定》中也提出,要对深度合成技术应用提出规范。

  (大众网·海报新闻编辑 巩小龙 综合自上海网络辟谣、中国青年报、法治日报等)返回搜狐,查看更多