最近,#广州地铁#登上热搜
起因竟是一女子在地铁上的裸体照片被疯传
事实上,这张裸体照并非真实照片
而是被 AI技术一键脱衣生成的……
据泾渭视频报道:近日,广东广州, 一女子在地铁上的照片被AI一键脱衣,造谣图在网络广泛传播引发关注。
事实上,照片的女主角是小红书的一名博主,而所谓的“裸照”则是她去年7月在平台分享的一张照片。原图中她衣着正常,完全没有任何不妥之处,但却被有心之人用AI软件一键脱衣,故意全网散播。
目前博主已在评论区回复各位网友,称 会进行相关的维权处理。
值得欣慰的是,在这则图文分享的评论区,已经有众多网友评论提醒博主被造谣的事实,催促其尽快报警,也有人热心地帮助其辟谣澄清。
展开全文
死灰复燃的AI脱衣,伪造谣言百口莫辩
早在2019年,国外程序员就开发出了 DeepNude这款使用AI技术“脱衣”的应用, 通过使用类似deepfakes的深度学习技术,DeepNude使用女性裸照训练之后可将图像中女性身上的衣服替换掉,创造出几可乱真的合成裸照,也就是大家所说的“一键脱衣”。
后因 广泛的舆论争议,开发团队选择将该项目关闭。
但记者发现在百度网站搜索“AI脱衣软件”仍然会出现众多“替代品”。
点开其中一个AI脱衣软件,甚至在产品说明页中有着详细的说明和“优势”“亮点”
有博主发视频称,在现今AI强大的算法下,时间、地点都对得上的情况下,伪造谣言对普通人来说百口莫辩。而唾手可得的脱衣软件则更让造谣者有机可乘。
AI换脸换装,或涉嫌刑事犯罪
近年来,“AI换脸”走红网络,一些“AI换脸”的App使用明星的图片制作换脸视频进行推广,其趣味性背后暗藏不少法律风险和侵权纠纷。
明星刘昊然就曾在2021年 8月26日发博打假,控诉网上流传的某淫秽视频为AI换脸技术伪造,并 向警方报案。
专家表示,在《网络安全法》第二十七条的规定当中,特别强调,明知他人实施危害网络安全活动的,不能够为他提供技术支持,如果情节严重,还会构成帮助信息网络犯罪活动罪等刑事犯罪。
来源:综合泾渭视频、央视网、网友评论
南京广电·牛咔视频责任编辑:刘成波
主编:刘强、顾青
1、 痛心!11人均无生命体征
2、 全国首家!
3、 凌晨一机场多人下跪!网友:心情可以理解,但做法欠妥!
近期热门视频
本文部分图片来源于网络。如果分享内容侵犯您的版权或者所标来源非第一原创,请后台私信,我们会及时审核处理
特别声明
本文仅代表作者观点,不代表本站立场,本站仅提供信息存储服务。