女子地铁照被用AI软件一键脱衣造黄谣,软件早已被封禁为何还出现

近日,广东广州。一女子在地铁上的照片被AI一键脱衣,造谣图在网络广泛传播引发关注。虽然AI一键脱衣相关软件早已被封禁,但网络上并不难找出替代品。

你敢想象吗?假如你每天走在外面散散步,或者做地铁上下班,突然有一个人拍下你的照片然后用AI一键脱衣软件p图把你的衣服全部p掉,然后发布于各个网站,你会有什么想法呢?

大家可以对比一下这两张图片,虽然经过马赛

克的处理,但是可以明显的可以看出AI一键脱

衣已经彻底将别人的隐私暴露了,而且照片里

面的人是一模一样的,假如有人利用这类软件

陷害别人,大家可以想象一下危害有多大!之

前就报道过。

AI换脸是从国外流行起来的,2019年6月,一名程序员开发的一款名为DeepNude的应用在海内外爆红。而这款深度造软件发布仅几个小时便因访问请求过大迅速宕机,而其原因是它可以一键脱掉女性衣服,制造大量色情图片。

只是最近又出现了近日,据调查发现,这款色情的软件再次出现在了应用程序——Telegram中。截止目前,该软件在TeleGram平台已经公开发布了约104,852张色情图片,这一数据还不包括私下分享传播的图片。更重要的是,这些图片70%全部来自社交网络中的真实女性,甚至包括未成年。同样2017年一名为Deepfakes用户在一社交娱乐网站发布了换脸视频,将情色影片女主角的脸换成了女艺人,视频疯传后被封禁,一气之下该用户公开了技术代码。随后,该技术因被用于伪造名人发言视频名声大噪,还被使用到了色情产业中。明星的脸因为数据丰富,成了被利用最严重的人。该技术开始被广泛声讨。

2019年,B站UP主换脸杨幂、朱茵,吹响了国内AI换脸号角,陌陌出品的软件ZAO让该技术在普通人中广泛应用,用户上传一张照片,就能“傻瓜式”操作自己成为一些影视片段主角。

同样,该现象级软件在上线仅3天后,就因隐私侵犯等问题被迅速下架。

因为这种软件实在是太可怕了,可能你日常生活中分享的照片可能会被内心肮脏的人偷偷保存下来,然后进行p图等等令人恶心的操作!假如把这些照片传播出来不仅是对当事人的一种伤害,而且还是无中生有,恶意造谣了!

除了照片可以被p图,视频也可以进行换脸,就像前段时间很火的“换脸”小程序,但却有一些人对于这种换脸技术别有用心,直接用一些黄色作品中AV女友的脸替换成如今当红女星的脸,以满足一些有欲望需求的人们的猎奇心理,利用不当的做法来谋取利益的这种行为,实在太可耻了。

这种不法的行为令人唾弃不已,对此有律师就表示,这种换脸视频已经涉嫌侵犯他人的肖像权,特别如此而已传播已构成犯罪,希望大家能够正确看待和运用AI人工智能技术,别被一些不法分子钻了空子,有句话说得挺对的,技术无罪,但使用技术的人却有可能犯罪,希望这个世界能光明健康。


举报
评论 0