近日,韩国出现多起利用AI换脸伪造女性色情露骨图像的犯罪案,在这背后,犯罪者用深度伪造技术(Deepfake)合成色情照片和视频,并在通信软件Telegram的群聊中传播,参与者多达22万人,引发韩国民众恐慌。
10月8日,2024年诺贝尔物理学奖颁发给两位人工智能专家,以表彰他们使用物理学工具为强大的机器学习方法奠定基础。其中一位获奖者发明了联想记忆,可以存储和重构图像,AI图像识别等技术就是在此基础上发展而来。
□张璟旖(天津师范大学)试想一下,一位女性被AI肆意换脸生成色情图像,进而被陌生人围观、羞辱。而作恶之人在一次次发图,又转为私聊的加密对话中,完成隐秘狂欢甚至牟利。他们隐身在匿名账号背后,极少受到惩戒,只需点击删除,一切痕迹都消失了。
这件事情在韩国被称为N号房2.0事件,至于什么是N号房事件,我也简单做个解释,在2020年的时候,韩国爆出了一件震惊世界的事情,在公共聊天房里,有76位韩国女性被胁迫用刀子在身上刻下“奴隶”的字眼,她们当中有很多是未成年人,有的为了生存被迫言听计从,成为罪犯的奴隶,有的不堪受辱最终选择结束自己的生命,这种残忍且恶心的罪行当时被接近26万韩国人全程目睹。
近日,韩国曝出“Deepfake”深度伪造技术事件被认为是采用新犯罪手段的N号房案件重现“韩国AI深度伪造淫秽影像”多个相关话题词冲上热搜引发网友热议近日“深度伪造”犯罪在韩国引起女性恐慌,韩社交媒体上有大量群组分享伪造的淫秽影像。
利用“深度伪造(Deepfake)”技术所实施的性犯罪日趋猖獗,成为当前韩国国内舆论风暴的中心,被视为“N号房”丑闻的翻版。据报道,目前海外通信软件“电报(Telegram)”中,传播着无数女性被AI生成“换脸”的“性影像”,其中参与犯案者多达22万人,引发韩国民众恐慌。
来源:【海博TV】点击上方图片,即可报料近日韩国曝出“Deepfake”(深度伪造技术)事件多个关于“韩国AI深度伪造”的话题词引发网友热议据韩媒报道针对女性的深度伪造犯罪在韩国日趋猖獗Deepfakes是利用AI换脸制造色情图频韩国网民在通讯软件“电报”(Telegram)上发
时隔四年,韩国再现“N号房”丑闻。把女性面部合成到不雅视频中并大肆传播的深度伪造技术犯罪,近半个月来在韩国掀起舆论风暴。8月以来,韩国网民使用的社交媒体“电报”上,被发现存在多个传播和分享该类型色情内容的群聊,其中最大的一个聊天室成员超过22万人。
30日,多个关于“韩国AI深度伪造淫秽影像”的话题词引发网友热议。多名韩国女性接到陌生人发来的骚扰信息。她们并不知道,自己的姓名、电话、就读学校、家庭住址等个人信息已被传遍多个聊天室。和个人信息一起被传阅的,还有她们的照片。
据中新网援引韩联社报道,当地时间10日,韩国政府表决通过了《关于处罚性暴力犯罪的特例法》(简称《性暴力处罚法》修正案。根据修正案,持有、购入、保存或收看深度伪造淫秽影像的人员可被处三年以下有期徒刑或3000万韩元(约合人民币15.75万元)的罚金。