近日,知名模特叶凯薇发视频称,其被人利用AI换脸制作淫秽视频,并大量传播,造成严重困扰,目前已经收集证据并报警,引发关注。在视频中,叶凯薇称,2024年,其发现被人利用AI换脸制作了一段淫秽视频,且被大量传播。
6月20日,上海警方通报表示,两名品牌营销人员为蹭热度,编造了“中山公园地铁站捅人”等不实信息,相关人员已被警方行政拘留。通报中,有个细节引人注意:一名造假者使用了AI软件生成视频技术,编造了地铁行凶的虚假视频等不实信息。这已经不是人工智能技术第一次出现在谣言中。
利用AI工具对涉“‘3.27’跨桥事故”报道进行杜撰,编造传播乡镇遭受严重破坏、隧道坍塌事故等虚假信息……为博取流量、谋取利益,有人移花接木编造传播网络谣言,扰乱社会秩序。记者14日从公安部网安局获悉,西藏公安机关网安部门依法查处5起虚构事实真相扰乱公共秩序案件,多名造谣者被拘。
1月7日9时05分,西藏日喀则市定日县发生6.8级地震,灾情牵动人心,许多网友在社交平台上为灾民祈福。 在视频平台上,一张“被压废墟下的小男孩”图片引发广泛关注。图片中,一名戴帽子的小男孩被压在倒塌的废墟下,全身铺满尘埃。
来源:央视新闻微信公众号 日前,西藏日喀则市定日县发生6.8级地震,牵动着许多网友的心。但与此同时,一些关于灾情的不实信息,也在网络上公然传播。近日,一张“小孩被压废墟下”的图片在网上引发广泛关注。实际上,这张图片由AI生成。究竟怎么一回事?来看记者的调查。
来源:北京日报客户端西藏日喀则地震灾情牵动人心,许多网友通过社交平台密切关注救援进展。可与此同时,一些假消息开始疯传。如“一个戴帽子的小孩被重压在倒塌建筑物之下”,这张AI生成的图片被数个账号发布并与灾情关联,还收获了大量转赞评。事情是假的,缺德是真的。
3月28日话题“女子地铁照被AI一键脱衣传播”冲上热搜女生照片被“一键脱衣”传到网上近日,广东广州一女子在地铁上的“露出”照片在网络广泛传播引发关注事实上这张裸体照并非真实照片原图中她衣着正常完全没有任何不妥之处但却被有心之人用AI软件“一键脱衣”故意全网散播目前该女子已在评论区
科技的发展日新月异,当下,已经被称为AI时代,AI换脸、AI拟声技术悄然走进了我们的生活。然而,恶作剧、诈骗、侵权等事件频出,使得人工智能技术被蒙上了一层阴影。近日,黑龙江省大庆市一位女大学生反映,她的照片被同学制作成搞笑视频发到了微信群里,让她出尽了洋相。
21世纪经济报道记者肖潇 北京报道刚刚上线三天,ChatGPT的新图像生成功能已经引爆全网,同时火的还有吉卜力。美国当地时间3月26日,OpenAI发布了GPT-4o多模态生图功能。以前GPT-4o只能用来生成文本,现在可以“一句话”生成图像,包括做产品设计、改海报、画插图。