据参考消息网11月23日援引美国福克斯新闻网19日报道,人工智能(AI)诈骗盯上了美国老人,2022年造成损失超16亿美元。据美国联邦贸易委员会的报告,许多诈骗分子利用AI技术模仿人的声音,之后打电话给受害者或者他们的家庭成员,索要钱财。
两会期间,全国人大代表雷军、全国政协委员靳东等呼吁立法整治AI“换脸拟声”的话题引发广泛关注。靳东呼吁立法整治AI“换脸拟声”雷军呼吁网友不要再恶搞此前,曾有一些喜欢靳东的观众,被AI换脸的“假靳东”所骗,有的甚至要到银行贷款200万元给自己的男朋友“靳东”拍戏。
“AI换脸拟声”乱象频现 如何治理?福州法律专家:为人工智能套上法治缰绳“雷军回应‘国庆7天被AI雷军骂了8天’”“靳东两会建议AI换脸立法”……今年全国两会期间,“AI换脸拟声”技术的滥用问题引发代表委员关注,相关话题频频登上热搜,也引发福州市民热议。
原标题:从“一眼假”到“真假难辨”再到“深度伪造”,生成一条音频只需20秒(引题)滥用公众人物声音恶搞,AI技术应用“玩过界”被质疑(主题)工人日报—中工网记者 陈曦近日,一些短视频平台涌现了大量某知名企业家吐槽的视频。
在刚刚过去的国庆假期中,短视频平台上出现了大量“雷军”的发言视频,在视频中,“雷军”锐评了堵车、假期、调休、游戏等一切热门话题,不仅言辞犀利,甚至不乏一些粗话脏话。有网友在雷军微博评论调侃称:“雷总国庆7天被你骂了7天”“雷总,最近你怎么在骂人?”雷军回复了三个发怒的表情!
人们常说“眼见为实”AI时代眼见也不一定是真相!一些别有用心的不法分子利用AI“换脸”“拟声”技术实施诈骗已然成为一种新型骗局一个“声音很熟的电话”一段“貌似熟人的视频”都可能是不法分子的诈骗套路小伙伴们一定要谨慎,提高警惕!什么是“AI诈骗”?
来源:工人日报 随着算法不断进步,在高性能设备和高精度模型的助力下,AI生成的声音已从过去的“一听就假”发展到“真假难辨”,AI声音滥用现象时有发生。一些商家在短视频平台带货时,通过AI模仿知名人士的声音编造内容,不仅严重误导了消费者,也对当事人造成了不良影响。
对经典影视剧荒诞改编,对公众人物声音恶搞……近日,各大短视频平台涌入大量此类用AI技术制作的恶趣味视频,且有愈演愈烈之势。不可否认,人工智能技术的飞速发展,特别是深度学习算法的进步,使AI在图像和音频处理方面的能力达到前所未有的高度。