利用AI声音诈骗 事件最新后续来了!
在飞速发展的今天,越来越多的人们对AI技术的应用抱有极大的期待然而,正如万物一样,技术也有其两面性最新的AI合成语音和“换脸”技术,虽然带来了前所未有的便利和娱乐,但也被不法分子利用进行诈骗和侵犯他人权益。
AI合成语音是一种使用AI技术来合成人类语音的技术经过多年的研究和发展,这项技术已经越来越逼真,对话效果越来越好然而,这也为诈骗分子提供了新的机会据报道,最近美国和加拿大各地出现了多起使用AI合成语音进行电信诈骗的案例,很多受害者都是老年人。
这些犯罪分子能够使用AI合成技术模仿受害者家人的声音进行诈骗,让受害者误以为自己的亲人需要帮助
根据相关数据显示,现在的AI技术只需要几秒钟的对话就能够准确模仿人的声音,并且具有很高的相似度加拿大警方表示,最近加拿大多地都发生了声音冒充新人的诈骗案件,涉案金额已经达到了数百万元而这些被诈骗的老年人称,犯罪分子打来的电话和自己儿子的声音一模一样。
在美国,类似的诈骗案件也在近期呈上升趋势
除了AI合成语音,AI“换脸”技术也带来了类似的安全隐患AI“换脸”可以将一个人的脸替换成另一个人的脸,这项技术已经在网络上广泛传播人们可以轻松地通过应用程序或网站来制作出这种虚假视频然而,这种技术同样被不法分子利用来进行诈骗和侵权行为。
有报道称,一些不法分子利用AI“换脸”技术制作虚假视频进行诈骗,甚至利用该技术侵害他人肖像权这种虚假视频制作得越来越逼真,越来越难以区分真假这也给社会治安带来了新的威胁,让人们对新技术的应用感到焦虑
上一篇:张继科事件不能被娱乐八卦消解 网友喊话:一查到底下一篇:旧日局长受审 33名原搭档现场旁听,是什么意思?
相关热词搜索:利用AI声音诈骗 北京天气预报 旅游景点天气 上海天气预报15天 广州国际机场天气 卫星云图天气预报 天气预报降水分布