骗子利用AI声音冒充亲人诈骗 据受害者表示骗子使用的声音和亲人的简直一模一样
2023-04-03 00:50:07随着科技的不断发展,AI技术的应用越来越得到广泛的发展!但是,有些不法分子也瞄上了AI技术的应用,通过AI合成亲人的声音来搞诈骗!
近日,加拿大就频繁出现了通过AI合成亲人声音来诈骗的案件!短短的3天时间,起码有8人被骗,涉案金额约100万元,受害者多为老年人!据受害者表示,骗子使用的声音和亲人的简直一模一样,说自己在外面遇到什么突发事件,需要找父母要钱来处理这件事!面对一模一样的声音,受害者很难分辨,因此纷纷上当受骗!