导语:理财文化万里行,基金走进千万家。欢迎大家搜索【华夏基金投资者教育基地】,关注华夏基金投资者教育基地,解锁更多理财知识。
2024年开年,OpenAI 发布的首个文本生成视频模型Sora引爆了互联网社区,其生成的长达1分钟的高清、流畅视频令人们惊叹不已。
从ChatGPT到Sora,Ai科技创新汹涌澎湃,带给了人们很多想象空间。但是科技进步是一把双刃剑,技术落地的过程,往往是诈骗套路的进化史。这不诈骗分子就用上了AI虚假亲情套路,具体是什么情况,先来看一个案例。
典型案例:AI“换声”,一场“绑匪”诈骗戏
试想想,假如某一天“远方的子女”找你要钱,听到语音中熟悉的声音,你会不会毫无怀疑地转账?生活中就上演了这样的案例。
家住江苏泰州市的王女士有一女儿,从国外留学归来后去了上海实习。在2023年11月的一天,王女士突然接到“女儿”打来的电话,哭着说自己被人绑架了。电话一头随后传来一名陌生男子的声音,声称如果王女士想要女儿还能安全回去,就必须向对方提供的指定账户内交纳60万元赎金。
王女士听后大惊失色,看着来电号码是自己女儿的,声音也是女儿本人的,就一边按照电话中对方的要求,准备先给对方转账2万元,一边发微信请好友李女士帮忙报警。民警得知情况后很快联系上王女士,并火速赶到现场,告知王女士疑似遇上了电信网络诈骗,劝阻她不要再向“绑匪”转账。
随后,民警经过核实,确认王女士女儿正在上班,并没有被绑架。得知女儿没事后,王女士终于长松了一口气。据民警介绍,王女士接到的电话实际上是诈骗分子利用虚拟号码伪装而成。同时,诈骗分子利用AI合成的方式模拟她女儿的声音实施诈骗。
注:案例来自泰州发布
Q1:AI虚假亲情诈骗用的什么技术?
AI虚假亲情诈骗主要采用的技术是Deep fake,意思就是深度伪造,它可以利用人工智能和机器学习算法,通过已有的音频或视频素材,合成高度逼真的虚假音频或视频的技术。在语音领域,Deep fake技术可以通过模仿目标人物的声音、语调、口音等特征,生成高度逼真的虚假语音,就像上述案例中打来的“绑匪”电话,从而达到诈骗的目的。
在早期,Deep fake的硬件设施还不是非常完善,有一定的技术门槛,所以AI诈骗没有那么猖獗。2023年,Chatgpt的出现带来了AI技术的大发展,算力也有大幅提升,让使用Deep fake的使用门槛大幅降低,而且这项技术是开源的,比较容易获取,AI诈骗开始集中大量出现。
Q2:AI虚假亲情诈骗是如何运作的?
1.收集录音,克隆声音
为了进行AI换声,犯罪分子通过抖音、微信、微博等社交平台收集亲人的声音短片,将这些声音短片提供给Deep fake等AI工具,这些工具能够学习该人的声音模式、音调和语调,进而模拟出他们的声音。
2.设计脚本,制造恐慌
有了目标人的克隆声音后,犯罪分子就会设计相关脚本,通常会告诉你所爱之人或亲友处于危险之中,要求你立即进行资金汇款。犯罪分子对你和亲人的信息有详细了解,会找准双方联系不上的时间段,制造出恐慌,让人难以冷静思考,进而让你同意进行汇款。
Q3:AI虚假亲情诈骗如何防范?
1.提高社交媒体隐私保护意识
进入社交媒体时代,搜集个人隐私变得更加容易,因此我们在使用社交媒体的时候需要提高隐私保护意识。一是,可以将社交媒体帐户设为私密,在分享音频和视频之前,将隐私设置为仅认识和信任的人查看。二是,可以为社交账户设置多重身份验证,这样可以增加犯罪分子盗取账户的难度,避免账户被盗。
2.与亲人设置暗号
通过与亲人互相设置暗号,在遇到AI虚假亲情诈骗时候,可以通过暗号来验证是否在与真人交谈,防止上当受骗。
3.及时消除数字足迹
在上网的时候注意个人隐私信息的泄露,不点击陌生链接,不浏览非法网站,及时消除网上数字足迹,包括从不必要的网络上删除姓名、地址和其他个人详细信息,同时也可以通过删除Cookie来帮助擦除一些数字足迹。
Q4:遇到AI虚假亲情诈骗怎么办?
1.保持冷静
在日常生活中遇到该类情况时,你可能会感到非常害怕和不安,但无论如何应保持冷静,不要一个人做任何决定。尤其提醒老年人在接到电话、短信时,要挂掉电话,再次拨打家人电话确认,不要贸然转账。
2.相信公安机关
突发情况联系不上亲人,应该第一时间拨打110报警,切忌随意转账汇款,公安机关会通过各种方式核实情况,以确保当事人安全为第一优先。
在摩尔定律的作用下,AI技术的发展越来越快,对个人和社会带来促进的时候也会产生干扰。作为普通人,我们应该积极提高AI技术的素养,多了解一些AI知识和它的底层逻辑,这样也有助于我们识破骗局。要知道,AI诈骗得逞只是最后的结果,防范AI骗局却可以随时开始。
免责声明:文章内容不构成投资建议,请投资者独立决策并自行承担风险,过往业绩不预示未来表现,投资需谨慎,详阅基金法律文件。该文章仅限华夏基金投资者教育基地开展投资者教育,未经授权禁止第三方机构或个人以任何形式进行传播、剪辑。
免责声明:市场有风险,选择需谨慎!此文仅供参考,不作买卖依据。
文章投诉热线:182 3641 3660 投诉邮箱:7983347 16@qq.com