今天是:

大家人寿浙江分公司提醒您:警惕AI换脸和语音合成技术诈骗 保护个人信息和财产安全

来源 :新华网 访问次数 : 发布时间 :2024-03-20

近日,王先生接到一个视频电话,对方声称是他的远方亲戚,因为紧急原因需要王先生立即转账帮助。视频中的“亲戚”面部表情生动,声音也与王先生所知的亲戚极为相似。由于视频和声音都相当逼真,王先生没有怀疑,立刻转账了数万元。事后,王先生与真正的亲戚联系时才发现自己上当受骗。

这是一起利用AI换脸和语音合成技术实施的新型诈骗案件。不法分子首先获取了王先生亲戚的照片和视频资料,然后利用AI换脸技术将王先生亲戚的脸部信息“植入”到另一个人的脸部,再配合语音合成技术模仿其声音,制作出一个高度逼真的视频电话。通过这种方式,不法分子成功地欺骗了王先生,使其转账上当。

针对此类诈骗,大家人寿浙江分公司提出以下风险提示:

1.警惕视频电话诈骗:在接到视频电话时,务必仔细核实对方的身份。即使视频和声音都非常逼真,也不能轻易相信。可以通过询问一些私密问题或要求对方提供其他证明方式来验证其身份。

2.保护个人信息:避免在社交媒体或其他公开场合分享过多的个人信息,尤其是面部和声音信息。这些信息可能会被不法分子利用来制作高度逼真的AI换脸和语音合成视频。

3.提高科技素养:了解和学习AI换脸和语音合成等新型技术,以便更好地识别和防范利用这些技术实施的诈骗行为。

4.及时报警:如果发现自己可能遭受了利用AI技术实施的诈骗行为,应立即向公安机关报案,并提供相关证据和信息。

各方共同努力,提高警惕,防范诈骗,保护个人信息和财产安全。

文章关键字: 视频 王先生 亲戚 电话 对方