@太原人 警惕!AI换脸、换声可能骗你 要提高警惕加强防范

  和你视频对话的,或许并不是其本人……数字化浪潮席卷社会的方方面面,诈骗手段也随之更新迭代。近期,有不法分子盯上了AI技术,通过AI换脸、AI换声等虚假音视频实施诈骗,在保险金融领域此类案件也时有发生。对此,山西省保险行业协会近日发布提醒,广大保险金融消费者,要提高警惕,加强防范。

  AI诈骗是指不法分子利用AI技术,通过声音合成,伪造成特定人物的声音;通过换脸技术,伪装成特定人物,实时与他人进行音视频通话。更换后的面部表情自然,以假乱真,能够冒充他人身份联系消费者,博取消费者信任后实施诈骗。

  据介绍,利用声音合成,骗子一般是通过骚扰电话录音等来提取声音,获取素材后进行声音合成,从而用伪造的声音来实施诈骗。AI换脸前,骗子首先分析公众发布在网上的各类信息,根据所要实施的骗术,通过AI技术筛选目标人群,并用AI技术换脸,伪装成目标人的亲戚、朋友等重要关系人,通过视频方式进行信息确认骗取信任,来实施诈骗。另外,有不法分子还会通过AI技术,转发微信语音实施诈骗。他们盗取微信号后,便向其好友“借钱”,为取得对方的信任,会转发之前的语音,进而骗取钱款。

  消费者如何防范AI电信诈骗?首先是要保护个人信息,防范个人信息泄露,在生活中加强个人信息保护意识,切勿接受陌生人邀请的视频验证或语音聊天,切勿在网上公开或提供给陌生人或不明平台姓名、照片、声音、联系方式等;其次,对于不明来源或可疑内容的视频或语音通话要谨慎接听或回复,涉及钱款时,要提高安全意识,通过电话、视频等多种方式确认对方是否为本人;另外要注意对方的声音、人脸是否有不协调的特征,多数假脸都是使用睁眼照片合成,假脸极少甚至不会眨眼。

  记者 梁丹 马向敏 太原晚报

展开阅读全文

页面更新:2024-02-29

标签:山西省   原人   钱款   不法分子   骗子   语音   陌生人   消费者   声音   技术   视频

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2020-2024 All Rights Reserved. Powered By 71396.com 闽ICP备11008920号-4
闽公网安备35020302034903号

Top