关注“AI换脸”等新型金融诈骗!金融监管总局体系多次“发声”

关注“AI换脸”等新型金融诈骗!金融监管总局体系多次“发声”

00:00
03:50

近年来,随着网络技术的发展,金融诈骗手段快速翻新,迷惑性不断增强,严重侵害公众财产安全与合法权益。“AI换脸拟声”类金融诈骗,就是其中典型之一。

7月24日,金融监管总局金融消费者权益保护局发布了四类新型电信网络诈骗,其中就包括了“AI换脸”“AI换声”类金融诈骗。事实上,这已经是金融监管总局体系就此的第四次风险提示。

据金融监管总局金融消费者权益保护局介绍,“AI换脸拟声”类金融诈骗,从手法上来看,多为不法分子以“网店客服”“营销推广”“招聘兼职”“婚恋交友”等为借口,通过微信、电话等方式联系消费者,采集发音、语句或面部信息。利用“换脸”“拟声”等技术合成消费者虚假音频、视频或图像,模拟他人声音或形象骗取信任,再以借钱、投资、紧急救助等借口诱导其亲友转账汇款,或提供银行账户密码等敏感信息,随后立即转移资金。

此外,不法分子还可能对明星、专家、执法人员等音视频进行人工合成,假借其身份传播虚假消息,从而实现诈骗目的。

据记者统计,截至目前,关于“AI换脸拟声”类金融诈骗,除金融监管总局金融消费者权益保护局2024年7月24日的最新“发声”外,厦门、北京与吉林等地金融监管总局的派出机构,均专门就此提示风险。

例如,2023年10月7日,北京金融监管局通过一则题为“识破欺诈诡计 保护家庭财产”风险提示,明确向金融消费者提出“视频电话眼见、耳听未必属实”。

而据厦门金融监管局2023年7月7日发布的风险提示显示,伴随着AI深度合成技术的成熟,AI深度合成产品和服务井喷式涌现,不少如“AI换脸”“AI换声”等尚处监管灰色地带的产业野蛮生长,为不法分子提供了可乘之机,成为网络欺诈和身份盗窃等犯罪活动的工具。这种利用AI技术融合他人面孔和声音、制造逼真的合成图像来实施的新型网络诈骗,呈现手段愈发多样、门槛大幅降低、辨别难度加大等特点,常令消费者放松警惕,短时间内造成较大损失。

对此,金融消费者除应对提供个人信息、提供短信验证码等涉及重要决策或敏感信息的请求时,保持高度警惕外,厦门金融监管局特别提示,AI拟声、AI换脸包装作伪后的通话,虽能逼真地模仿原始人物的语言和行为,但仍充满破绽。例如,眨眼频率过低、眼睛移动不协调、面部表情不自然、唇形不匹配、语句不连贯等。

吉林金融监管局在2023年10月13日的风险提示中还尤其关注到中老年人群体。“对新兴AI技术不了解不敏感的中老年人往往成为‘AI换脸’诈骗的潜在受害者,广大消费者在对身边的这类人群加强常规反诈提示的同时,也要注意揭示不法分子的新手段”。该局表示。

除“AI换脸拟声”类金融诈骗外,金融监管总局在今日的风险提示中,还就“共享屏幕”类、虚假网络投资理财类及网络游戏产品虚假交易类新型金融诈骗做以充分说明,同时表示,金融消费者如果发现陷入诈骗陷阱导致资金受损,或发现涉嫌违法犯罪线索,应保存好聊天记录、通话录音、交易截屏等有关证据,及时向公安机关反映,切不可轻信网络上自称“网警”“黑客”等组织或人员,避免再次受骗。

以上内容来自专辑
用户评论

    还没有评论,快来发表第一个评论!