5月24日,中国互联网协会官网发文表示,当前利用“AI换脸”“AI换声”等虚假音视频,进行诈骗、诽谤的违法行为屡见不鲜,提醒公众警惕“AI换脸”新骗局。其中特别提到,近期由包头警方发布的一起使用AI技术进行电信网络诈骗的案件。福州某科技公司的法人代表郭先生在接到“好友”的微信视频后,为“好友”提供了430万元的“过账资金”。
“AI换脸”诈骗的消息传来,也引发了一定程度的公众焦虑。例如,有媒体援引第三方说法,认为“AI诈骗成功率接近100%”。尽管这一概率数字明显缺少数据支撑,但在诸多案例的影响下,人们开始担忧人工智能技术的诈骗陷阱。
首先,应明确的是,从人工智能用于诈骗的技术可行性以及我国反诈的基础设施情况看,利用人工智能进行诈骗的案例虽然开始增多,但远未达到遍地蔓延的状态。
一方面,人工智能换脸需要完整获取用户的音频、完整面部等较多隐私数据,使用该技术进行诈骗的成本和门槛相对较高,短期内很难如电话电信诈骗等大规模蔓延。
另一方面,针对类似的电信诈骗,公安机关、网络平台均已建立相对完整的防控拦截机制,这些机制仍将继续发挥着保护层的作用。因此,在包头的案例中,在受骗者及时报警后,警方10分钟便追回了300多万元的资金。
生成式人工智能的普及,的确不断降低语音、面部合成伪造技术的门槛。无论是“AI孙燕姿”,还是主播利用AI换“明星脸”直播带货,都说明这一技术正在大规模普及应用。现阶段,一个有基础网络软件使用知识的人,均可借助人工智能工具轻松完成“信息伪造”,不论是模仿企业发布新闻稿,还是模仿个人的语音,甚至是进行换脸。
从信息技术发展史看,新的信息生产、分发方式的变化,容易率先在灰黑产被应用。数年前,当智能手机将移动互联网带入了下沉市场并在老年人群中普及开来后,同样引发过新型电信诈骗的高发期。
相比原子化的个人,诈骗分子总是更偏好在信息差中寻求最大的牟利空间:用更快、更新、更容易伪造的传播方式,攻破那些在新技术面前还来不及做好准备的普通人。
因此,公众的担忧是合理的,也值得警惕。从极端情况来推演看,如果对面沟通的人,不管是声音、语言、图像还是背景知识,都足以以假乱真,这也意味着个体在网络沟通中的识别技巧均告失灵。
但从监管部门、科技公司的反应速度来看,这种极端假设很难长期成立。首先,人工智能技术本身是中立的,这也意味着,可以被用于伪造信息的技术手段和数据,同样可以被用于反制虚假信息。
例如,国内部分科研团队、科技企业已经在研发专门针对虚假信息的检测技术,不断提升对于语音、面部合成信息的检测成功率。可以预测的是,这些人工智能反诈技术都将成为对抗魔法的魔法。
其次,这些虚假信息的传播仍然需要通过内容、社交平台来进行,这也说明个体与诈骗分子之间仍可建起一道技术屏障。社交平台通过对技术特征的识别来建立预警机制,一旦镜头前的视频存在换脸的痕迹,立马进行预警告知,结合反诈的行为数据库,甚至可进行信息同步拦截。
最后,社会化的监督与法律法规的完善,也可以为反人工智能诈骗提供兜底性的保障。比如对于用户隐私的搜集、使用进行更坚决的保护,从源头切断诈骗分子伪造信息的可能。同时,对于人工智能相关的应用工具,也能从政策层面对其使用场景、用户门槛进行限制。
在诈骗案例开始增多,且换脸等技术在内容平台大范围普及的情况下,建立科技、政策和教育宣传的立体化屏障开始变得更为紧迫。新技术的普及速度往往超出想象,缩短从技术爆炸到社会化监管的时间,或许是技术进步对时代提出的重要课题。
插个嘴