AI换脸诈骗爆发? 不必恐慌,分分钟转走百万没那么简单 AI换脸正在全国爆发? 2023年05月31日

  AI诈骗之所以备受社会关注,甚至引发恐慌,主要原因在于AI诈骗是模仿真人声音和面部实施诈骗,针对个人信息定制的“专属剧本”。诈骗成功率非常高。

  多地警方提醒,AI诈骗的成功率接近100%。亲友间网络上借钱更要防范此类诈骗,避免个人信息被别有用心者盗用。

  AI换脸诈骗正在全国爆发了吗?事实并非如此。

  5月26日,多名反诈民警告诉潮新闻记者,在实时视频中进行专业级别的AI换脸变声,不卡顿、肉眼难以识别,在技术上并非易事。对设备和技术要求极高。

  北京社科院研究员王鹏同样认为,AI技术与直播、实时通讯视频结合,要具有一定交互互动性,技术门槛并不低。

  既然仿真技术上较难操作,那为啥频频有人被骗呢?一位反诈民警向记者透露,诈骗分子主要是盗用并伪造好友身份,利用日常话术,赢得了受害者信任,换脸视频只是进一步增加可信度。

  比如,安庆何先生被骗的案例中,其微信“好友”突然发起视频通话,电话接通后,何先生看到“好友”正在一间会议室内,并借故会议有事,通过QQ要求周转资金,导致何先生被骗。

  “说到底还是电信诈骗的延伸。这些游走在法律边缘的AI技术黑灰产业链,增加了技术被恶意使用的风险。”王鹏说。

  如何防范此类诈骗事件?

  由此可见,现在打着AI名义的诈骗,还不能算严格意义上的换头换脸。

  技术本身是中性的,关键是由谁来运用。这也应该给有关部门敲响警钟了。

  与普通以口头诈骗为主的电信诈骗相比,AI诈骗迷惑性更强,辨识更困难。AI技术可以综合运用语音、视频等手段,模仿亲友、熟人、领导等人的面容、声音,冒充亲友、熟人、领导等,从而以假乱真,别有用心地锁定诈骗对象后实施诈骗。

  王鹏建议,首先,有关部门要加强监管,侵犯个人隐私及售卖信息的行为需严厉打击;其次,技术提供方、平台方,要落实主体责任,提高审查门槛,有效避免诈骗行为发生,尽到监督监管义务。

  此外,换脸是否侵权,该如何约束?如果出了问题,平台、软件方是否应负相应责任?消费者该如何防范AI换脸诈骗骗局呢?

  陕西恒达律师事务所高级合伙人、知名公益律师赵良善表示,不法分子以AI换脸方式骗取他人的钱财,不仅侵犯了被换脸的人的肖像权,还侵害了被骗人的财产权。

  同时,无论个人还是平台、AI换脸技术提供方,未经肖像权人同意,通过技术手段提取肖像,并擅自使用或上传至换脸APP中供用户选择使用的行为都侵犯了他人肖像权。在民事责任方面,AI换脸技术提供方需承担连带民事责任,被侵权人可以通过提起民事诉讼方式要求AI换脸技术提供方承担停止侵权、赔礼道歉并赔偿损失等民事责任。

  我们该如何识别AI骗局?

  其一,AI换脸并非无任何破绽,可以要求对方用手指在其面部来回晃动,或者用手掌来挡住一部分脸,若面部出现扭曲,则断定是AI换脸。

  其二,AI换脸一般利用他人的真人照片合成,因此,若仔细观察面部不眨眼,则是AI换脸。

  其三,要时刻保持警惕,尤其是在通话或微信视频中对方声称是亲戚朋友,可以适当询问一些私人信息来验证对方的身份,尽量通过多渠道交叉验证,确认对方身份,再做决定。

  其四,要定期更新密码和软件防护措施。为了防止个人信息被盗用,建议定期更改各类账号的密码,并且使用强密码。

  其五,尽量使用官方网站或其他具有实名认证或安全验证功能的软件进行交流,防止对方冒用身份。

  其六,尽量安装杀毒软件和防火墙等软件保护电脑与手机的安全,以防止恶意程序入侵致使信息泄露。同时,尽量下载如国家反诈APP等防诈骗软件,以识别诈骗信息。据潮新闻