一个正在跟你视频的“朋友”,其实只是一个诈骗分子,你敢信?

很多人可能会疑惑,既然双方都视频了,那就代表可以看到对方啊,怎么可能还会是其他人呢?你还别不信,现实中真的存在这样的案例。

图片来源:人民视觉

在温州一起案件中,被害人接到了一个视频电话,视频那边赫然是自己的一个好友,于是在对方提出借用几万块钱时,毫不犹豫地转账过去了。然而,事后才知道,自己遇上了诈骗。

原来,视频那头的“好友”是假的,只是诈骗分子通过被害人好友发在社交平台上的视频截取了脸部画面,再用人工智能技术换了张脸,这才使得被害人误以为是朋友而上当。

去年以来,类似的“换脸诈骗”案件呈现多发趋势,不少地方都出现了这一情况。

随着人工智能技术的发展,音视频合成技术迎来了质的升级,落地应用不断加快,甚至出现了一些专门以换脸作为“卖点”的APP,如2021年曾大火并一度陷入巨大争议的换脸软件“ZAO”。

图片来源:视觉中国

不法分子也盯上了这项技术,趁机利用来进行违法活动,主要是诈骗、涉黄问题。

在诈骗方面,除了通过视频交谈实施诈骗外,还能够利用合成的伪造视频到一些支付平台骗取用户资金或进行贷款套现。

不法分子借用人工智能技术,能够将一张简单的静态照片制作成人脸动态视频,且视频中的人脸可以很逼真地完成平台人脸审核时所需的点头、摇头、眨眼、张嘴等表情动作,令人不寒而栗。

据了解,这些伪造视频不仅通过率高,人工审核都难辨真假。有些不法分子专门制作这些视频牟利,再由购买视频的其他人实施犯罪行为,实际上已经形成了一条黑色产业链。

在一些诈骗案例中,虚假的音频也往往能够得手。

图片来源:人民视觉

涉黄方面,一些不法分子将明星、网红的人脸换到视频中的“女主角”脸上,以达到更高传播度的目的。

目前看来,加强人脸、指纹、声纹等生物信息的保护已然刻不容缓,否则必将进一步伤害到普通人的个人隐私、私有财产及个人名誉等。

2021年11月1日,《个人信息保护法》正式实施,为个人信息保护提供了法律依据。

《个人信息保护法》第二章第二节第二十八条提出,生物识别、医疗健康、行踪轨迹等敏感个人信息,只有在具有特定的目的和充分的必要性,并采取严格保护措施的情形下,个人信息处理者方可处理。

2022年3月20日,《关于加强科技伦理治理的意见》正式印发,这是我国首个国家层面的科技伦理治理指导性文件,对进一步完善科技伦理体系,提升科技伦理治理能力,有效防控科技伦理风险将起到关键作用。

意见提出,“十四五”期间,重点加强生命科学、医学、人工智能等领域的科技伦理立法研究,及时推动将重要的科技伦理规范上升为国家法律法规。

意见要求,任何单位、组织和个人开展科技活动不得危害社会安全、公共安全、生物安全和生态安全,不得侵害人的生命安全、身心健康、人格尊严,不得侵犯科技活动参与者的知情权和选择权,不得资助违背科技伦理要求的科技活动。

可见,在法律层面,国家正在逐步完善相关监管体系,以维护个人信息安全与尊严。

图片来源:视觉中国

不管从哪方面来看,加强打击“换脸”、“变脸”类诈骗活动,都具有紧迫性。中国工程院院士、信息技术专家邬贺铨曾提出,针对深度合成技术滥用现象,应以技术规制技术,利用技术创新、技术对抗等方式,提升和迭代检测技术的能力。

提升监管效能,强化技术应对能力是一方面,公众也需要切实提高防范意识。一是不要轻易向他人或是APP提供个人身份信息、生物信息,减少在社交平台分享含有清晰人脸的视频动态;二是在“朋友”、“亲人”通过电话、视频等方式要求转账和借款的,一定要多加核实,一旦发现异常要及时报警。

关键词: 当心多地现换脸诈骗案 和你视频的朋友可能只是个骗