不是骗不到你 人脸声纹指纹虹膜签名视频总有一款适合

病友交流 病友交流 343 人阅读 | 0 人回复 | 2023-10-29

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?立即注册

x
       “ 以前我们说‘ 眼见为实 ’, 但随着技术发展,诈骗犯的技术手段也在更新,造出‘ 假人说假话 ’,有时让人防不胜防,必须要注意鉴别和防范。”

        近日,在深圳举行的世界 数字城市 大会“ 生物特征 识别技术应用论坛 ”上,国家特聘专家 陈友斌教授 在接受记者专访时谈到:“ 人脸识别 技术已经落地各项应用,由此引发的个人隐私泄露等问题也日渐突出,人脸识别技术应用安全管理势在必行。”

        AI 换脸、声纹合成

       “ 好友 ” 以假乱真骗走钱财

       “ 如今,社会生活中的不少业务都可以在 线上 进行,金融方面如 开户、开卡、理财、信贷;  民生方面如申领 社保、修改 密码、开庭、办案;  商务方面如 谈判、签约、公证 等,然而你有没有想过,屏幕上出现的那个 人,是否真的是你以为的那个 人?  人工智能大时代下,这一点特别需要警惕。” 陈友斌说。

        前不久包头警方就通报了一起利用 AI 实施诈骗的案件:  福州市某公司法人代表 郭先生 10分钟内 被骗 430万元。据通报,郭先生 的一位“ 好友 ”突然通过 微信视频 联系他,称自己的一位客户朋友在外地竞标,需要 430万元 保证金,且需要 公对公 账户过账,想要借 郭先生公司的 账户 走账。基于对好友的信任,加上已经视频聊天 核实了 身份,郭先生 没有核实就直接分两笔把 430万元 转到了对方指定的银行卡上。事后,郭先生 拨打好友电话才知道 被骗,原来不法分子通过 智能 AI 换脸 和 拟声技术,佯装成好友对他实施了诈骗。“ 不法分子用视频对讲的方式模拟 受害者朋友 的 声音,看起来,人 也是这个 人,声音 也是 他的 声音,但其实根本就不是他朋友所为。”  陈友斌说。

        无独有偶,2022年2月,有位 陈先生 到派出所报案,称自己被“ 好友 ”诈骗了 近 5 万元。经警方核实,诈骗分子 利用 陈先生 某好友在社交平台发布的 视频,截取其 面部 画面后利用“ AI 换脸 ”合成,制造 陈先生 与“ 好友 ”视频聊天的 假象 骗取其信任,从而实施诈骗。

        今年10月7日,国家金融监督管理总局 北京监管局 发布风险提示称,有不法分子非法获取 个人 信息,通过计算机 算法 仿真合成 受骗者亲人、领导同事或公职人员的肖像面容与声音,冒充上述人员身份行骗; 在获得受害者信任后使用事先准备好的套路话术向受害人发送银行卡转账、虚拟投资理财、刷单返利等诈骗信息,并利用视频通话,语音轰炸等手段进一步降低受害者的防备心,受害者往往在短时间内难以察觉异样,一旦听信诈骗分子的 骗术 并完成 转账,对方便杳无音讯。

        AIGC 数字人?  自然人?

        人体 生物特征 或被“ 深度伪造 ”

      “ 不法分子通过 AI 换脸 和 拟声 技术,佯装熟人实施诈骗。”  陈友斌 介绍,中国在 人脸识别 这一领域的应用排在世界前列,因而 人脸识别 的风险和隐私保护必须引起关注。

      “ 在镜头前面的那个人,他是不是一个真实的 自然人?  人是不是真实的?  证件是不是真的?  人证是不是一致?  需要 远程核身 的手段。”  陈友斌 介绍,出现在 伪造 图像或者 伪造 视频中,借助 AI 技术生成 或者 伪造 的人称为“ AIGC 数字人 ”。 它可以是真实世界不存在的人,也可以是对真实世界存在的人的 伪造。而“ 自然人 ” 是出现在 真实图像 或者 真实视频 中,且存在于 真实世界 的 人。

       据了解,目前在 广深 两地,生产和销售 虚拟数字人 “ AIGC 数字人 ”的企业已达 上千家,由 AI 技术创建的“ 数字人”具有高度逼真的外观和自然的语言交互能力,能够与用户进行实时对话互动,甚至达到“ 不仔细看看不出来 ”的逼真程度。

       作为多年从事 图像识别 与 人工智能 领域研究的专家,陈友斌 提醒:“ 人脸、声纹、指纹、虹膜、签名 等是最常用的人体 生物特征,即便是 自然人,但是否 他本人 此时此刻就在那个地方,还是别人移花接木把他 粘贴到那里去?  也需要鉴别。”

       陈友斌 介绍,与传统技术相比,“ AI 换脸 ” 的破坏力不仅在于“ 伪造 ”,更在于“ 深度 ”。“ 诈骗分子一般会先对公众在网络上发布的各类信息进行大数据分析,包括社交媒体上的 个人数据、工作信息、人际关系 等,研究他们的日常 生活习惯、工作习惯、资产状况 等,然后结合要实施的 骗术,通过 AI 技术对人群进行 筛选,从而确定要实施 诈骗 的目标人群,锁定诈骗对象。”

        警惕 声纹 造假

       接陌生电话“ 变个声音再说 ”

       陈友斌 介绍,“ 深度伪造 ( Deep Fake ) ” 是一种基于 深度学习的 多媒体篡改与合成技术,主要包括 图像、语音、视频 和 文本的 伪造及篡改等,在 视频通话、视频会议 中,模仿目标人物去欺骗另外一个人。“ 深度伪造 发展得非常快,这个技术最早用于好莱坞拍电影时去模拟一些现实中拍不到的部分,后来被不法分子所利用,让 人脸图片 的 嘴巴 动 起来、眼睛 眨 起来,还能 摇头晃脑的,还有 换脸 等,现在这类模型非常多。”

       他告诉记者,这种 深度伪造 技术在不改变身份的情况下,可以对人脸进行 年龄、性别、种族 的改变,并且操纵 口部 或者 表情;  还可以通过人脸 迁移、交换、堆叠 等方式,以“ 换脸也换表情 ”“ 换脸不换表情 ”等多种方法 混合 来改变身份。“ 实时交互式 的 深度伪造 将合成映射到现在的时刻,针对实时 交互式 的 应用场景,如 在线会议中 使用 虚假身份 窃取信息或扰乱秩序,或在 视频通话 中模仿 目标人物去欺骗另一端的 用户 等。”

       陈友斌 提醒:  特别需要注意的是,声音的 信息 也可以通过提取“ 声纹 ”来进行造假。  什么是“ 声纹 ”呢?  陈友斌 介绍,人类语言的产生是人体 语言中枢 与 发音器官 之间一个复杂的生理物理过程, 发声器官 —— 舌、牙齿、喉头、肺、鼻腔 在 尺寸 和 形态 方面每个人的差异 都很大,所以任何 两个人 的 声纹 图谱都有差异。现在大家都常接到很多陌生人打来的广告电话,殊不知在和陌生人说话的过程中,不知不觉就把自己的 声纹 泄露了。

       “ 不法分子可能通过不同的人向你打电话‘ 轮番轰炸 ’,也许他们的目的根本不是为了推销,而是获取你的 声纹、生活习性 和 社会关系,进而实施诈骗。”  陈友斌 介绍,语音时长 会影响 声纹识别 的精度,有效语音 时长越长,算法 得到的 数据 越多,精度 也会越高。因此他提醒:“ 不熟悉 人工智能 科技的老年人尤其需要提高警惕,包括 年轻人 也一样,接到陌生电话千万 不要 多说话,实在必须说话时可以捏着 鼻子、变个声音 跟他说,否则经过一段时间的 数据 学习,不法分子就可能会利用你的 声纹信息 和 讲话习惯 等,合成你的声音、换成你的脸,在你的社交网络里进行诈骗。”

       细心留意 AI 伪造“ 蛛丝马迹 ”

       多渠道确认不轻信视频内容

      如何防范 AI 深度伪造诈骗?  陈友斌 提醒:“ 如果这个人跟你很熟,你跟他多交互对话几次,就可以发现问题了。”  据了解,以银行业务为例,是需要通过 图像、语音、自然语言处理 再加上 交互对话 来完成 金融业务,最大限度减小风险。而普通人也可以通过 多种核对 的方式来发现 AI 深度伪造的“ 蛛丝马迹 ”。

       他介绍,因为 人脸合成 的素材大多使用的是 睁眼 照片,所以“ 缺少眨眼 ”可以被视为是 合成视频 的“ 特征 ”之一,此外 合成视频  还可能存在 口型 和 发音 不同步、情绪 不符合、某个地方 不自然 或者 不衔接、牙齿 和 嘴唇纹理 不清,耳朵不对称 等情况。AI 拟声、AI 换脸 包装作伪后的 通话,虽能逼真地模仿 原始人物 的 语言 和 行为,但仍充满破绽,例如 眨眼 频率过低、眼睛移动 不协调、面部表情 不自然、语句不连贯等 —— 这些都是“ AIGC  数字人 ”的特点。

       以下防范 口诀 比较好记:

        电话 回拨 再确认, 视频 不可轻易信;

        私人问题记得问,答不上来不可信;

       眨眼能破 AI 面孔,关键时刻要常用。


.

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

热门推荐