版权归原作者所有,如有侵权,请联系我们

AI诈骗近在眼前,我们该怎么防?

学术头条
一起见证人类探索征途上的每一个重大突破。
收藏

任何技术,都是一把双刃剑。人工智能(AI)又可能给我们带来哪些危害呢?

当前,无论是科学家、企业家、媒体,还是我们身边的其他人,一直在讨论 AI 的长期危害,比如可能让打工人丢掉饭碗、超越或取代人类的思维,甚至让人类失去对文明的控制等等。

然而,AI 给我们带来的危害,却近在眼前。而且,对大多数人而言,他们只有在亲身经历后,才知道自己也是一个受害者。

图片

近日,“一公司老板遭遇 AI 换脸诈骗,10 分钟被骗 430 万元”的新闻一度登上了各大新闻网站的热搜。据被害人透露,诈骗人通过 AI 换脸和拟声技术,成功佯装为他的好友,然后对其进行诈骗,“当时是给我打了视频的,我在视频中也确认了面孔和声音,所以才放松了戒备。”

尽管这一事件让人们对“AI 换脸”诈骗有了更多的认识,但实际上,“AI 换脸”的例子远不止这些,直播间卖货的当红明星、一些不雅视频中的面孔等等,都可能是不法分子利用 AI 技术制造的骗局。

另外,不法分子也会在盗取他人微信账号后利用 AI 技术提取语音文件,通过转发微信语音进行诈骗。

问题是,我们在享受 AI 技术带来的便利时,该如何应对“AI 换脸”等新型诈骗?

去年 12 月,国家互联网信息办公室、工业和信息化部、公安部联合发布了《互联网信息服务深度合成管理规定》,其中提到:深度合成服务提供者对使用其服务生成或编辑的信息内容,应当添加不影响使用的标识。提供智能对话、合成人声、人脸生成、沉浸式拟真场景等生成或者显著改变信息内容功能的服务的,应当进行显著标识,避免公众混淆或者误认。

本月初,某短视频平台也发布了“关于人工智能生成内容的平台规范暨行业倡议”,明确禁止利用生成式人工智能技术创作、发布侵权内容,包括但不限于肖像权、知识产权等,一经发现,平台将严格处罚。

图片

上文提到的换脸直播,可能涉嫌侵犯相关明星艺人的肖像权,如果涉及直播带货等商业行为,会成为加重情节。值得注意的是,即便只是娱乐,不涉及盈利行为,只要未经肖像权人同意,换脸直播也属于侵权。

那么,就个人而言,又该如何警惕“AI 换脸”等新型诈骗呢?

5 月 24 日,中国互联网协会发文警示,“面对利用 AI 技术的新型骗局,广大公众需提高警惕,加强防范!”具体而言,我们应该做好个人信息安全第一责任人,以及在远程转账时务必进行多重验证,把好“钱袋子”。

图片

图片

而对行业而言,澎湃特约评论员熊志认为,必须尽快立规,明确信息保护红线,加强对技术服务商行为的规范引导,只有 AI 换脸、AI 拟声等在每一个环节有据可依、严格授权,提升造假诈骗难度,才能更好保护每个人的信息和财产安全。

最后,如果你感觉你正在遭受或已经遭受了 AI 换脸、AI 拟声等诈骗,一定要学会用“法”打败“AI 魔法”。当然,最好的应对方法便是,选择不去相信。

评论
无限探索者
太师级
预防AI诈骗需要我们加强安全意识和管理能力,采取多种措施来保护个人信息和财产安全。如不慎被骗或遇可疑情形,一定要保护好证据,立即报警。
2023-05-25
璐璐L
学士级
防骗最有效的一招就是不信,无论对方怎么“换”、怎么变、怎么翻着花样骗,就是“不听不信不转账”。最关键的是,优化反诈术、防骗方法,并做好宣传普及,构筑反诈防骗的全民阵线。
2023-05-25
追梦人C·hui
太师级
任何技术都是一把“双刃剑”!面对利用AI等技术的新型诈骗手法,每个人都要时刻提高警惕,冷静应对,不泄漏个人隐私信息,切勿贪小便宜吃大亏!
2023-05-25