怀疑对方AI换脸可以让对方摁鼻子

正在和你视频通话的人,真的是你熟悉的TA吗?近日,#怀疑对方AI换脸可以摁鼻子#上了热搜。网络安全专家提醒,我们可以让对方摁鼻子、摁脸,由此观察其面部是否出现形变,“真脸”“假脸”一试便知。网友纷纷表示,“这招实用”“学到了”……

近年来,生成式人工智能技术发展势头迅猛,从ChatGPT到Sora,越来越多的AI生成文稿、图片、音视频等出现在我们的生活中。

技术打开了我们的“脑洞”,丰富了大众的视听,增加了社交新玩法,受到广泛期待。但一些别有用心者利用AI深度造假,“开局一张图,内容随便编”,以此散布谣言、实施诈骗、操控舆论等,扰乱社会秩序、侵犯他人权益,令人愤慨。

“网络世界里,现实是否将不复存在?”AI生成颠覆了我们“眼见为实”的习惯认知。在大力发展AI的同时,我们如何打击“AI造假”,让技术更加安全可控、更好为人类服务?

文生文、文生图、文生视频、图生视频……生成式人工智能技术的爆发,让我们见识了“AI作家”“AI画家”“AI摄影师”“AI导演”的惊人技能,更“聪明”的AI由此成为许多人的“贴心助手”。但与此同时,这一技术正被不法分子用来造假“搞事情”,让人防不胜防。

怀疑对方AI换脸可以让对方摁鼻子

一跨国公司职员被骗2亿港元

比如,“AI诈骗帮凶”。“被骗2亿港元!一跨国公司职员参加多人视频会议,只有自己是真人”——最近,香港警方披露了一起多人“AI换脸”诈骗案,让人大跌眼镜。

比如,“AI假新闻”。前不久,国内多地公布网络谣言典型案例,其中多起系“AI生谣”。“某地一煤矿发生事故已致12人遇难”,这是利用AI自动生成的“新闻体”假文章;“某工业园现大火,浓烟滚滚,目击者称有爆炸声”,则是利用AI“移花接木”拼成的假视频。不法分子借此博眼球、赚流量、非法获利,造成不良社会影响。

怀疑对方AI换脸可以让对方摁鼻子

不法分子利用AI拼接生成假视频获利

比如,“AI假名人”。今年年初,美国明星泰勒·斯威夫特的大量虚假“不雅照片”在社交平台上传播,致使其名誉受损。一些选民接到了“拜登总统”关于投票选举的自动留言电话,形成误导。

比如,“AI水军”。在一些社交平台,与我们对话的可能不是人,而是AI。只要提前设置好评论立场或风格,如直接抹黑、阴阳怪气、拉踩等,AI就能生成各式各样的评论内容,干扰舆论。

怀疑对方AI换脸可以让对方摁鼻子

奇安信最新发布的《2024人工智能安全报告》显示,2023年,基于AI的深度伪造欺诈暴增3000%,基于AI的钓鱼邮件增长1000%。世界经济论坛发布的《2024年全球风险报告》也提醒,AI驱动的错误信息和虚假信息是全球经济面临的最大风险。

如今,不少人用“真假美猴王”来形容肉眼对“AI造假”的识别难度。那么,“AI造假”这个“假美猴王”有哪些特点呢?

“伪造高手”。2023年,某世界摄影奖举行颁奖礼,出人意料的是,一位获奖的德国职业摄影师主动拒绝了授奖,因为其作品由AI创作。AI生成的作品“骗”过了评审专家的双眼,可谓真正的“以假乱真”。

怀疑对方AI换脸可以让对方摁鼻子

德国摄影师的获奖“照片”系AI生成 图源:美国有线电视新闻网

“快枪手”。一键生成、快速生成,生成式人工智能技术大大降低了假文案、假视频的制作门槛,缩短了制作周期。不久前,某地警方破获了一起特大造谣引流网络水军案。涉事传媒公司利用AI爬取境内外短视频内容,编造敏感社会事件,在网络平台发布虚假信息,其运营的自媒体账号多达4万个,虚假帖文信息80多万篇。

“读心大师”。AI具有强大的学习能力,可以精确分析出受众需要什么、喜欢什么,从而有针对性地生产更容易让人相信的谣言。瑞士苏黎世大学的一项研究发现,当AI和人类都发布了虚假推文时,AI被识破的几率比人类低3%。与人类书写的文本相比,GPT的文本往往更加结构化,更容易被接受。

“一本正经的骗子”。研究发现,AI“造假”有时候是因为AI自己会“撒谎”。这种现象被称为AI幻觉,“指的是AI会生成貌似合理连贯,但同输入问题意图不一致、同世界知识不一致、与现实或已知数据不符合或无法验证的内容。”

怀疑对方AI换脸可以让对方摁鼻子

AI“一本正经地胡说八道”

这种AI编造信息,“一本正经地胡说八道”的情况屡见不鲜。比如,ChatGPT在谈及葡萄牙某银行破产事件时撒谎了,而且为了证实自己,它还编造出了所谓的信源网址。

“2023年年初,生成式人工智能技术还只是个‘婴孩’,不过一年时间,竟已长成‘少年’”“必须负责任地开发和使用”……人们对“AI造假”的担忧,让AI治理成为时下热点议题。如何让生成式人工智能技术更加安全可控、更好为人类服务?

怀疑对方AI换脸可以让对方摁鼻子

以“善治”促“善智”。如今,AI已经成为国际竞争的新焦点、经济发展的新引擎,但其不确定性又带来许多新挑战。要以人的善治,促成AI的“善智”。

比如,我国在AI治理中坚持以人为本的基本原则,确保AI的发展始终为人类服务,而不是人被机器所控制。近年来,我国出台了《关于加强科技伦理治理的意见》《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等多项法规和政策,一方面给AI有关技术的创新发展“鼓劲儿”,一方面又给其“立规矩”“划红线”,以确保相关技术的开发和使用遵守法律法规、尊重社会公德和伦理道德。

放大“正能量”减少“副作用”。对生成式人工智能技术的提供者而言,要把握好技术与法律、技术与伦理之间的关系,坚持技术向上向善,让AI更多地造福于人。

比如,对于AI生成的内容,应采取技术措施添加标识,对于可能导致公众混淆或者误认的,更要添加显著标识。再如,用AI打击“AI造假”,AI可以捕捉图像在篡改过程中留下的细微痕迹,以此鉴别图像真伪。这种“用魔法打败魔法”的技术已经在银行、保险等领域落地应用。

怀疑对方AI换脸可以让对方摁鼻子

《打击整治网络谣言》 图源:新华社

要“他律”更要“自律”。一些案例表明,部分用户对“AI造假”缺乏相关法律意识。比如,某地一女子利用AI编造“校园霸凌”谣言,获得平台浏览奖励几十元,但她很快被警方找到,受到行政处罚,其造谣账号也被关停,得不偿失,后悔不已。有时候,AI会不负责任地胡说八道,但使用者该负的责任一点也不能少,自律之弦要绷紧。

有人说,AI是未来生产力的“发动机”,法律是确保AI开发应用不闯红灯、不越底线的“刹车片”,而安全科技是将各种新兴科技控制在向善道路上的“方向盘”。我们不必因“AI造假”等风险挑战而毁掉“发动机”,而是要用好“刹车片”,把好“方向盘”,这样才能在通往未来的道路上行稳致远。

(编辑:L,本文由西海岸发布制作,来源于青岛宣传,转载请注明出处)

版权声明:本站部分文章来源或改编自互联网及其他公众平台,主要目的在于分享信息,版权归原作者所有,内容仅供读者参考,如有侵权请联系我们,如若转载,请注明出处:https://www.huaxinbiji.com/85024.html
(0)
上一篇 2024年 3月 4日 上午9:10
下一篇 2024年 3月 4日 上午9:15

猜你喜欢

  • 新能源车主称买车容易养车难

    每经记者:董天意 每经编辑:裴健如 据极目新闻,近日,家住北京市昌平区的新能源汽车车主小陈反映,自己的车三年没出险,保费反而比去年贵了上千元,直呼“买车容易养车难”。 针对车主小陈…

    2024年 4月 23日
    55
  • 齐刘海怎么剪(自己剪法式刘海教程)

    不少人都因为疫情居家少了整理发型的机会,刘海越来越长、不知道怎么自己剪?今天小编就为大家带来了居家剪刘海教学,在家就可以剪出今年大红的“申敏儿刘海”娃娃刘海、氧气刘海,超简单刘海剪…

    2022年 11月 20日 生活百科
    882
  • 两千多年后六国子民花钱来拜秦始皇

    10月1号国庆第一天,秦始皇兵马俑博物馆门前人山人海,虽然下着雨,但是依然阻挡不了大家来兵马俑的热情。看着这一幕,我不禁感叹,秦始皇到死都想不到,2000多年后,六国子民自愿掏钱来…

    2023年 10月 3日
    119
  • 为什么我不建议你买香薰机?屋里经常用香薰好不好

    当初买香薰机,是为了给生活增添情趣,营造温馨浪漫的家居氛围。然而,买回来后用了没几次就扔床底吃灰去了。快节奏大背景下,哪有那么多闲情雅致?这就是为什么我不建议你买香薰机的理由。下面…

    2022年 12月 17日
    1.9K
  • 十大地铁公司中4个明确不准喝水!为什么不能喝水

    据极目新闻报道,近日,一起看似微不足道的事件引发了公众的关注。一位网友在南京地铁3号线车厢内因喝水被执法人员开出“罚单”。这引出了一个问题:在其他城市的地铁中,是否也有类似的规定?…

    2023年 7月 26日 生活百科
    165

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注