AI威胁人类尚且还早,使用AI的人类相互对抗,才是正在加剧的威胁。
文|林炜鑫
编辑|邓咏仪
来源|智能涌现(ID:AIEmergence)
封面来源|IC photo
在深海里,一艘俄罗斯的潜艇疑似遭到未知鱼雷的攻击,船长下令发射鱼雷作回应。过一会儿敌方潜艇突然消失在雷达里。众人以为是仪器出了点故障,松了口气,不料刚才发出的鱼雷竟然自己拐了弯,将这艘潜艇炸个粉碎。
这是好莱坞新片《碟中谍7》的第一幕。与以往不同,炸毁潜艇的反派是名叫“智体”的超级AI,它无处不在,可以瞬间清除实时视频,冒充任何人的声音,破解人的身份安全码(甚至是指纹码),轻松入侵全世界的赛博空间。
只有一把金属钥匙可以关闭智体。为了争夺钥匙,阿汤哥饰演的主角伊森与智体及其党羽展开殊死搏斗。
而在戏外,本月,好莱坞的演员和编剧爆发了一场浩大的罢工示威。这场罢工的一大原因就是,生成式AI给影视圈带来的威胁。演员担忧AI创建的数字替身终有一天会取代自己,编剧则拒绝可能到来的现实:AI写剧本初稿,他们来润色修改。
阿汤哥也公开支持好莱坞对AI的抵制,向制片商喊话,不要忽视演员对AI的担忧。
《碟中谍7》导演克里斯托弗·麦奎里认为,我们当下的时代精神就是技术带来的焦虑,技术如何影响人们的生活。他说,AI很像冷战时期的核弹,不用强调,每个人都感受到了。
这个故事巧妙地迎合了今天一部人的情绪:对日益进步的AI的恐惧和担忧。不过,现在AI还远无法达到这种智能程度。
在电影中,智体可能是男主角面对的最可怕的敌人,因为它已经进化到具备自我意识,能预测人类的每一步行动,因此几乎把伊森和他的团队逼入绝境。
令人恐惧的另一个因素是,人类无法知道智体想要什么,它的动机始终处在神秘之中。也许下一部电影将解答这个疑问。但在现实中,AI本身就是一个巨大的黑箱,没有人有信心解释到底发生了什么。
早在ChatGPT在全球爆红时,至少有一部分人坚信,生成式AI将造成人类生存威胁。恐惧建立在未知上,但事实是,生成式AI目前仍处在早期阶段,它的能力被夸大了。
人工智能有可能获得自我意识,甚至拥有欲望和贪婪吗?牛津大学教授桑德拉·瓦赫特否认了这一点,他在接受英国媒体Evening Standard采访时称,大众混淆了生成式AI和AGI(通用人工智能),“没有证据表示我们正在往AGI发展,甚至这条路存不存在都不好说。”
智体可以随时删掉监控里的部分画面,甚至侵入AR眼镜,冒充人类的声音。据英国媒体Evening Standard报道,IT安全公司F-Secure的专家劳拉·康卡拉说,抹去监控录像画面理论上是可行的,但要想做到实时删除,背后需要的计算资源是巨大的,至少现在还办不到。
至于影片开头的潜艇事件,网络安全公司Dargtrace的专家托比·刘易斯则表示,AI可能趁潜艇在港口停靠时,或者浮出水面时,通过潜艇的通信渠道进入。
另一个专家詹姆斯反对这个设想,他告诉Evening Standard,军用潜艇为了隐藏位置,和总部之间的通信渠道会受到严格限制。AI试图从通信渠道进入,攻击军用计算机系统,污染潜艇的声纳系统,不太可能会发生。“但这是个很棒的电影故事情节。”
尽管如此,出于对AI失控的担忧,越来越多人开始呼吁对其进行监管和限制。早在今年3月,马斯克和一系列硅谷名流及科学家共同签署了一封联名信,呼吁各方暂停开发生成式AI六个月。这封联名信征集了超过33000个人的签名。
智体失控,本是一场不必要的灾难,然而整部电影中,只有阿汤哥想彻底摧毁它。编剧借一个角色的台词说出真相:不是要消灭它,而是要控制它。
公平地说,AI威胁人类尚且还早,使用AI的人类相互对抗,才是正在加剧的威胁。换句话说,人工智能已经不可避免地涉足到国防军事领域,甚至被运用在现代战争里。
AI技术将使战争可能减少人员伤亡。搭载AI的无人机可以在复杂环境中导航,并以巨大的精度进行侦查,对目标发起精准打击。这种“斩首行动”也极具威慑力。据报道,美国国防部正在研发能驾驶战斗机的AI机器人。一位军方顾问道格拉斯·肖说:“在未来,无人机的数量将远超武装部队的人数。”
AI系统将改变战争决策。AI提供的情报分析,使决策窗口从几天或几小时,缩短到几分钟。斯坦福大学教授赫伯特·林接受《纽约时报》采访时说,因为AI的运算速度远超过人类,领导层可能过度依赖AI的情报。那么,万一AI给出虚假情报,甚至做出错误决策呢?
这并非没有先例。早在伊拉克战争期间,美军的导弹系统就曾击落过友军战斗机,事后证明是系统的自主操作。
2020年中东战场,被称为“游荡弹药”的无人机不需要人类的远程操作,就能自主巡逻。无人机内置炸药,自动识别地面目标,然后俯冲过去轰炸。AI自动杀人已经成为现实。如果AI将平民误认为恐怖分子,将医院误认为军事基地,后果不堪设想。
反对AI武器的大有人在。年满100岁的基辛格刚出生时,人类的战争还需要用到马匹,现在这位美国前国务卿在思考AI战争,他呼吁道,国际社会应该暂停军事化AI的发展,“是时候用新的国际法来规范这些技术”。
但是,暂停的可能性微乎其微,当前紧张的国际局势里,人工智能军备竞赛不可能彻底结束。
五角大楼官员约翰·谢尔曼公开表示,“如果我们停下来,海外的潜在对手不会停下来。我们必须继续前进。”
著名导演卡梅隆也有类似的担忧。上周,卡梅隆接受媒体采访时警告道:“我认为人工智能的武器化是最大的危险,我觉得我们会陷入一场类似核军备竞赛的人工智能竞赛,如果我们不去开发它,其他人肯定会去开发它,然后就会升级。”
目前来看,各国能做的,就是呼吁一下,采取些限制措施,比如“负责任地部署与使用人工智能”;对核武器的所有方面进行严格的“人为控制与参与”,不把发射权交给计算机;在军事AI的每个阶段进行严格的人为监督、测试和验证;AI系统应该从一开始就明确其任务,并且可以被关闭。
7月18日,联合国安理会首次就AI威胁国际和平与稳定,召开会议。秘书长安东尼奥·古特雷斯说,联合国必须在2026年前达成一项具有法律效力的协议,禁止在自动武器中使用人工智能。
说实话,没有人真正知道更新更强大的AI技术在军事领域能做什么。风险与日俱增。仅有的一点好消息是,在探索AI军事应用时,大国可能都会更加小心翼翼,这可不是玩笑。
36氪旗下AI公众号
👇🏻 真诚推荐你关注 👇🏻
来个“分享、点赞、在看”👇
文章引用微信公众号"36氪",如有侵权,请联系管理员删除!