硅谷顶级投资人:AI是世界的拯救者,不是扼杀者
新闻资讯
2023-06-09 14:03
66
0
硅谷顶级风投机构a16z的创始人之一马克·安德森近日发文为AI发声。面对ChatGPT为代表的生成式AI在全球市场突飞猛进,包括一些顶尖AI学者在内都对AI的“过快发展”表示担忧,甚至有“AI末日论”在传播。马克·安德森作为一个成功的连续创业者和投资人,曾经创立了全球第一个可用的浏览器Netscape Navigator,也是Facebook最早的投资人,他是一个乐观主义者,曾经喊出了”软件将要吞噬世界“的宣言。在这一次的AI浪潮中,他仍然表达了乐观的态度,他认为:- 开源AI应被允许自由传播,促进开放创新和学习,政府和私营部门应合作利用人工智能解决潜在的风险问题。
以下是安德森《Why AI Will Save The World》经过精简的编辑版本:幸运的是,我在这里带来了好消息:人工智能不会毁灭世界,实际上可能会拯救世界。首先,对人工智能的简短描述:人工智能是数学和软件代码的应用,教授计算机如何理解、综合和产生知识,方式类似于人类。人工智能是像其他任何程序一样的计算机程序 — 它运行,接受输入,处理并产生输出。人工智能的输出在诸如编程、医学、法律以及创意艺术等许多领域都很有用。人工智能像其他任何技术一样,由人类所有并由人类控制。对人工智能不是什么的简短描述:并不是电影中那样会突然活过来并决定杀死人类或者毁灭一切的杀手软件和机器人。对人工智能可能是什么的更简短的描述:一种使我们关心的一切变得更好的方式。人类智能在广泛的生活领域中都使得事情变得更好。智能是我们用来创造今天世界的杠杆,如科学、技术、数学等。人工智能为我们提供了深刻提高人类智能的机会,使所有这些智能的成果变得更好,更快。在新的人工智能时代,每个孩子将拥有一个无限耐心、无限同情、无限知识的人工智能导师。每个人都将有一个相似的人工智能助手,帮助应对生活中的所有机会和挑战。每个科学家、艺术家、工程师等将拥有一个扩展他们领域成就的人工智能伙伴。领导者的决策能力也将得到提高,产生巨大的放大效果。人工智能将推动经济增长、新行业的创造、新工作的创造。科学突破和新技术将大幅度扩展,因为人工智能帮助我们进一步解码自然法则。创意艺术将进入黄金时代,因为得到了人工智能增强的艺术家能够更快地、更大规模地实现他们的愿景。战争也将得到改善,降低战时死亡率。人工智能将使我们能够接受新的挑战,这些挑战在没有人工智能的情况下是不可能应对的,如治愈所有疾病和实现星际旅行。人工智能的人性化品质也被低估了,它可以使那些技术技能欠缺的人们有自由创造和分享他们的艺术想法的能力,还有帮助人们应对逆境并提供更有同情心的医疗聊天机器人。人工智能的开发和传播不仅是风险,更是我们对自己、对我们的孩子、对我们的未来的道德义务。我们应该在人工智能的世界中生活得更好,现在我们可以了。当前关于人工智能的讨论充满了恐惧与偏执,原因是人类的竞争直觉。但这种恐惧在大多数情况下是错误的。我们生活在一个和平的世界,一切相互促进。我们需要更积极、开明地看待人工智能,看到它的潜力。人工智能将带来深远的变化,改善生活、改变世界理解。我们应警惕潜在问题,负责任地研究人工智能,确保积极影响。人工智能能解决复杂问题,比如气候变化、疾病、贫困、战争、认知限制。关于人工智能风险与规制的讨论,有"浸信者"与"私酒贩"。"浸信者"是真诚关心人工智能风险的人,他们可能来自学术界、科技道德领域或公众利益集团。"私酒贩"可能从规制中获得经济利益,例如大型科技公司CEO或有权力、影响力的人。他们可能将新的人工智能规制视为竞争壁垒,保护市场地位或阻止竞争。我们的目标是在开放、透明环境中,公正、理性评估各方论点。我们需理解担忧、考虑提议、探索解决方案,而非简单贴标签。"浸信者"的担忧不能被忽视,人工智能确实存在潜在风险。"私酒贩"可能提出有价值观点,如利用规制促进人工智能安全、负责任使用。我们需要更开放、包容、理性地对话环境,让所有利益相关者参与决策,而非少数人主导。最原始的AI末日风险便是AI决定消灭人类。我们的文化深深根植于这种由我们创造的科技可能会崛起并摧毁我们的恐惧。《普罗米修斯神话》、《弗兰肯斯坦》以及《终结者》等各个版本的故事都反映出这个观念。我们应该理性分析新科技的潜在风险,因为虽然“火”可以被用来毁灭,但它也是现代文明的基础。我认为AI会毁灭人类的观念是一个范畴错误。AI不是经过进化竞争的生物,而是由人类构建、拥有、使用和控制的数学和代码。相信AI会发展出自我意识并试图消灭我们,简直就像迷信。AI并非有生命的实体,它无法比烤面包机更具有生命力。然而,一些真正相信杀人AI的人,被称为洗礼者,已经获得了大量的媒体关注。他们主张对AI施加极端的限制,甚至认为我们必须采取预防性立场,可能需要采取大量的物理暴力和死亡以防止存在性风险。对此,我质疑他们的动机,因为他们的立场过于非科学和极端。具体来说,我认为有三件事正在发生:一些人过于夸大自己工作的重要性,为罪恶赚取荣誉;有的人被付钱成为末日论者,他们的声明应该谨慎对待;加利福尼亚有一些被教派吸引的边缘人物和一些实际的行业专家,他们把“AI风险”发展成一个教派。实际上,这种末日论教派并不新鲜。西方有持久的千禧年末日论教派传统,AI风险教派就有所有的千禧年末日论教派的特征。这些信仰者,无论真诚或不真诚、理性或非理性,都需要得到适当的回应,因为他们可能会激发有害行为。理解他们的动机和他们所在的社会环境,可以帮助我们找到合适的回应方式。AI风险的另一种观点提出,AI有可能通过产生有害的输出对社会造成深远的影响。此类观点主张AI的风险可能源于社会影响,而非实际的生理伤害。AI的社会风险主要表现在“AI对齐”,即AI应与人类价值观相对齐,但到底应对齐哪一种价值观,就是一个复杂的问题。此类风险的问题在社交媒体的"信任与安全"战争中已经有过体现。社交媒体多年来一直受到来自政府、活动家等压力,要求审查和限制各种内容。而类似的关注点也在AI领域出现,人们开始关注AI的对齐问题。 社交媒体审查的经验告诉我们,一方面,言论自由并不是绝对的。任何生成或促进内容的技术平台都会有某种限制。另一方面,审查一旦开始,就可能产生滑坡效应,涵盖的范围会越来越广,这种现象在社交媒体审查中已经有过体现。对于AI对齐的问题,支持者认为他们能设计出有益于社会的AI生成的言论和思考,同时禁止有害的内容。反对者则认为,这种行为带有思想警察的傲慢性质,甚至可能构成犯罪行为。他们认为,这可能会导致一种新的专制制度的产生。虽然主张对AI输出实施严格限制的观点可能只在人口的一小部分中存在,但这种观点的影响可能会对全球产生深远影响,因为AI很可能成为未来世界的控制层。因此,对于AI被允许说/生成什么的争论,将比社交媒体审查更加重要。总的来说,我们应当防止对AI的过度审查,并允许其在符合社会利益的范围内自由发展。 人们对于由于科技发展引发的就业损失恐慌已有数百年历史,其中最为人知的是2000年代的外包恐慌和2010年代的自动化恐慌。然而,虽然总有声音宣称技术将对人类劳动力造成毁灭性打击,但历史上新技术的出现总能带来更多的就业机会和更高的薪资水平。现在,人工智能(AI)的出现再度引发恐慌,有人认为AI会夺走所有的工作。然而,实际上,如果允许AI发展并在整个经济中广泛应用,可能会引发有史以来最为显著和持久的经济繁荣,相应地带来空前的就业和薪资增长。预测自动化会消灭工作的观点往往基于劳动总量谬误,即认为在任何特定时间,经济中需要完成的劳动量是固定的,要么由机器完成,要么由人完成。然而,当技术应用于生产时,我们就能实现生产力增长,进而降低商品和服务的价格,这反过来会增加经济中的需求,推动新的生产创造,以及新产业和新就业的诞生。当我们将视野放大,从个体工人的角度来看,市场会根据工人的边际生产力来设定报酬。在技术化的企业中的工人比传统企业中的工人更有生产力,因此他们能获得更高的薪酬。简而言之,技术可以提高人们的生产力,进而降低商品和服务的价格,同时提高工资。这将推动经济增长和就业增长,同时创造新的就业和新产业。然而,有人可能会认为,这次的AI技术是不同的,它可以取代所有人力劳动。但假设所有人力劳动都被机器取代,那将意味着经济生产力的极速增长,消费者的福利和购买力都将飙升,新的需求将爆炸式增长,创业者将创造新产业、产品和服务,并尽可能快地雇佣人和AI以满足这些需求。即使AI再次取代了这些劳动力,这个周期还会继续,进一步提升消费者福利、经济增长以及就业和工资增长。因此,AI不会消灭工作,也永远不会。将AI抢走工作的担忧与可能引发的财富不平等问题联系起来,这个观点在过去多次被证明是错误的,现在也同样不正确。一项技术的所有者的真正兴趣在于将其产品销售给尽可能多的客户,而不是独占技术。技术的发展和应用,尽管起初可能会被大公司和富人占据,但最终都会普及至全球,让每个人受益。特斯拉的发展就是一个很好的例子:它先制造昂贵的跑车,然后用这笔收入制造更平价的汽车,最终使其产品面向最大可能的市场——全球消费者。埃隆·马斯克,通过向全球销售特斯拉产品,最大化了自己的利润。这样的例子并不仅限于汽车,还有电力、广播、计算机、互联网、移动电话和搜索引擎等技术,制造这些产品的公司都在极力降低价格,让全球的人都能负担得起。现在,AI也在走相同的路,例如微软的Bing和Google的Bard等AI产品的价格不仅低廉,甚至还可以免费使用。这些供应商希望通过扩大市场规模来最大化利润。因此,实际上,技术并没有导致财富集中,相反,技术使个人用户获得权力,捕获大部分产生的价值。只要他们在自由市场中运作,构建AI的公司也会竭力实现这种情况。然而,我们社会中的不平等问题确实存在,但它不是由技术推动的,而是由对新技术抗拒最大、政府干预最多的部分推动的,例如住房、教育和医疗保健等领域。AI并不会导致更多的不平等,反而,如果我们允许使用AI,它可能有助于减少不平等。AI风险的五大疑虑中,我已经解释了前四个并不构成真实威胁:AI不会突然活过来并对人类构成威胁,AI不会破坏我们的社会,AI不会导致大规模失业,AI也不会引发破坏性的社会不平等增加。然而,第五个疑虑,我必须承认,确实有可能成为问题:AI有可能使坏人更易于做坏事。科技,从一开始就被视为工具,它可以被用于好事,比如烹饪食物、建造房屋,同时也可以用于恶事,比如烧伤人或者用石头打人。AI作为一种先进技术,当然可以被用于善事和恶事。坏人,包括犯罪分子、恐怖分子和敌对政府,都可能利用AI来帮助他们更容易地做坏事。这个观点可能会使人产生一种想法,那就是在事情变得太糟糕之前,我们应该停止这个风险,禁止AI。但AI并非某种稀有、深奥的物理材料,例如钚。相反,它是基于最易得到的材料——数学和代码。AI的研究和学习资源已经广泛开放,包括无数的免费在线课程、书籍、论文和视频。优秀的开源实现也在日益增多。AI像空气一样无处不在,试图阻止AI的发展需要施加严酷的极权压迫——比如全球政府监控和控制所有的电脑,或者抓捕违规的显卡——这样的后果我们将失去值得保护的社会。因此,有两种更实际的方式来应对坏人利用AI做坏事的风险。首先,我们的法律已经将许多可能用AI实施的坏事定义为犯罪。例如,入侵五角大楼,从银行偷钱,制造生物武器,实施恐怖行为,这些都是犯罪。我们的工作应该是防止这些犯罪在我们能够防止的时候,当我们无法防止的时候,对犯罪者进行起诉。我们甚至不需要新的法律。如果我们发现了AI的新的坏用途,我们应该立法禁止这个特定的用途。其次,我们应该尽可能地利用AI进行好的、合法的、防御性的工作。使AI在防止坏事发生的过程中发挥出其强大的能力。例如,如果你担心AI生成的假人和假视频,解决方案应该是建立新的系统,让人们可以通过密码签名来验证自己和真实内容,而不是禁止AI。我们也应该让AI在网络防御、生物防御、反恐以及其他我们需要做的所有事情中发挥作用。总的来说,尽管禁止AI看似是保护社会的手段,但真正有效的方法是使用AI去防止AI被坏人用来做坏事。通过这种方式,一个充满AI的世界,将会比我们现在所生活的世界更安全。首先,大型AI公司应被鼓励尽可能快速和积极地发展AI,但不能允许他们通过错误理解AI风险来获得政府的保护,形成卡特尔。其次,创业AI公司也应被鼓励尽可能快速和积极地发展AI,他们不应受到政府保护,也不应接受政府的援助。他们应该公平竞争。 第三,开源AI应被允许自由扩散,与大公司和创业公司竞争。这不仅有助于开放创新,也为希望学习AI的人提供了便利。 第四,政府应与私营部门合作,积极使用AI处理潜在的风险问题,从AI风险到更普遍的问题,如营养不良、疾病和气候问题。 我以两个简单的陈述作为结束。AI的开发始于20世纪40年代,与计算机的发明同时发生。第一篇关于神经网络——我们今天所拥有的AI架构——的科学论文发表于1943年。在过去的80年中,整整一代代的AI科学家诞生,上学,工作,而在很多情况下,他们在没有看到我们现在所获得的成果的情况下离世。他们每一个人都是传奇。 如今,越来越多的工程师——其中很多是年轻人,他们的祖父母甚至曾祖父母可能参与了AI背后理念的创造——正在努力使AI成为现实,他们面临的是一堵恐慌和厄运论者的墙,这些人试图将他们描绘成鲁莽的恶棍。我不认为他们是鲁莽或是恶棍。他们每一个人都是英雄。我和我的团队非常高兴能够支持他们中的尽可能多的人,我们将百分之百地站在他们和他们的工作身边。快来看看 👇️👇
文章引用微信公众号"创业邦",如有侵权,请联系管理员删除!