划重点:
当前人工智能热潮中最引人注目的人物当属OpenAI的首席执行官山姆·奥特曼(Sam Altman)。《时代周刊》前主编爱德华·费尔森塔尔(Edward Felsenthal)日前对奥特曼进行了专访。
这位38岁的连续创业的企业家最近因谈论人工智能的风险而闻名,但重点是人工智能所带来风险的可能性。这种能够对人类的口头命令做出自然反应的新技术具有革命性,奥特曼甚至为它设想了应用场景--最终像电影《星际迷航》(Star Trek)一样。
奥特曼的公司OpenAI成立只有7年时间,目前的员工还不到500人。在OpenAI位于旧金山教会区的总部的通风、光线充足的大厅里,通过管道传递一些长笛和鲸鱼的声音,它几乎会被误认为是一个水疗中心。但在6个月的时间里,该公司通过其病毒式产品ChatGPT,将人工智能带入公众的视野。几乎没有人质疑OpenAI是这场革命的先锋。最终,这场革命将改变世界,不管是好是坏,两者都有可能。
被采用速度最快的产品
几乎可以肯定的是,ChatGPT是科技史上被采用速度最快的产品。它也是功能更丰富的产品之一,能够响应大量的用户提示,从“给我讲个笑话”到“起草10张幻灯片,提出增加发廊收入的想法。”它可以写诗,解释科学概念。奥特曼说,他如今用ChatGPT来完成日常任务,比如从他众多的电子邮件收件箱中提取主要邮件,或者“起草一条我很难处理的推文。”本质上,ChatGPT是一个超级强大的自动完成工具,但它有其局限性,包括令人不安的无法区分真实和虚构。OpenAI关于这一点的警告放在文本输入框的下面,并没有阻止人们使用它完成作业、投资建议,甚至是治疗。
面向消费者的人工智能产品之前已经上市,但ChatGPT的文本对话界面引起了轰动。在2022年11月30日发布之后的几天里,OpenAI的员工被粘在他们的电脑屏幕上。随着使用数量的增加,他们在公司的Slack频道上发布不断增加的用户数据。OpenAI的人力副总裁黛安·尹(Diane Yoon)说:“它只是以越来越陡的角度不断上升。”根据Similarweb的数据,两个月后,ChatGPT的独立访问用户数量超过了1亿。相比较而言,Instagram用了30个月才达到这个水平。
引发科技巨头的军备竞赛
这也引发了一场军备竞赛。随后,谷歌发布内部“红色警报”,并将旗下两个人工智能实验室--Google Brain和DeepMind--合并为一家公司。已对OpenAI投资30亿美元的微软,随后又追加了100亿美元投资。今年3月,OpenAI再次加大赌注,发布了一款名为GPT-4的更强大的工具。
磨炼所有的承诺,才是真正的恐惧。毫无疑问,人工智能会像其他的新型技术一样,即使能够创造出新的工作岗位,也会让更多的工作消失。这也增强了坏人的能力,让他们用伪装成真相的虚假内容和听起来像我们所爱的人的虚假声音来淹没我们。我们能相信自己看到或听到的吗?奥特曼承认,令人不安的事实是,答案可能是否定的。“你不能再相信自己在电话里听到的声音,”他说。“我们只是需要开始告诉人们这一天即将到来。”
如果落入坏人之手,这些工具可能会引发更严重的问题,发动网络攻击或给金融市场带来灾难。如果人工智能能够自己制定计划并付诸行动--特别是如果这些计划与人类价值观不“一致”--那么可以想象它们会认为人类是实现目标的障碍。奥特曼本人最近加入了数十名科技领袖和科学家的行列,签署了一份声明,将人工智能的发展视为与流行病和核战争同等的风险。他在今年初曾表示,最糟糕的情况是“所有人都消亡”。
这已经成为奥特曼的名片,在倡导人工智能可能性的同时,敦促政策制定者制定规则来减轻危险。“我是中西部的犹太人,”在圣路易斯长大的奥特曼说。“我认为这充分解释了我的确切心理模型--非常乐观,并为任何时候事情变得超级糟糕做好了准备。”奥特曼的成功来自于调整自己适应全新环境的能力。在他的职业生涯中,适应性是引导他在20多岁和30多岁时获得巨额财富的一部分。他作为合伙人帮助创办了数千家新公司,后来成为知名创业加速器Y Combinator的总裁。这也让奥特曼相信,作为一个物种,人类可以避免人工智能可能带来的最坏情况。“社会能够适应,因为人类比许多所谓的专家想象的要聪明和精明得多,”他说。“我们可以做到这一点。”
倡导普世基本收入计划
在强调人工智能风险的同时,奥特曼认为无论如何都要勇往直前。他是人工智能监管的直言不讳的倡导者,对于哪些应该适用于他的公司,他有自己的看法。他是一位公开的资本主义者,他说他在OpenAI中没有股份,构建他的公司以限制投资者的利润;因为许多人认为人工智能会加剧不平等,奥特曼还倡导用普世的基本收入计划来缓和不平等。尽管他和他的同事承认他们对技术将如何发展的洞察力有限,但他表示相信这些模型有能力不断改进。
OpenAI董事会成员海伦·托勒(Helen Toner)说:“甚至创造它们的人也不知道它们能做什么,不能做什么。我预计,我们真正了解GPT-4能做和不能做的所有事情可能还需要几年时间。”
我们能够在多大程度上信任正在“调整”这些强大的机器算法的人类--包括他们的意图和能力--将是未来几年反复出现的重大问题之一。在与OpenAI各部门员工的交谈中,对人工智能危险的认识几乎是一个普遍的话题。这与烟草、化石燃料和社交媒体高管的剧本大相径庭,他们花了数年时间否认可能的危害,但最终被迫承认现实。
OpenAI的人力副总裁黛安·尹表示,OpenAI没有使用“竞争对手”这个词,这是对在该领域与他人合作以避免不良结果的重要性的肯定。当被问及人工智能军备竞赛时,公司发言人反对这一比喻,称“整个军备竞赛不是由我们引发的。”
当然,很难否认OpenAI在引发行业发展中没有发挥重要作用。“这是一场竞赛,”人道技术中心(the Center for Humane Technology)的联合创始人、伦理学家特里斯坦·哈里斯(Tristan Harris)说,但主要参与者之间的合作将是关键。“我们需要协调,因为这不是为了让OpenAI更加安全。这不会有任何作用,因为其他人只会发展的越来越快。”哈里斯担心“能力的进步是指数级的,安全措施的进步是线性的”,并担心“推出人工智能服务是出于商业动机,而不是对我们希望看到的世界的有意识的考虑。”
奥特曼认为,ChatGPT界面比iPhone界面简单是一种进步,并表示这是受他小时候喜欢发短信的启发。奥特曼说,给ChatGPT起一个“可怕的”机器人名字是经过深思熟虑的;他担心将人工智能工具拟人化的诱惑,这可能会削弱人类和机器之间的区别。这是另一个二元性:ChatGPT被训练来提醒用户它没有自己的观点。然而,ChatGPT的人性化特质--它的对话界面,它对第一人称代词的自由使用--是让它迅速走红的关键因素。
尽管微软进行了大量投资,并转向了一种盈利模式,即使有上限,也能获得100倍的回报,但OpenAI仍然认为自己是一个研究实验室,致力于确保通用人工智能“造福全人类”的最初使命。公司的文化就是由它定义的。OpenAI首席运营官布拉德·莱特卡普(Brad Lightcap)表示:“如果这个项目在60、70年前开始,可能会是政府资助的项目。”
据报道,OpenAI去年的营收约为2800万美元,还不到一般汽车经销商收入的一半。但是奥特曼说,他并没有立即感受到将公司的商业成功提升到与其影响力水平相当的压力。当被问及他花了多少时间担心竞争时,他说,“你不会相信我,但几乎没有。”他说,让他夜不能寐的不是来自谷歌的LaMDA、Meta的LLaMA和Anthropic的Claude等语言模型的激烈竞争。“这与谁获得更多或更少的市场份额是完全不同的,”奥特曼说。“我们必须想出如何管理这件事,并让它顺利进行。”
跨越六大洲的闪电旅行
在《时代周刊》对奥特曼进行专访后不久,开始了跨越六大洲的为期五周的闪电旅行。他说,这次旅行的目的是让他走出硅谷的办公室。从某种程度上说,这也是一次胜利之旅--随着民族国家意识到他所引领的技术的力量,这也是鼓励和影响全球人工智能监管的一次尝试。在访问期间,奥特曼在美国参议院发表了讲话,会见了英国和印度总理,就即将出台的欧盟人工智能法案发表了意见。
5月24日,奥特曼在伦敦一所大学的报告厅演讲。排队的人群沿着马路蜿蜒向前,绕过一个拐角。演讲结束后,奥特曼没有消失在后台,而是跳进人群中,被学生和记者包围。他摆出自拍姿势,勇敢地回答问题。穿过旋转门后,他与抗议者进行了短暂的讨论。其中一人举着一个牌子,上面写着“停止自杀式AGI竞赛”。在奥特曼的身旁,并没有看到保镖或公关人员的身影,这与马克·扎克伯格(Mark Zuckerberg)等人的做法截然不同。
就像在他之前的科技公司一样,奥特曼所说的和幕后发生的事情之间有一些共同点。在伦敦的活动中,奥特曼告诉记者,由于欧盟即将出台人工智能法案,OpenAI可能会决定在欧盟“停止运营”。在去年与欧盟官员的一次会议上,OpenAI反驳了要求ChatGPT等“通用”人工智能模型遵守与被欧盟视为“高风险”的人工智能工具相同的规则的措辞。
在《时代周刊》的专访中,奥特曼对社会适应人工智能风险的最终能力深表乐观。例如,为了确保你在电话上听到或在视频上看到的人是他们所说的人,他预见将使用技术和社会举措的混合方式,如验证身份的密码或密钥。他看到人工智能最终完成大量占据我们日常生活的常规任务的前景,同时努力应对“发现癌症的治疗方法”等提示。奥特曼说:“激动人心的部分几乎太长了,无法一一列举。”
奥特曼也思考了OpenAI在创建ChatGPT时是否做了“一些非常糟糕的事情”。长期以来,奥特曼一直被报道是一个末日预言者--随时准备着枪支、药品和防毒面具。他翻了翻白眼,认为这种描述有些夸张,但他补充说,他确实觉得生存主义是“一种有趣的爱好”。“听着,如果AGI出了问题,没有任何掩体能帮助任何人,”他说。“可怕的是,把这个杠杆放到这个世界上,肯定会产生不可预测的后果。”
以下是《时代周刊》前主编爱德华·费尔森塔尔(Edward Felsenthal)对奥特曼专访的全文:
问:你在日常生活中用ChatGPT做什么?
答:我每天用它做的一件事是帮助归纳。我真的不能再继续关注我的收件箱了,但是我做了一件小事来帮助它为我总结,并从未知发件人那里提取重要的内容,这非常有帮助。我每天早上都把它贴在那里。我用它为下周要见的人翻译了一篇文章,为此做准备。这是一件有趣的事情,我用它来帮我起草一条我很难理解的推文。
问:ChatGPT发布后获得全球用户的追捧,你对此感到惊讶吗?
答:我们认为它会让人们兴奋,许多人确实已经对这项技术非常兴奋了。所以从某种意义上来说,就像是,“哇,这些数字快疯了。这看起来很疯狂。”但我记得第一周的很多讨论是,为什么以前没有发生这种情况?
问:其他的人工智能产品之前已经出现了。
答:我认为用户体验非常重要。不仅仅是用户界面,还有我们调整模型的方式,使之具有特定的对话风格。它很大程度上是受短信的启发。我很早以前就是用短信,也是短信的超级用户。
问:随着技术更深入地融入我们的生活,未来的界面会是什么样子?
答:你可以用双向语音来做到这一点,而且感觉是即时的。你将能够像两个人一样交谈,那将是非常强大的。你可以(最终)想象一个世界,就像你所说的那样,它就像《星际迷航》中的全息甲板。但我认为最重要的是,你想发生的事情有多少能从相对少量的对话中发生。随着这些模型更好地了解你,并且有能力做更多的事情,你真的可以想象一个世界,在那里你与模型进行相当简单和简短的对话,然后大量的事情会以你的名义完成。
问:是通过我们的手机还是无处不在?
答:我觉得它无处不在,一下子就会这样。现在,人们仍然处于说“我是一家人工智能公司”的阶段。但很快,我们就会期望我们使用的所有产品和服务都融入一些智能,就像今天的移动应用一样。
问:你把这项技术描述为对人类生存的最大威胁和人类最大的潜在进步。
答:毫无疑问,这项技术最令人困惑的地方之一就是它的整体能力--既有好的一面,也有潜在的坏的一面。我认为我们可以做很多事情来最大化好的方面,管理和减轻坏的方面,但可怕的是,把这个杠杆放到世界上肯定会有不可预知的后果。令人兴奋的部分几乎太长了,无法一一列举,但我认为这正在改变人们的工作方式。它正在改变人们的学习方式。它将改变人们与世界互动的方式。从深层次上来说,人工智能是这个世界,也是人们一直想要的技术。科幻已经谈论人工智能许久了。
问:作为父母,想想看,有一件事似乎很可怕,那就是我们怎么知道我们的孩子真的是我们的孩子。你接到一个电话称:“我需要钱,我需要帮助。”
答:这将是一个真正的问题,而且很快就会成为一个真正的问题。这不仅仅是作为父母,也是考虑到我们自己的父母,他们已经不成比例地成为这些勒索电话的受害者。我想我们都需要开始告诉人们这一天即将到来。你不能再相信电话里听到的声音了。社会能够适应,因为人们比我认为许多所谓的专家所认为的要聪明和精明得多。
问:我需要和我的孩子说暗语吗?
答:我认为这将是许多解决方案的叠加。人们会用视频来验证暗语。这可能会在一段时间起到作用。技术解决方案会有所帮助。人们也会交换密钥和许多其他想法。我们只是需要一个技术和社会解决方案的组合,以不同的方式运作。我很担心,但我们会适应的。我们很擅长这个。
问:埃里克·施密特(Eric Schmidt)和乔纳森·海特(Jonathan Haidt)认为,人工智能将使我们在社交媒体方面的问题变得更糟。你担心吗?
答:我认为社交媒体现在处于一个非常不稳定的时期,我当然对此感到紧张。我也能看到人工智能让它变得更好的许多方法。我认为这些事情很难预测。
问:你说过人工智能最糟糕的情况是所有人都消亡?
答:我们能够管理好人工智能,我对此非常有信心。但如果我们对风险不是非常警惕,如果不坦率地谈论它可能会变得多么糟糕,我们就不会成功地管理它。
问:过去有报道称你是末日预言家。
答:如果生成式人工智能(AGI)出现了问题,任何掩体都帮不了任何人。所以我认为它被夸张地讽刺了。我确实认为生存主义是一个有趣的爱好。有趣的是,在疫情早期,很多人都认为,“也许这是个好主意。”但是我并没有在这上面花费太多的时间和精力。我认为AGI会发展得非常好。我认为确实存在我们必须应对的风险,但我认为碉堡与此无关。
我是一个中西部的犹太人,我认为这充分解释了我确切的心理模型,非常乐观,并为任何时候事情变得超级糟糕做好了准备。
问:公众为什么要信赖像OpenAI这种以营利为目的的公司?
答:首先,我们不是一家以营利为目的的公司。我们是一个非营利组织,拥有一家有利润上限的子公司。我们认真思考并设计了一种结构,在这种结构中,我们的非营利组织对有利润上限的子公司拥有完全的控制权和治理权,可以为其投资者和员工赚一定的钱,让我们做我们需要做的事情。开发这些模型的代价却是非常高昂。
问:设置利润封底还是要盈利的。
答:当然可以。而且我也不觉得盈利不好。我非常赞成资本主义。我认为这是我们迄今为止发明的最不坏的系统。所以我完全赞同人们从中获利。我觉得这很好。我只是认为这项技术的发展需要一个不同于普通的激励系统。
问:你能提供一些你认为政府在管理人工智能方面的角色的细节吗?
答:我认为我们需要对超过一定功率阈值的模型进行监管。我们可以用能力来定义,这是最好的。或者我们可以用创建模型的计算能力来定义它,这是最简单的,但我认为并不完美。我认为像那样的模型需要向政府报告。它们应该受到政府的监管,应该由外部组织进行审计,应该被要求通过一些安全问题的评估。这将是一个非常好的政策。我希望这在某个时候会成为全球性的。
问:你谈到了一个全球性的机构,我们需要一个监督委员会,就像我们看待原子能那样。
答:是的。我不是这方面的专家。此外,你应该对任何要求自己监管的公司持怀疑态度。但我认为我们呼吁的是对我们影响最大的东西。我们说你必须对边境的人进行最严格的管理。但我认为这些系统已经非常强大,并将变得更加强大。我们以前曾作为一个全球社区走到一起,寻求非常强大的技术,这些技术带来了巨大的风险,为了获得巨大的好处,我们必须克服这些风险。
问:其他具体建议?
答:有一些小的短期的事情,我认为希望是没有争议的。我认为所有生成的内容都应该被标记为已生成。事实上,我们甚至不能就此达成一致,这似乎是一个失误。我还可以谈谈我认为在短期内有好处的其他细节。但是,我认为这个世界真正需要的是,在非常强大的训练硬件上进行类似国际原子能机构的国际协调,这需要一段时间,而且非常重要。人工智能倡导者需要开始倡导这一点。自国际原子能机构以来,这种情况还没有真正以有意义的方式出现过。
问:你认为在美国可以做些什么?
答:我认为我们肯定可以完成短期人工智能监管。让我们这样识别所有生成的内容。让我们要求对这些系统的安全标准进行独立审计。我认为这是可行的。我有点乐观地认为,长期合作也是可行的。
问:最近有报道称,OpenAI的合作伙伴微软和谷歌已经在欧盟游说,希望一些规定不适用于通用人工智能。我们如何确保法规在发生时是全面和真实的?
答:我们有责任辅导政策制定者和公众我们认为正在发生的事情,我们认为可能会发生的事情,并把技术推向世界,让人们可以看到它。我们认为部署ChatGPT这样的东西对我们的使命非常重要,这样人们可以获得一些经验,感受这些系统的能力和局限性。我们的机构和社会的作用是找出我们的社会想要什么。
问:你支持普世基本收入,并表示担心人工智能将加深世界上已经严重的不平等。但你也对我说,你认为在我们有(实现这一目标的)政治意愿之前,还有很长的路要走。
答:我希望人工智能可以减少不平等,更重要的是,我希望它可以大幅提升人们的整体收入。如果没有人陷入贫困,如果每个人的生活都在逐年改善,如果我们真的能够大幅提高人们的生活水平,我对这个世界上有身价万亿的富豪没有意见。我意识到不是每个人都同意这一点。但我认为人工智能非常自然,我们在我们都经历过的这场漫长的技术革命中一次又一次地看到了这一点,它将大幅提升人们的平均收入。
问:现在的你和ChatGPT发布前的你有什么不同吗?
答:忙得不可开交,真不容易。我也有很多人的焦虑投射到我身上,这也很难,但我一直认为你可以通过你能适应的东西来给自己惊喜。人类的适应能力令人难以置信。所以这感觉就像是新的常态。除了太多的电子邮件,我已经习惯了其他的一切。
问:我们做错了什么?
答:我认为人们在框架中犯的一个错误是,这是一种工具还是一种生物?甚至那些知道它是一种工具的人,因为它很容易被拟人化,陷入了过度的创作中。我认为这是个错误。我认为这会导致错误的想法。这是一个工具。
问:然而,真正的政策到位需要数年时间。
答:确实是这样。我过去每年都要为此去几次华盛顿。那里的政客都非常友好。他们对你微笑,说:“哦,是的,这个人工智能的事情,可能很重要。”但他们并不在乎。我们相信这一策略的原因之一是,对于人们来说,认真对待它,真正参与它,理解它,仅仅告诉他们是不够的。你必须向人们展示,人们需要自己使用这项技术,了解它的局限性、好处和风险。对话真的需要现在就开始,因为解决这个问题需要一段时间,但每个政府现在都在认真关注。
问:你在几年前的摩尔定律文章中写道,这将极大地加速不平等,你谈到了以某种形式重新分配收入的必要性。什么时候?公司已经从人工智能中赚了大钱。知道这应该何时发生的标志是什么?
答:有趣的是,当我写那篇文章的时候,我就被批评了。“你疯了,这种东西没有任何意义。完全不可能。”现在这些人又说:“你做得还不够。我们需要马上做这件事。我们需要把这些东西放在适当的位置。”我的感觉是,我们还需要很多年,我不知道需要多少年,但至少需要很多年,人工智能才能影响经济,我们需要并且在政治上有能力完成这样的事情。但我不认为我们还有几十年的时间。
我仍然希望基本收入能够出现。我认为这只是一个好的政策,但现在看起来在政治上不可行。
问:在生成人工智能的早期,我们听到每个人都在用社交媒体做类比。你觉得呢?
答:其实两者完全不同。就我们必须如何思考它而言,这种类比更接近于核材料或合成生物学。社交媒体有很强的社会效应。一个人在没有人倾听的情况下使用社交媒体,对世界的影响极其有限。但是一个拥有核材料的人或者一个制造病原体的人可能会对世界产生巨大的影响。现在,一个人也可以做很多好事;一个人可以治愈癌症或者一小部分人可以治愈癌症。(但)这不是一种天生的社交体验。
问:六个月后,一年后会发生什么?
答:会有很多事情发生。我们会在某个时候把图像、音频和视频放进去,模型会变得更智能。但是我认为人们真正值得高兴的是现在,如果你尝试一件事情1万次,并从1万个答案中选出最好的一个,这对大多数问题来说都很好,但不是所有其他的问题。GPT-4在大多数时候拥有知识,但你并不总是得到它的最佳答案。我们怎样才能在任何时候都给你最好的答案呢?如果我们能搞清楚这一点,这就像一个开放的研究难题,这将是一件大事。
问:你曾谈到经济可能会放缓。
答:这是百分之百的事情。
问:在微软投资之后,OpenAI的估值已经大幅飙升?开启营收引擎模式给你带来了什么样的压力?
答:不太多。我们是一家专注于自身使命的公司。
问:OpenAI是否会专注于营收?
答:我想会。但是我们的营收不会像其他人想的那么多。我们的营收增速会比本来的模样慢得多。
问:当前对人工智能领域和初创公司的投资爆炸式增长给你带来了什么压力?
答:你可能不会相信我的,但几乎没有。我至少多年来一直坚持这么说。这和其他任何东西都不一样。社会将会发生根本性的变化。这与谁获得多一点或少一点的市场份额是完全不同的。我们必须想办法解决这个问题,让事情进展顺利。(无忌)
注:本文经授权转载腾讯科技公众号,如需转载,请联系对方授权!
文章引用微信公众号"AI科技大本营",如有侵权,请联系管理员删除!