技术是一把双刃剑,AI 也不例外,至少现在是这样。ChatGPT、Midjourney 等 AI 工具诞生后,有人喜,有人忧。
一方面,一些传统公司将这些 AI 工具应用到公司的实际业务中,实现了降本增效;另一方面,部分人类打工人却因被 AI 工具替代而面临失业的危机。
一个值得关注的新闻是,在刚刚过去的五一劳动节期间,IBM 宣布暂缓可以被 AI 替代的岗位的招聘,而且诸如此类的事件可能越来越多。
那么,随着 AI 变得越来越强大,各种AI 系统也将会被越来越多地服务于各行各业,届时,AI 是将扮演一个“资本的顺从执行者”(capital’s willing executioners),还是可以真正改善人们的生活、实现一个乌托邦式的未来?
近日,华裔美国科幻小说作家Ted Chiang(姜峯楠)在《纽约客》发文,探讨了“AI 是否会成为下一个麦肯锡”的问题这家公司为90% 的 Fortune 100 上榜公司提供服务,被前雇员称为资本公司用来逃避责任的“打手”。
核心观点如下:
每当我们谈论人工智能(AI)时,我们都会使用一些隐喻(metaphor),就像我们在面对新的和不熟悉的事物时所表现的那样。
从本质上讲,隐喻是不完美的,但我们依然需要谨慎地去选择它们,因为糟糕的隐喻会让我们犯错误。例如,我们经常将强大的 AI 比作童话故事中的精灵,用来强调让强大的个体服从你的命令是非常困难的。
计算机科学家 Stuart Russell 则引用了有关 Midas 国王的寓言故事,来说明一个 AI 做你告诉它的事情而非你想要它做的事情的危险性。(Midas 获得了“点石成金”能力,却一度遭遇了巨大的灾难。)
这个隐喻存在很多问题,其中之一是,它从指向的故事中得出了错误的结论。这一寓言的重点是,贪婪之心会毁掉你,一味地追求金钱会让你失去真正重要的东西。如果你对这个寓言的解读是,当你被答允可以实现任何一个愿望时,你应该非常谨慎地说出这一愿望,那你就错了。
因此,我将针对 AI 可能带来的风险提出另一个隐喻:把 AI 类比成一家管理咨询公司,如麦肯锡(McKinsey & Company),其与 90% 的 Fortune 100 上榜公司合作。
像麦肯锡这样的公司会因各种原因被雇用,而 AI 系统也会因各种原因被使用。而且,麦肯锡和 AI 之间的相似点非常明显。社交媒体借助 AI 算法让用户沉迷于其中;类似地,普渡制药(Purdue Pharma)曾在麦肯锡的帮助下大大增加了 OxyContin 在阿片类药物泛滥时的销售额。就像 AI 被认为可以为管理者提供廉价的人类劳动力替代品一样,麦肯锡和其他类似公司也让大规模裁员的现象更加常见。
一名前麦肯锡雇员将这家公司描述为“资本的顺从执行者”(capital’s willing executioners):如果你想做一件事,但不想弄脏自己的手,麦肯锡可以帮助你。(帮你)逃避责任,是管理咨询公司提供的最有价值的服务之一。
老板们想要实现一些目标,但不想因为采取一些必要的行动而受到指责,通过聘请咨询顾问,他们可以反驳说,自己只是听取了来自第三方的专业建议。放眼现在,AI 也成为了他们逃避责任的一种方式,他们说,自己只是做了“算法”建议的事情而已。
我们需要关心的问题是:AI 变得越来越强大,我们有没有办法避免它成为下一个“麦肯锡”?这一问题需要从不同的角度来思考。
如果你认为 AI 是一项被广泛使用的技术,能够帮助公司降低成本,那问题就可以描述为:我们如何防止这一技术被用作为“资本的顺从执行者”?
或者,如果你把 AI 想象成一个半自主的软件程序,解决人类要求它解决的问题,那问题就变成了:如何防止这一软件以让人们生活变得更糟的方式来帮助公司?假设你已经建立了一个完全服从于人类的半自主人工智能,但它依然很容易像麦肯锡那样给社会带来危害。
你不能简单地说,你将建立一个只解决你提出的问题且可以创造积极社会影响的 AI。这就相当于说,你可以通过创办一家只提供这种解决方案的咨询公司且能规避麦肯锡带来的威胁。
但现实情况是,Fortune 100 公司依然会雇用麦肯锡,因为麦肯锡的解决方案能为股东们提供更多利益。建立奉行 “股东利益高于一切” 的 AI 可能永远都是受欢迎的,大多数公司也更愿意使用这种 AI,而不是一个受你的原则约束的 AI。除了成为 “资本的顺从执行者”,AI 还能做些什么?
当前,AI 大多是一种试图分析人类行为并找到取代人类方法的努力。恰巧,这也正是一些管理层希望解决的问题。因此,AI 以牺牲人类劳动者的利益为代价被用来帮助资本。
实际上,真的没有什么比劳动咨询公司更能促进劳动者利益的了。AI 能否扮演这一角色呢?又是否可以做一些有利于劳动者而非管理层的事情?
有人可能会说,反对管理层并不是 AI 要做的工作。这也许是正确的,但 AI 的能力也不是用来强化资本。不幸的是,目前的情况正是如此。如果我们不能想办法让 AI 减少财富集中,就很难说 AI 是一种中立的技术,更无法说它是一种有益的技术了。
很多人认为,AI 会造成更多的失业,并提出了将全民基本收入(UBI)作为解决这个问题的方法。
放在其他情景下,我很喜欢 UBI 这一想法。但是,对于 AI 从业者建议用 UBI 作为解决失业问题的方法,我表示怀疑。如果我们已经有了 UBI ,情况会有所不同,但事实上我们并没有,所以这似乎是他们把责任推给政府的一种方式。
实际上,他们正在加剧资本集中造成的问题,并期望当这些问题变得足够糟糕时,政府将别无选择,只能介入。作为让世界变得更美好的战略,这似乎值得怀疑。
有一种哲学思想是,让事情变得更好的唯一方法是让事情变得更糟。我认为,这是带来一个更好的世界的方法之一,但是,如果这是 AI 行业正在采用的方法,每个人都应该清楚他们正在努力实现什么。
通过建立 AI 系统来完成之前由人类完成的工作,AI 从业者正在将财富的集中度提高到极端水平,以至于避免社会崩溃的唯一方法就是政府介入。
事实上,你不知道这件事需要多长时间才能有好转;你能确定的是,人们会在中短期内遭受巨大的痛苦和折磨。
我不太相信 AI 会因为可能制定自己的目标并阻止我们关闭它而对人类产生威胁的说法。然而,我确实认为 AI 是危险的,因为它增加了一些人的权力。
末日情景并不是像一个著名的思想实验所想象的那样,一个 AI 将整个地球“变成回形针”,而是由 AI 强化的企业在追求股东利益的过程中对社会造成危害。
批评新技术的人有时被称为卢德派(Luddites),他们抗议的主要内容是,在食品价格增加、工厂主利润增加的同时,他们的工资却在下降。他们还抗议不安全的工作条件,以及销售有损整个纺织业信誉的劣质商品。
卢德派并非不加选择地破坏机器,如果他们从工厂主那里获得了很高的工资,就不会去破坏它。他们也不反对新技术,他们想要的是经济上的公正。他们破坏机器是为了引起工厂主的注意。如今,“卢德派”一词被用作侮辱他人、指责其不理性和无知,他们被恶意抹黑了。
每当看到有人指责别人是卢德派时,我们需要认真思考:被指责的人真的反对技术吗?指责他人的人真的认为新技术可以改善人们的生活吗?还是说,他们只是试图增加私人资本的积累呢?
今天,我们发现自己处于这样一种情况中:技术与资本/金钱混淆在一起,而资本/金钱又与进步的概念混淆在一起。如果你试图批评他们,就会被指责反对技术和进步。但是,如果进步不包括改善工人的生活,那它的意义到底是什么呢?如果节省下来的钱只是流向股东的银行账户,那提高效率又有什么意义呢?
我们都应该努力成为卢德派,因为我们应该更关心经济上的公正,而不是私人资本的增加。我们希望能够批评技术的有害使用方式,如有益于股东而有害于工人的方式,而不是被描述为技术的反对者。
一个理想化的未来是,在一百年后,没有人会被迫从事他们不喜欢的工作,每个人都可以用自己认为的最有成就感的方式度过一生。显然,我们还不知道如何从当前走向那个理想化的未来。
然而,在未来几十年内,可能会出现两种情况:一种是,管理和资本力量比现在更加强大;另一种是,劳动力比现在更加强大。哪一种情况更有可能让我们更接近那个理想化的未来?而就当前的情况而言,AI 在帮助我们朝着哪个方向前进?
当然,有一种说法是,从长远来看,新技术提高了我们的生活水平,弥补了它在短期内造成失业的负面影响。这一说法在工业革命后的大部分时期内都很有说服力,但在过去的半个世纪中,就不太令人信服了
在美国,人均 GDP 自 1980 年以来几乎翻了一倍,而家庭收入的中位数却没有跟上这一增长趋势。而这一时期正好发生了信息技术革命。这意味着个人电脑和互联网创造的经济价值大多流向了最顶层的富人群体,而并非提高美国公民的整体生活水平。
当然,如今有数以亿计的人都能够使用互联网,而且这一技术确实令人惊叹。但房地产价格、大学学费和医疗保健费用的增长速度却超过了通货膨胀。在 1980 年,一个家庭靠一份收入来养家糊口是很常见的,而现在已经很少见了。那么,在过去的四十年里,我们到底取得了多大的进步?
当然,网上购物快捷方便,在家中观看流媒体电影也很酷,但我认为很多人愿意为了拥有自己的房子、送孩子上大学而不欠下终身债务,去医院看病而不陷入破产危机而放弃这些便利。
收入中位数没有跟上人均 GDP 的增长速度,不是技术的错,而是 Milton Friedman 等人的错,以及像前通用电气首席执行官 Jack Welch 等人和麦肯锡这样的咨询公司的管理政策。
我并非把财富不平等的加剧归咎于个人电脑的产生,我只是说,“更好的技术必然会提高人们的生活水平” 的说法已不再令人信服。
在讨论 AI 可能带来的好处时,个人电脑没有提高收入中位数这一事实尤为重要。人们经常建议,研究人员应该专注于 AI 如何提高个体工人的生产力,而不是取代他们;这被称为增强路径,而不是自动化路径。这是一个值得追求的目标,但仅凭此目标并不能改善人们的经济状况。
一个在个人电脑上运行的生产力软件是增强而非自动化的典型例子是:文字处理程序取代了打字机而不是打字员,电子表格程序取代了纸质电子表格而不是会计师。但是,个人电脑所带来的个人生产力的提高并没有与生活水平的提高相匹配。
技术能够提高生活水平的唯一途径是,有适当的经济政策来分配技术的好处。在过去的四十年中,我们没有这些政策,除非我们能够得到这些政策,否则没有理由认为即将到来的 AI 进步将提高收入中位数,即使我们能够为它设计出增强个体工人能力的方法。AI 肯定会降低劳动力成本,增加企业的利润,但这与改善我们的生活水平完全不同。
假设一个乌托邦式的未来就在眼前,而且我们已经开发出了在那个未来使用的技术。但是,某项技术在乌托邦中有用并不意味着它现在就有用。在一个能将有毒废物转化为食物的乌托邦中,产生有毒废物将不再是一个环境问题,但在当下,没有人可以说产生有毒废物是无害的。
一些人可能会说,产生更多的有毒废物将加速废物转化为食物的发明的诞生,但这一观点有多大的说服力呢?我们在评估技术的环境影响时,要考虑当前可用的减缓措施,而不是未来的减缓措施。
同样地,我们不能通过想象 AI 在全民基本收入普及的世界中会有多大帮助来评估它;我们必须根据资本与劳动之间现存的不平衡来评估它,在这种情况下,AI 是一种威胁,因为它成为了 “资本的顺从执行者”。
一位前麦肯锡合伙人为该公司的行动辩护说:“我们不参与政策制定,我们只负责执行。”但这是一个显得十分苍白的借口;当咨询公司或新技术提供执行方法时,更有可能做出有害的政策决定。
当前正在开发的一些 AI 系统会让公司有更多的裁员,有没有可能开发一种使裁员变得更困难的 AI 呢?要么增加政府监管,要么赋予工会或工人更多权力。
1976 年,英国伯明翰的 Lucas Aerospace 公司的工人面临因国防开支削减而被解雇的困境。作为回应,车间工会代表们制定了一份被称为“Lucas Plan”的文件,描述了透析机、风力涡轮机和混合动力汽车发动机等 150 种“对社会有用的产品”,这些产品可以利用那时的技能和设备由工人来生产。尽管 Lucas Aerospace 的管理层最终拒绝了这个提议,但它仍然是一个工人试图将资本主义引向更人性化方向的著名案例。当然,类似的事情在现代计算技术中也一定是可能的。
作为个人,你能做些什么?如果你在 Frito-Lay 公司担任食品科学家,而你的工作任务是发明新口味的土豆片,我不会说你有道德义务辞职,因为你在推动消费主义。你在运用作为食品科学家的专业知识为顾客提供愉悦的体验,这是一种完全合理的谋生方式。
但是,许多从事 AI 工作的人认为,AI 比发明新薯片口味更重要。他们称其为一项能够改变世界的技术。如果是这样,那么他们有责任找到让 AI 在不先让世界变得更糟的情况下改善世界的方法。除了将我们推向社会崩溃的边缘,AI 可以改善我们世界的不公平现象吗?如果 AI 像其支持者声称的那样是一个强大的工具,除了加剧资本聚集之外,他们应该能够找到其他用途。
如果说我们应该从有关精灵的童话故事中吸取什么教训的话,那就是不努力就想得到某些东西的愿望才是真正的问题。
想想《魔法师的学徒》的故事,学徒施法让扫帚运水,但无法让它们停下来。这个故事的教训并不是说魔法是无法控制的:在故事的结尾,巫师回来后立即摆平了学徒所造成的混乱。真正的教训是,你不能逃避做艰苦的工作。学徒想逃避他的杂务,而寻找捷径就是让他陷入困境的原因。
将 AI 视为一个“神奇的问题解决者”的倾向表明,人们想要逃避建设一个更好的世界所需的艰苦工作。这项艰苦的工作将涉及解决财富不平等和驯服资本主义等问题。
对于技术专家来说,最艰难的工作他们最想避免的任务将是质疑更多的技术总是更好的假设,以及他们可以继续照常工作,一切都会自行解决的信念。
没有人喜欢思考自己在世界不公正中的责任,但对于那些正在构建颠覆性技术的人们来说,进行这种关键的自我审视是必要的。他们是否愿意坚定地审视自己在系统中的角色,将决定 AI 是催生一个更好的世界,还是一个更坏的世界。
本文内容由互联网用户自发贡献,该文观点仅代表作者本人。如发现本站有涉嫌抄袭侵权/违法违规的内容,请发送邮件至 3587015498@qq.com 举报,一经查实,本站将立刻删除。本文链接:https://www.xmnhj.com/h/160654.html