文丨穆斯塔法·苏莱曼(DeepMind联合创始人、微软人工智能CEO) 迈克尔·巴斯卡尔( 作家、数字出版人、咨询顾问和企业家 )(本文节选自作者新书《浪潮将至:技术、权力与未来的冲击》。界面新闻获授权刊发。)人类的历史就是一部灾难史在某种程度上,人类的历史就是一部灾难史。大流行病广泛存在。其中有两场大流行病曾导致世界上多达30%的人口死亡:6世纪的查士丁尼瘟疫和14世纪的黑死病。1300年,英格兰的人口约为700万,但到了1450年,由于瘟疫的肆虐,人口锐减到仅剩200万。当然,灾难也可能是人为造成的。一战和二战分别导致全球约1%和3%的人口死亡。随着原子弹的出现,人类现在拥有了足以多次毁灭地球上所有生命的致命力量。过去需要数年甚至数十年才可能发生的灾难性事件,现在只需按下按钮,便可在几分钟内发生。随着新的技术浪潮逼近,我们又朝着潜在的灾难迈出了一大步。风险的上限显著提升,同时,那些企图释放灾难性力量的人所拥有的途径也大幅增加。我们将从国家的脆弱性和国家职能所面临的威胁出发,展开更广泛的讨论,并进一步设想:在技术遏制无法实现的情况下,人类世界迟早会发生什么。这些技术中的绝大多数都将用于有益目的。虽然它们的风险是我讨论的焦点,但我们必须记住,这些技术也将日复一日地改善无数人的生活。我们探讨的是几乎没人愿意看到的极端情况,尤其是开发这些工具的人所不愿看到的。然而,即使这些情况仅代表极罕见的应用案例,我们也不能忽视它们。在新的技术浪潮下,不法分子有可能造成严重破坏,引发大规模的不稳定。请想象一下,当任何一个具备一定能力的实验室或黑客都能合成复杂的DNA链时,我们离灾难性事件还有多远?最终,随着史上最具影响力的技术渗入我们生活的方方面面,极端情况的发生概率也将大幅提升。一定会出现一些问题,其严峻程度和扩散速度都将与技术所蕴含的巨大能力相当。新技术浪潮的4个特征预示着,如果不在各个层面采取强有力的遏制措施,那么像人为策划的流行病这样的灾难性后果将比以往任何时候都更可能发生。这是不可接受的。然而,这里存在一个困境:人们同样难以接受那些最为稳妥的技术遏制方案,因为它们可能会将我们引向专制主义和反乌托邦的道路。一种可能性是,社会转向技术驱动的全面监控模式。这种强制执行的机制,旨在应对那些难以控制或根本不受控制的技术。这是以牺牲自由为代价来换取安全。另一种可能性是,人们选择彻底远离技术前沿。这种情况不大可能发生,而且这显然并非我们所寻求的解决方案。从理论上讲,能够应对这一关乎人类未来命运的困境的唯一实体,正是民族国家体系。我们需要它来遏制技术力量,而这一体系正在这些技术力量的冲击下面临崩塌的风险。随着时间的推移,这些技术的影响将迫使人类在灾难与反乌托邦的两种极端之间探寻一条中间道路。这已成为我们这个时代的根本性困境。关于即将到来的技术浪潮所带来的风险,人工智能领域的隐患尤其引人关注,而其风险仍在不断攀升。一旦军队实现全面自动化,冲突的发生门槛将会显著降低。战争可能因某些永远难以明确的原因而意外触发,人工智能系统在检测到特定行为模式或威胁时,可能会立即以势不可当的力量做出反应。可以说,这样的战争将呈现出一种完全陌生的性质,它容易迅速升级,并带来前所未有的毁灭性后果。正是基于这样的逻辑,我常听到这类声音:“通用人工智能是人类所面临的最大风险!它将毁灭世界!”然而,当被追问那将是怎样的场景,那一切将如何发生、有多么危险时,人们开始回避,给出含糊不清的回答。他们认为,人工智能可能会占用所有计算资源,将整个世界变成一台庞大的计算机;随着人工智能不断增强,必须认真思考和减轻那些最极端情况的影响。然而,在我们能够做到这些之前,很多问题可能已经发生。在未来10年里,人工智能将成为历史上最强大的力量放大器。这就是为什么它将引发大规模的权力重新分配。它将成为人类进步的最大加速器,但也将为战争和事故、恐怖组织、专制政府、权力过度扩张的公司以及公然盗窃和故意破坏等危害行为提供助力。设想一个能够轻松通过现代图灵测试却用于灾难性目的的通用人工智能。先进的人工智能和合成生物学技术不仅能为那些致力于寻找新能源或研发改善生命的药物的组织所用,也可能成为像特德·卡钦斯基这样的恐怖分子的工具。人工智能既极具价值,又充满危险,因为它正是人性的最好与最坏方面的延伸。作为一种基于学习的技术,它能够持续适应、不断探索,生成全新的策略与见解,这些可能远远超出以往的人工智能的考虑范围。无论是要求它提出切断淡水供应的方法、让股市崩溃、触发核战争,还是设计出终极病毒,它都能做到。相较于设想的巨型回形针场景或奇异的科技恶魔,我更担忧的是在未来10年内,人工智能将会放大哪些现有的力量。如果未能遏制即将到来的技术浪潮,灾难的降临就是迟早的事。一种自我强化的“人工智能专政”阻止灾难发生显然是紧迫之事。灾难越大,利害关系越大,对对策的需求也越大。如果灾难的威胁变得过于严峻,那么政府可能会得出结论,即阻止灾难的唯一方法是严格控制技术的各个方面。这将确保没有任何东西逃过安全警戒线,没有任何失控的人工智能或人造病毒能够被制造、被泄漏,甚至被研究。技术已渗透到我们文明的方方面面,因此,监控技术就意味着监控一切。每个实验室、工厂、服务器,每段新代码,每串合成的DNA,每个企业和大学,每个隐匿在森林小屋中的生物黑客,每个庞大的匿名数据中心,无一例外。面对即将到来的技术浪潮所带来的前所未有的复杂局面,为了遏制潜在的灾难,我们必须采取前所未有的应对措施。这不仅要求对一切进行严密监控,还需要保留在必要时制止一切的能力。一定会有人提出这样的观点:我们应该让权力集中到极端程度,构建全景式的监控体系,对人类生活的方方面面做出细致安排,以确保大流行病或人工智能失控等情况永远不会发生。许多国家会逐渐说服自己,真正实现这一目标的唯一途径就是实施我们在上一章中所描述的那种全面监控,即由强大技术支持的全面控制。这无疑打开了通往反乌托邦世界的大门。事实上,面对潜在的灾难,对某些人而言,反乌托邦的结果可能会被视为一种解脱。这些提议目前仍处于边缘地位,特别是在西方社会。然而,在我看来,它们受到更广泛的关注只是时间问题。即将到来的技术浪潮为反乌托邦式的统治提供了动机和手段,即在稳步增加的数据搜集和强制措施的支持下,形成一种自我强化的“人工智能专政”。只要出现巨大的灾难,人们就会呼吁建立极端的监控设施,以防未来再次发生类似事件。当技术出现问题时,技术限制和打压措施会在多久后出现呢?在可能面临灾难的压力下,谁又能有效地反对这些措施呢?监控式的反乌托邦机制会在多久后生根发芽,并进一步扩散和深化呢?随着局部的技术失败案例不断累积,加强控制的呼声也会越来越高。而随着控制的加强,权力的制衡往往会被削弱,这将改变总体的社会趋势,为进一步的权力干预铺平道路。最终,社会将逐渐进入技术反乌托邦状态。自由与安全之间的权衡是一个古老的两难困境。我认为,一个完全透明且基于精细监控的压制性社会,不过是另一种失败形态。在这种情境下,即将到来的技术浪潮不会将人类引向繁荣,而是引向繁荣的反面。每一项强制性的、带有偏见和不公平的技术应用都将被肆意放大。人们来之不易的权利和自由将被剥夺,而对许多国家来说,国家自决权也难免会受到损害。这次被放大的不再是国家的脆弱性,而是彻头彻尾的压迫。如果我们避免灾难的方式是建立这样的反乌托邦社会,那么这根本不是一个可以接受的方式。灾难威胁和对安全的渴望将持续推动人们朝着反乌托邦方向前进。每一场技术浪潮都曾为社会秩序带来系统性的冲击。不过迄今为止,以往的技术浪潮尚未带来广泛且系统性的全球灾难风险。但即将到来的技术浪潮与此前截然不同,这可能促使人类采取一种反乌托邦式的应对方案。有人认为我们已深陷压制性局面,我想说,与未来可能的景象相比,我们目前的处境根本不算什么。我们当前的路径并非唯一的反乌托邦路径,还有诸多其他潜在的反乌托邦路径。然而,目前这一路径似乎与即将到来的技术浪潮及其伴随的政治挑战和潜在的灾难性后果直接相关。这并非一个抽象的思想实验。我们必须直面以下问题:技术背后的推动力强大而不可阻挡,人类是否应该暂缓技术的飞速发展?我们是否应该拒绝技术的无节制发展?尽管这种想法看起来不太可能实现,但现在,我们是否应该给技术按下一个暂停键?








