AI关乎权力而非技术 AI带来的物质变化并未消除人类劳动,反而让劳动退化。作者认为,这在机械化的历史中早有先例,从工业革命伊始,技术不但没有减轻工作量,反而使雇主利用技术——甚至只是技术的概念——把原本优质的工作变成了低技能劳动,并通过技术掩盖人类的劳动,让劳动力成本更低。 当技术企业家谈论“AI做这个”、“AI做那个”时(比如埃隆·马斯克向前英国首相里希·苏纳克承诺的“AI将带来丰裕的时代,人人无需工作,因为‘AI能够包揽一切’”),他们用的“AI”一词更多是掩盖实际情况。学术研究领域的AI通常并非特指某种技术,而是如权威人士玛格丽特·A·博登所定义的“让计算机做与人类思维类似的事情的实践”。换句话说,AI更像是一种希望,即制造出表现得像是智能的机器。没有一项单一技术让AI在计算机科学中独树一帜。 机器学习通常依赖于设计者来帮助系统解释数据,这时人工神经网络派上用场(机器学习和人工神经网络只是AI的两种工具)。人工神经网络是一组链接的软件程序(每个程序称为一个节点),每个节点可以计算一项特定任务。以ChatGPT为例(属于大语言模型类别),每个节点是一个运行数学模型(称为线性回归模型)的程序,接收数据、预测统计可能性并生成输出。这些节点相互连接,每个链接有不同权重,用于影响最终的输出。 在标准机器学习中,人类标记不同输入以教导机器如何组织数据及其在决定最终输出时的重要性。例如,许多人领着极低的报酬“预训练”或教导计算机程序辨认图像内容,标记图片以便程序区分花瓶和杯子。据《卫报》报道,OpenAI在肯尼亚雇用合同工为ChatGPT标记涉及暴力、自残、谋杀等内容的文本和图像,报酬低得惊人。多名工人声称这些工作条件剥削性极强,并请求肯尼亚政府对OpenAI展开调查。 Anita则在乌干达北部城市古鲁从事数据标注工作,负责分析视频内容中的司机面部表情,帮助构建AI的“车内行为监测系统”。她的工作压力大,报酬低,长时间面对电脑屏幕注视枯燥的视频内容,每周45小时的劳动报酬仅略高于200美元,约合每小时1.16美元。 几家法国大型连锁超市声称他们使用“人工智能”来识别小偷,然而实际情况是这些监控是由马达加斯加的员工通过观看监控视频完成的,而这些员工每月的收入仅在90至100欧元之间。同样的情况也发生在所谓的“Voice in Action”技术(其制造商声称这是一个“人工智能驱动的”系统)上,该技术在美国的快餐店接收顾客的得来速订单;事实上,超过70%的订单都是由菲律宾的员工处理的。人类学家玛丽·格雷(Mary Gray)和微软的高级首席研究员西达尔斯·苏里(Siddharth Suri)形象地称这种将人力劳动隐藏在数字前台的做法为“幽灵工作”。 结果是文职人员的数量增加了,而不是减少了,但新的工作比以前的工作更差。这些工作更加单调,工作节奏也加快了。在20世纪的最后四分之一里,雇主成功地说服中层管理人员自行承担文书工作,为他们配备了台式电脑以便自行完成打字、归档和通信工作,这些工作曾经由公司付费给文职人员完成。这种工作降级的方式在今天的白领工作中仍然很常见。 心理治疗机器人的悖论The Baffler 从新西兰搬到美国之后,McAllen有5年时间没有进行心理治疗。在她看来,心理治疗机器人是美国医疗选择悖论的化身。在新西兰,只要评估医生认为你确实有需要,公共心理健康系统就会指派一名心理医生,但在美国,她不得不从零开始自己寻找心理医生。她为此求助了Psychology Today、 Alma和 Headway等多家提供心理咨询服务的平台,结果却迷失在了令人眼花缭乱的搜索结果之中:你不仅要选择治疗师的学位、性别、外貌,还必须找到与自己匹配的流派、个性甚至政治立场,而无论怎么选择都要付出高昂的费用。 McAllen指出,早在半个多世纪之前,研究人员就开始实验将人工智能应用于心理治疗领域。1966年,麻省理工学院教授约瑟夫·维泽鲍姆(Joseph Weizenbaum)创造了第一个聊天机器人ELIZA,可以被看作是今天的心理治疗机器人的原型。ELIZA以萧伯纳的戏剧《皮格马利翁》中的女主人公命名,通过人工智能的 “自然语言处理”分支进行操作。在1966年一篇概述其研究成果的论文中,维泽鲍姆讨论了病人与治疗师之间的投射,他写道:“举例来说,如果一个人告诉精神科医生‘我坐了很久的船’,而他的回答是‘跟我说说船吧’,我们不会认为他对船一无所知,而会认为他这样引导随后的对话是有某种目的的。”维泽鲍姆认为这种假设有利于治疗技术的发展,因为这意味着人工智能不需要掌握关于现实世界的明确信息。“ELIZA至少表明了制造和维持理解的假象是多么容易,那么具有可信度的判断的假象同样如此。这其中潜藏着某种危险。” 大多数情况下,AI心理治疗工具的创造者都声称他们至少在增强而非取代传统的心理健康治疗,这些工具的一个显著优势是可以随叫随到。但McAllen指出,除了对治疗费用的考量,治疗师提供有限度的服务还有其他原因。太多断断续续的交流会削弱每次专门治疗的效果,而即时生成的、无边界的回复可能会强化病人寻求安慰的行为,从而导致他们在感到痛苦时忽视自己的自主性。但也有一些例外,布鲁克林综合心理服务机构的临床心理学家玛丽·梅尔卡多(Marie Mercado)认为,对于边缘性人格障碍的患者而言,知道在治疗时间之外理论上可以联系到自己的治疗师是有好处的,但他们需要提前和治疗师约定回应方案。她也承认,对于恐慌突然发作无法立刻联系到人类治疗师的人来说,人工智能或许能够提供帮助,但仍然伴随着过度介入的风险。 Heartfelt Services的创始人Gunnar Jörgen Viggósson是一名正在攻读心理学本科学位的计算机科学家,他承认人类治疗师在过去发挥的作用,但认为人工智能的优势恰恰在于它没有人性。Viggósson认为人们在和人工智能聊天时不会将自己的情感投射于其上,不会觉得它耐心有限或是担心它觉得自己怪异,但McAllen指出,事实上,受到严重精神疾病折磨的人——无论是精神错乱、狂躁症或强迫症发作还是创伤后应激障碍——很可能会将自我投射到聊天机器人上。这正是维泽鲍姆对ELIZA得出的结论之一。一个人在异常精神状态下的确可能用人工智能的回应促成甚至引导鲁莽的决定,从而为自己和他人带来严重后果。但在心理治疗机器人的创造者们看来,这些面临严峻精神危机的人似乎并不是这些人工智能应用程序的目标受众。 McAllen的切身体会是,只有找到一个和自己的状况相匹配的专业人士,才能得到真正的帮助。要做到这一点,哪怕不对美国的医疗体系进行根本性的改革,为想要接受治疗师培训的人提供奖学金或补贴就能大大缓解目前专业人士短缺的问题;提高报销比例,让治疗师放心和保险公司签约,也能够解决很多人因为费用高昂而对专业治疗望而却步的问题。试图用人工智能治疗师来填补缺口则不过是掩耳盗铃而已。Aeon 在Noë看来,图灵测试本身就具有误导性。其中至关重要的一点是,图灵在测试中用打字代替了说话,然而“言语是一种伴随呼吸的、热烈的运动,总是在语境当中,在需要、感受、欲望、投射、目标和限制的背景之下,与他人共同展开”。在他看来,与文字信息相比,言语和舞蹈的共同之处更多,如今我们在键盘的统治之下太过自如,以至于甚至没能注意到文本如何掩盖了语言的身体现实。 图灵测试中更为隐蔽的一个花招则是用游戏代替了有意义的人类交流。Noë认为,对生活的游戏化是图灵最隐秘而令人不安的遗产之一。图灵对于游戏的理解是片面而扭曲的,从计算的角度来看,游戏是可理解的虚拟世界的透明结构,在其中规则限制了行动,价值判断和成败标准都是确定无疑的,但真正的游戏同时也是竞赛,是我们接受考验的试验场,我们的局限性会被暴露出来,我们的力量和脆弱都会一并显现。一个参加国际象棋比赛的孩子可能会极度焦虑以至于感到恶心,这种本能表达并不是偶然的附带现象,也不是对游戏而言没有本质价值的外在表现,而是游戏的内在组成部分。也就是说,人类不仅仅是遵循规则或规范的行动者,我们的行动总是(至少是潜在的)冲突场所。 就语言来说,我们说话时不会盲目地遵循规则,规则本身就是可供争夺和可以争论的。我们从一开始就不得不面对交谈的困难,即使在实事求是且没有过多压力的多数情况下,我们也很容易误解对方。在交谈中,质疑用词,要求重新表述、重复和修正,几乎是不可避免的。也就是说,交谈从一开始就包括了对交谈的反思和批评,我们在使用语言的同时也在改变语言,语言是一个捕捉和释放、参与和批评的场所,是一个过程。而这显然是机器模拟无法做到的。“人类不是训练出来的。我们拥有经验。我们学习。例如,对我们来说,学习一门语言不是学习生成‘下一个词’,而是学着工作、玩耍、吃饭、爱、调情、跳舞、打架、祈祷、操纵、谈判、假装、发明和思考。最关键的是,我们不仅仅是吸收学到的东西然后不断继续;我们总是抵抗。我们的价值判断总是无定论的。我们不仅仅是词语的生成器。我们是意义的创造者。”









