Profile 网络社会年会

尼尚.沙阿:人性不足:人类的数字未来

尼尚特·沙博士是一位女性主义者、人道主义者、技术专家,目前担任荷兰阿尔特兹艺术学院副研究院主席。他是Hivos数字地球研究员项目,以及进步传播协会中女性主义网络研究网的知识合作伙伴。他目前投入的工作是通过“技术-美学(aesthetechs)”的框架中来了解错误信息、虚假伪造和暴力伤害的不同状态,以便找到公民行动的新途径。

Dr. Nishant Shah is a feminist, humanist, technologist and is currently the vice-president of Research at the ArtEZ University of the Arts, The Netherlands. He works as a knowledge Partner with The Digital Earth fellowship with Hivos, and with the Feminist Internet Research Network with the Association of Progressive Communication. His ongoing work is invested in understanding the state of misinformation, fakeness, and violence through the frame of techno-aesthetics ‘aesthetechs’ in order to find new processes of civic action.

报告摘要

数字化的前景曾经是超越人类——通过极端化细节的晶体数据集使人类分子化,或者形成超越人类想象力和信息处理能力的地理-时间模式。随着数字技术的普及,“超越人类”的承诺开始塑造“成为人类”的条件。随着数字化不仅成为我们的默认工具集,也是未来的批判本体论,我们将到达一个不得不停止思考赛博格、机器人与后人类的时刻,事实上,我们该试图思考的是数字化行为与实际经验之间交织的关系。本演讲从后殖民话语、女权主义理论、技术历史和数字文化中汲取灵感,以思考当前数字技术发展所预言的对人类的新校准。演讲将通过塑造人类的四个症状时刻,特别强调人体作为技术社会的建构,预见数字化的未来将不再那么人性,并且涉及能动性、权利、保护与正义等议题。

Not quite human enough: Digital Futures of Being Human

The promise of the digital was to go beyond the human – either through a molecularization of the human through crystalized data-sets of extreme minutiae, or through forming geo-temporal patterns that exceed both human imagination and capacity for information processing. As digital technologies become more ubiquitous, the promise of ‘beyond human’ starts shaping the condition of ‘being human’. With the digital becoming not just our default toolset but also our critical ontology of the future, we are at a point where we will have to stop thinking about the cyborg, the android, the post-human and in fact try and think about the intertwined relationships between acts of digital and facts of lived experience. Drawing from the postcolonial discourse, feminist theory, history of technology, and digital cultures, this talk proposes to think about the new calibrations of being human that the current developments in digital technologies foretell. Particularly emphasizing the human body as a technosocial construct, through four symptomatic moments of the shaping of the human, it foresees a digital future that will be not quite human enough and its implications on questions of agency, rights, protection, and justice.

第四届网络社会年会 尼尚.沙阿:人性不足:人类的数字未来

人性不足:人类的数字未来

文/[印度] 尼尚·沙阿 [Nishant Shah]

本文是尼尚·沙阿通过远程视频在第四届网络社会年会 | 网民21:超越个人帐户上发表的讲演。原标题为“Not Quite Human Enough: Digital Futures of Being Human”。本文首发于中国美术学院学报《新美术》2020年2月号。

1664年3月9日的英格兰皇家学会科学周会纪要中,有份罗伯特·莫雷爵士 [Sir Robert Moray] 的报告,记录了国王查理二世 [Charles II] 关于自己体重的实验,我发现了查理二世与金·卡戴珊 [Kim Kardashian] 有很多共同点。如莫雷爵士报告,国王对称量自己挺好奇,除了频繁观察自己身体的排泄物外,还包括睡前睡后、打球前后、外出骑马前后,以及晚餐前后:他发现在打球后轻了2磅3盎司(但之后国王喝了两瓶酒,弥补了他的体重),晚餐后又增加了4磅半。

这位国王热衷于王位,在历史上被称为“快活王”,他不仅测量自己的所有体液,而且痴狂地收集它们,以自然哲学的名义将它们作为对他身体的科学测量存储起来。因将皇家的科学喜好与尿粪重量样本的粗俗并置,这种收集身体排泄物的故事吸引现代人的注意,它或许也很好地提醒我们,人类的一大特质是我们一直着迷于测量人类

要记得这种测量的过程并不温和,这很重要。它是一种权力的政治表达,这种权力显示了估值、低估和错估如何正当化某些殖民、奴役和种族灭绝的最残忍形式。在我所成长的印度,测量的概念是英国殖民扩张和暴力的逻辑的核心——包括对文化的测量,对人的价值的测量,对生命尊严的测量。1835年,英国东印度公司总督托马斯·巴宾顿·麦考利男爵 [Thomas Babington Macaulay] 关于测量的故事也许是最令人震惊的——它不仅关乎作为人的测量,还关乎人类在现代逻辑体系中是否重要。麦考利在一份题为“教育纪要”的文件中提出他的主张:“一个不错的欧洲图书馆里单单一个架子,就值得上印度和阿拉伯所有本土文学。”对于麦考利而言,他将本土异教徒称为拥有过去却没有历史的臣民,他们需要历史和宗教来挽救他们的灵魂——一种将要被拯救的灵魂,不是为了他们生活幸福,而是为了让他们成为英国殖民地的职员。

因此,《教育纪要》启动了大型英语扫盲计划,该计划旨在教育当地人成为真正的英国绅士。然而,在麦考利将伟大的欧洲文学书籍进口到印度,并教他们阅读、写作和欣赏精美的文学作品之前,他在印度的正统教育系统中引入了两种形式:分类帐和《印度刑法典》[The Indian Penal Code]。

来自新德里的重要独立艺术团体拉克斯媒体集 [Raqs Media Collective] 有个精彩的循环录像装置《一个没有被地震仪记录的下午》[An Afternoon Unregistered on the Richter Scale],向我们展示了测量员们——分类帐管理员、会计师——正统计着英国东印度公司的财富和资源。这个会计制度的目的不仅是将大英帝国的统治编制化,也是为了计算异教徒的数量。孟加拉国测量员的照片提醒我们,最主要的知识类型一直是分类帐——这种追踪信息的基本架构平衡双方,以保持一种均衡。甚至在今天,分类帐充当着一种隐喻,一种理解数据库治理和基于配额的反歧视运动的隐喻。分类账使我们可以理解,并且它被造为足够清晰可读,就像那些能够计算并可以被计算的人。

拉克斯媒体集《一个没有被地震仪记录的下午》循环录像装置

这段影像中还呈现了麦考利决心要将这些印度人设计成真正的光荣的英式本土士绅。为了利于这种转变,麦考利制定了《印度刑法典》,致力于规范当地人的纵欲行为。他构想出”非自然性行为法” [the Unnatural Sexual Acts Law],该法将除去以生育为目的之外的所有性行为定罪。这部法律还引入了一系列如何遏制印度人同性恋越轨行为的指导方针,其中之一是在封闭的空间中制造边界,不允许不洁的男性身体彼此接触,屈从于肉体的诱惑。这些边界成为一种蓝图,即在一个封闭的工作环境中,两个男人之间必须保持多少空间的规划方案,以便他们可以专注于自己的工作,克制自己的性欲,并抵制歌舞和鸡奸的冲动 。

这张图像从明到暗循环播放,也表明了麦考利的想象中,在无人监督的办公室里同志情谊的可能性。因为只有教会本地人统计和被统计、计算和被计算,并且训练他们去理解自己的性欲中暗示的刑罚,就可以使他们理解文学的价值和诗歌的力量,邀请他们像云朵般独自漫游,偶遇一簇簇水仙花。而为了使本地人们成为戏剧表演者或观众的一份子,能够阅读和诠释,必须建立一套庞大的会计和管制的设计原则。继而,人之为人的衡量显然有一个权力的坐标,更重要的是,它有一种编目和分类的威胁,这种编目和分类组织着社会性、亲密性、生活方式以及死亡的条件。

这些测量的历史——排斥、暴力、改革和废除的形式,已十分常见并广为人知。在所有这些不同的计数政治与程序中,我们理所当然地认为人体是这些测量的起点。身体的生物稳定性,它特定的形式和表达,这种完整性和不连续性的模型是不可违背的,并且,身体是一种有范围可测量的事物,这种坚定的想法是神圣不可侵犯的。

在所有这些诠释中——无论是疯狂的国王收集体液,还是殖民权力惩戒分类账职员的同性恋欲望;无论是人体肌肉组织和肉体的细致绘画,还是被认为非人性的对人体的奴役行为……所有这些都假定了这点:人的身体是起源之处,是起点,是意义的源头及其真实性的验证,也是其物质性的证明。虽然这么说很奇怪,身体正是测量身体这一行为的核心。

然而,近来,尤其是在数字技术的普遍应用下,身体辉煌的确定性和中心地位已被打乱。身体不但被认为是可替换的,而且还是需要升级的,或干脆被当成一种需要摆脱的负担。以两种特定的人类与技术交织的愿景为例,这两种愿景在硅谷非常流行,它们推动着人类未来的超级男性化幻想:技术奇点和数字不朽。

关于技术奇点的想法是,有一天我们能将人类主体转化为彻底的信息,它遵循的物理观念是,在我们的纯粹形式中,我们就是能量。如果我们可以将这些能谱映射到数据中,接着将它存储在携带计算设备的假肢生活中,我们就可以永生,不再遭受必死的命运,遭受我们生理上的腐烂。技术奇点的想法不仅仅是一种科幻小说幻想,埃隆·马斯克 [Elon Musk] 这样的亿万富翁正投入金钱,要在他们有生之年创造一种代替肉体的逃生舱。这是超越人类的愿景——人类作为数据点、信息、后生物形式,在我们面对着全球气候以及地球维持碳基生命形式的能力不稳定的未来时,这一愿景出现了,它清楚地向我们表明,未来是稀缺的,这些新的增强型人类将是唯一能够消耗这种未来的人。

我们的脱氧核糖核酸 [DNA] 和基本的生物生命组分中的数字排序和合成,也为逃离寻常人类提供了空间。因此,全球巨头谷歌的母公司字母表 [Alphabet],也已通过其子公司Calico在阻止衰老上投入了大量资源。2016年,字母表公司做出了令人震惊的承诺——他们已认定人类生命的问题就是死亡,他们将要治疗的正是死亡这一概念本身,而不聚焦于疾病,康乐和挽救。字母表公司旗下的生物遗传子公司着眼于逆转衰老,进而逆转生命的干细胞研究,他们正着眼于人类突变——通过基因改造人类的代码和脱氧核糖核酸,用技术、芯片、纳米微粒和人工合成的微生物生命形式填满我们的身体,在某种程度上阻止细胞衰退变老,从而赋予我们不朽的生命。永生的承诺很明显承诺了长寿,但这绝对不是作为一个人。这将成为一种生命形式,它如今如此地受管控,如此依赖于维持其生命的技术,它需要被视为一个新的物种。

唐娜·哈拉维 [Donna Haraway] 可能是最具影响力的科学哲学家之一,她在<赛博宣言>[A Cyborg Manifesto]中已经警告过我们,随着我们进入极限计算时代 [the age of extreme computation],我们将看到以遗传学形式的优生学复苏,我们的血统、外形、身份和生活都将被硬编码到代替我们人类经验的数据中。接着,技术还将决定如何根据优生原理识别并分类我们。大家都知道,在这个世界的不同地方,种族隔离引发过种族灭绝、大屠杀和战争。然而,我们也越来越多地接收到这样的信息,我们所知的人类也将需要被改变,,并且我们必须进化成一种将技术内置于自己的超级物种。

尽管关于成为超人类的强烈愿望一直充斥在我们的神话和小说里,但人类-技术模型中的某种倒置情况值得我们拷问一番。即使没有马斯克的实验室 [Musk Lab] 和字母表公司的科幻小说式后启示录视野,我们也能目睹着一种新形式的兴起。如果之前的技术仪器是为了测量人类,因此使用以人类为中心的技术,试图去描述并定义人类,那么新的技术网络正创建一个以机器为中心的矩阵,在其中,人类必须符合被告知的技术事实。

我想通过机器人科学家安迪·克拉克 [Andy Clark] 在《天生的半机械人》[Natural-Born Cyborgs] 的构想中呈现的思想实验来说明这一点。克拉克明确区分了以机器为中心和以人为中心的技术。如果我现在问你,告诉我这会儿几点了,而不参考一个计时装置,我相信你能够给我一个相当简单的估计(我希望这不是因为从这场讲座开始,你就一直坐在那里,痛苦地数着每一分钟,直到时间结束)。克拉克指出,问题的关键并不是说你知道确切的时间,而是因为你无法超越时间的维度思考自己。我们忘记了时间是一种技术。时间并不是什么自然的东西,而是一种人造的测量手段,将我们的环境和身体的路径和改变秩序化,它严格地限定我们到了这种程度:我们感到自己貌似拥有了时间——当我们迟到时,我们谈论的是失去或赢得时间。时间是一种以人为中心的技术。它塑造了我们,给了我们一种归属感和所有权,以致于当我们用英语问别人时间时,我们问“现在几点钟?/你有时间吗?”[do you have the time?],即使不看他/她的表,那个人也有时间。我们可以拥有时间,并以此来衡量我们是谁——现代的、后现代的、活着的、迟到的。

但如果我们看看人们通常视之理所当然的人类技术的另一种形式——语言,我们就会意识到我们与语言的关系是非常不同的。如果我现在问你,你不看字典就告诉我一个单词的含义,你将不会像说现在是什么时间那样自信。因为如果我抛给你“supercalifragilisticexpialidocious”这词,除非你是歌舞喜剧《欢乐满人间》[Mary Poppins] 的粉,否则你不会知道它的意思。让我们面对现实吧,即使你知道这个词,也不代表你知道它的涵义。我们认为语言是我们的自然技术,但语言却是一种可怕的技术。它们需要重复、训练、沉浸,并像复杂的小工具一样,我们越老就越失去处理新语言的结构和格式的能力。语言可能是我们最依赖的技术,但实际上我们并不拥有语言的所有权。语言无法测量人,尽管我们用它来描述人。语言是一种我们必须达到的标准。我们需要精进自己的技能,变得流利,并不断练习,直到达到作为一种技术的语言为我们设立的严格标准。这是一种以机器为中心的技术,它不断制定可能会导致我们失败的各种衡量标准。

我们建立的围绕着我们的数字系统不是以人类为中心的技术。它们是以机器为中心的系统,不断为我们带来对人类既是分子又是集体的想象,但绝不是一种作为个人的想象。我们看待未来技术化的方式让人觉得我们将被以如此广泛的形式来衡量,而且被认为是如此特殊类型的人类,让人觉得我们永远都不够人性。并且这不是突然的或意料之外的。实际上,我们一直在制造这些转变,因为这正是数字技术的许诺。我想通过计算领域中的四个故事来描绘这种人性不足的状态,这些故事描绘了我们当下的发展方向:

1.斯坦福研究所的机器人沙基 [Shakey] 实验-逻辑对数学

我知道这将听起来像是一场小型学术讲座,但这值得诸位思考一下从数学到逻辑的转变。众所周知,逻辑是一个闭环系统。在一阶逻辑中,已定义系统里的任一内容与该系统中的每一个其他元素都有关系。这意味着,如果一个逻辑系统中存在两个事物,那么它们要么是因果关系,要么是相关关系。X导致了Y,或者X和Y相互依赖。这就是为什么在逻辑上我们能够预测接下来会发生什么。例如,如果我现在把这个遥控器抛到空中,那么你一定知道接下来会发生什么。你会告诉我,如果我把它扔到空中,它就会掉下来。我们之所以知道这一点,并不是因为我们在学校里被教导了重力或相对论。我们知道是因为我们已经看过它一次又一次发生。如果东西丢到空中,它们就会掉下来。这是逻辑的核心,如果事情发生一次,它们将再次发生。并且它们发生的次数越多,“这是唯一会发生的事情”的可能性就越大。逻辑执行模式识别,它确定一种因果关系和相关关系,接着将其确定为唯一可能的高概率结果。

查尔斯·罗森 [Charles Rosen] 和人工智能机器人沙基

但是,如果我问一名数学家同样的问题,他/她不会给我这个简单的答案。如同艺术,数学不处理概率,而是处理可能性。一名数学家走进一个空房间说,想象这是一个点,然后从想象一个点开始,得出这个世界如何运作的一整个理论。因此,数学家将必须计算一系列选项。也许,这个遥控器会分解成它的组成元素。也许有人会从观众席上跳出来,从半空中抓住它跑开。也可能虫洞打开,遥控器会被传送到另一维。这些事情都是不可能的——这些事情发生的概率非常小——但它们依旧是有概率发生的。我们需要拥抱这种可能性。

2. 机器学习领域里的人类工作者

就我们的所见和展现给我们的而言,人机关系一直很棘手。曾经有一段时间我们的计算机是女性。正如珍妮弗·S·莱特 [Jennifer S. Light] 在其精彩的计算的物质历史中提醒我们的,第一批计算机是现实生活中的女性,她们在大型计算机中从事复杂的数学计算工作。但是,随着大型计算机变少,女性开始被男性取代,而男性又被处理器芯片所取代,这些处理器芯片不再需要这些系统管理员来维持大型计算机运转。很有趣的是,从1940年代妇女成为计算机的那时起,到1990年代,这时计算机已是一种大众化的机器,我们发展到了开始相信妇女不擅长计算这个节点。我们把女性从制造机器的历史中抹去了。

当下的机器学习叙事仍然使人类劳动和身体不可见,这种叙事不断给我们机器自我学习、不断发展的算法和网络知识生产的愿景。因为我们经常忘记,或甚至不知道,机器学习的核心其实是极大的人类劳动。在像印度这样的国家,有大量的人类检验员农场,不断地教授算法装置来检测、理解和分析信息。他们每天花上数小时,坐下来执行训练算法的重复任务,让算法以视觉来识别信息,让算法将这些信息分类成可被查询的集合,以及让它删除混乱的信息,以便机器能够理解我们的世界。例如,在面对识别吉娃娃和小松饼之间的差异时,一个机器学习算法需要密集的人工干预才能做出最终的概率驱动预测。

我们已经知道,脸书 [Facebook] 和照片墙 [Instagram] 的清理工们会监控所有被恶意检测算法标记的内容,并将其从我们的推送流中删除,以免冒犯我们的感受。但是,日复一日,这些多数集中在全球南方国家的清理工,他们看到色情暴力、斩首、辱骂、诋毁和仇恨的图片和视频,不停地销毁它们,将其从我们的回路里删除——我们却称之为机器学习,抹除执行这些操作的人们的情绪和情感劳动。重要的是要记得在对清洁的机器、不洁的人,或高效的机器、低效的人的构建中,我们实质上是在接受这样一个观点,即人的劳动不重要,而最终成果可能被认为是机器所为。即使它是一种组合,布鲁诺·拉图尔 [Bruno Latour] 会称之为行动者[actant]——一种由机器和人共同协作以产生期望输出的中介行动。

3. 死于机器-误报-阿达哈尔 [Aadhaar](数字身份证)-狗的故事,被认为已死之人的故事

关于这一点,最有趣的故事也许来自我们在印度的研究,在那儿我们一直在研究世界上最大的公民生物识别数据库阿达哈尔的构建。数据库本身的构建一直处在巨大争议和法理辩论的核心,因为在早期,阿达哈尔将自己与印度国家人口登记联系在一起,从而将人口普查数据与这个服务体系联系起来。然而印度最高法院今年提出了一个奇怪的构想,即阿达哈尔不是强制的,但服务可以规定要有一个阿达哈尔才能使用这些服务,阿达哈尔本质上已成为过去十年公民身份的证明。若要享受公民服务——银行所得税、护照、社会保障养老金、食品补贴、土地记录、住房等,需要关联阿达哈尔。因此,要成为公民,需要阿达哈尔。据推理,拥有阿达哈尔,才成为一位公民。

网络流传的狗的阿达哈尔

在这个逻辑框架下,我们最终却意外地使一条狗成为了印度的合法公民。这是发给印度一条狗的身份证,它已成为印度的合法公民。与此卡绑在一起的是一串阿达哈尔号码、银行帐户和生物识别信息,所有这些都证明这是一张合法的身份证。到这种程度,以至于这张狗的卡已经被用来开设银行账户并进行金融和服务交易。在世界上的某个地方,向一名银行职员递上一张狗的身份证,银行不得不接受它是合法的,因为在阿达哈尔的框架中,数据库验证信息的能力压倒了人类说实话的能力。一直位于人类能动之核心的讲真话的能力被数据库检验事实的能力所取代和搁置了。

在这个逻辑框架下,我们最终却意外地使一条狗成为了印度的合法公民。这是发给印度一条狗的身份证,它已成为印度的合法公民。与此卡绑在一起的是一串阿达哈尔号码、银行帐户和生物识别信息,所有这些都证明这是一张合法的身份证。到这种程度,以至于这张狗的卡已经被用来开设银行账户并进行金融和服务交易。在世界上的某个地方,向一名银行职员递上一张狗的身份证,银行不得不接受它是合法的,因为在阿达哈尔的框架中,数据库验证信息的能力压倒了人类说实话的能力一直位于人类能动之核心的讲真话的能力被数据库检验事实的能力所取代和搁置了。

人类作为应用程序——带有通用模板和自定义下拉菜单。人类成为模块化的数据流——对人类进行成批处理和并行处理——如此始终保持它为粒状,作为集体的代表,但从不独特,也不完整。人将由驱动机器人的概率模型来塑造。与机器打交道的人只能执行残留的任务,而无法跟上机器无情的效率。随着人越来越多被解读为信息和数据,他们将受到更少保护,更不被重视一个将被一条狗取代的人,没有人会比他/她更清楚,这就是应用程序化的人类——总是在等待故障修复、质量保证测试、升级,只是为了保持不变。这种新的人性不足,将需要一套新的权利、保护、权益和捍卫,以确保我们技术现实的一种人性的未来。