编程语言应用

首页 » 常识 » 预防 » 疫情下的机器人护理问题算法中的种族与性别
TUhjnbcbe - 2023/8/9 21:27:00
北京治疗白癜风最好 https://wapjbk.39.net/yiyuanzaixian/bjzkbdfyy/nxbdf/
北京治疗白癜风最好 https://wapjbk.39.net/yiyuanzaixian/bjzkbdfyy/nxbdf/

编者按:随着新冠对全世界人民的健康安全造成了巨大威胁,科技公司将目光投向了能够安全地为病人和老年人提供护理的机器人开发领域。但是,看似先进且无害的人工智能护理机器人可能蕴含着开发者本身的性别和种族偏见。护理领域非常依赖于有色人种贫困妇女的劳动,考虑到机器人护理的高昂花费,未来的工作仍然由“必不可少的”低工资劳动力组成。她们往往缺乏维持生活的工资、无法保障工作场所的安全、没有带薪病假和探亲假,以及适当的医疗保健。

然而,从使用白人女性的形象作为格蕾丝的“面孔”,到使用白人的外貌抹去EngKey机器人背后的“菲律宾英语教师”,再到被设计为“美丽女性”的护理机器人爱丽卡,这些例子揭露了设计师的认识:照顾世界的劳动责任主要应该由妇女来承担,而“白人”教师与护理人员则要优于其他种族的工作人员。

据统计,到年,有偿与无偿的护理人员数量都将面临巨大空缺;但是,机器人自动化是否是解决这一短缺的最佳方式仍有争议。即使假设在不久的将来,同理心、情感劳动和创造力可以随时被机械化(许多机器人专家对此表示怀疑),如果代码中的种族主义和性别偏见得不到解决,将这些类型的护理外包出去可能会给接受护理的人带来严重的后果。本文原载于《波士顿书评》,本文作者安娜·罗米娜·格瓦拉(AnnaRominaGuevarra)是芝加哥伊利诺斯大学全球亚洲研究的创始董事和副教授,公众之声专题项目研究员。她是《营销梦想和制造英雄:菲律宾工人的跨国劳工中介》一书的作者。

在新冠疫情最为严重的时候,由SingularityNET(SNET)和汉森机器人公司(Hansonrobotics)两家机器人公司合资成立的觉醒健康有限公司(AHL)推出了格蕾丝(Grace)——第一个拥有逼真人类外观的医疗机器人。格蕾丝通过让病人参与治疗互动、接受认知刺激以及收集和管理病人数据,来提供急性医疗和老年护理。到年底,汉森机器人公司希望能够大规模生产名为索菲亚(Sophia)的机器人,将其融入其最新产品格蕾丝中,并将产品推向全球市场。

格蕾丝虽然格蕾丝是首位看起来如此像人的机器人,但她并不是第一个医疗机器人。同汤米(Tommy)、尤米(Yumi)、斯蒂维(Stevie)、艾娃(Ava)和莫西(Moxi)一样,医院和老年护理机构工作的、日益增多的机器人护理人员中的一员。从床边护理和监测,到储存医疗用品、欢迎客人,甚至为孤立无援的居民共同主持卡拉OK之夜,它们做了一切能做的。它们一起被誉为解决我们大流行困境的方案。在过去几年中,全球专业服务机器人的销售额增长了32%(亿美元);仅在年至年期间,老年人辅助机器人的销量就增长了17%(万美元)。在新冠大流行期间,安全地提供护理和服务的独特挑战只会增加它们的吸引力。全世界越来越依赖机器人系统进行消*、执行戴口罩和保持社会距离协议、监测患者的生命体征、运送物资和杂货、进行虚拟参观,甚至为毕业典礼提供便利。

但对机器人的兴趣和投资的增加对人类工人意味着什么?

毫无疑问,从短期来看,尽管机器人可能会为人类工人提供一些支持,帮助人们尽可能地减少不安全的环境,但它们无法取代人类工人。以目前的机器人技术水平上,将人类完全替换成机器人员工,需要工作环境的可预测性达到一个不可能的程度。作为社交机器人领域的先驱之一,露西·萨克曼(LucySuchman)指出:“当世界按照机器人所需要的方式被安排时,它们工作得最好。”机器人可以在工厂和仓库中良好地工作,因为流水线工作提供了一个统一的环境;在家庭和保健设施中,这种统一性则更难实现。

不过,从长远来看,机器人并不会总是如此“功能有限”。因此,至关重要的是,我们不仅要考虑机器人是否能取代人类工人(因为总有一天,这必然会发生),而且还要考虑它们是否应该取代人类工人。事实上,格蕾丝和其他机器人所代表的自动化尝试,不仅引发了人们对工作本质的普遍质疑,更加对关于做护理工作的意义提出了质疑。照顾另一个人意味着什么?反过来说,对于算法而言,关怀又意味着什么?

护理工作领域在很大程度上依赖于有色人种贫困妇女的劳动(而且她们往往是移民)。长期以来,她们被告知文明取决于她们的工作,但她们的工作报酬并不高;因此,关于是否要采用昂贵的机器人系统的问题就显得尤为突出了。从这个意义上说,任何关于护理机器人变革潜力的讨论,都必须受到现实的制约:正如蒲爱仁(Ai-jenPoo)和帕拉克·沙阿(PalakShah)所指出的,可预见的“工作未来”不是自动化。未来的工作仍然由“必不可少的”低工资劳动力组成,其中有色人种妇女的比例非常之高,她们往往缺乏维持生活的工资、无法保障工作场所的安全、没有带薪病假和探亲假,以及适当的医疗保健。事实上,卫生保健工作者是受大流行影响最严重的人群之一。美国疾病控制中心(CentersforDiseaseControl)的最新数据显示,迄今为止,已有名卫生保健人员感染了新冠病*,超过人死亡,以有色人种为主。由于存在严重漏报,而且并非所有数据都可以被直接获得,实际数字可能会更高。

与许多未来学家的期望相反,自动化不会自动产生一个更公正的劳动力市场。只有当劳动公正成为采用自动化的一个条件时,更公正的劳动力市场才会出现。否则,自动化只会使问题复杂化,使得那些在社会和经济上最脆弱的人所经历更为严重的不平等。

这是因为算法倾向于复制我们世界中已经存在的偏见。近年来,人工智能的批评者已经证明了这一点,比如乔伊·博拉姆维尼、萨菲娅·乌莫亚·诺布尔、以及鲁哈·本杰明(RuhaBenjamin),他们注意到算法的偏见已经被反映在了方方面面上,从面部识别系统无法识别有色人种,到搜索引擎中与黑人相关的搜索结果遭到技术标记。综上所述,这些都是用新技术编码的系统性种族偏见的“新吉姆代码”(NewJimCode)。虽然我们对这些系统内部工作原理的了解经常遭到掩盖,因为它们的算法是“恰当的”,但输出结果很清楚:博拉姆维尼、诺布尔、本杰明和其他人的工作毫无疑问地表明,种族主义制度成为了计算系统和机器学习的基础。这些新技术带来了这些问题,却被认为是中立的——因为机器被认为没有偏见,而这只会加剧问题的严重性。

回到格蕾丝的例子,她将作为机器人索菲亚的更新版本,其经过调整的功能将服务于医疗保健领域。她的制作者声称,这些机器人不仅承诺提供安全,还会提供“人类的温暖,人类的联系”,并将作为“人类专业知识的自主延伸”。然而,通过选择让格蕾丝看起来像一个白人女性,设计师们传播了一种对人类专业知识的特殊理解,这种理解既是种族主义的,也是性别主义的。

在一个名为EngKey的远程教学机器人的案例中,也可以看到类似的偏见。这款机器人的设计目的,是帮助菲律宾呼叫中心的教师向韩国的小学生提供远程英语教学。尽管授课的是一位菲律宾老师,但EngKey机器人的脸上带着白色的头像,在韩国的教室里转来转去。EngKey的开发者说,使用白色头像的理由有两个:一是尽量减少用户在与谁(人还是机器人)互动方面的困惑;二是加强英语教学的全球“权威”。然而,在这样做的过程中,机器人专家介入了劳动的地缘*治,加强了对理想的合格工人的全球幻想,抹去了不符合这个理想的实际工人。而他们自称的“机器人教师”,在这种安排下被迫通过一套强化白人的新词汇来运作,即使这种脚本剥削了他们自己的“第三世界”劳动。与我交谈的机器人教师表达出了一种深刻的分离感,这种感觉来自于一张金发碧眼的白人机器人脸,同时进行一种既脱离了身体、又依赖于身体,既不能移动、又能移动的情感劳动。值得注意的是,这样做并不是为了保证语言教学的成功(语言教学当然并不依赖于这种分裂),而是为了按照机器人专家的要求,创造人与机器之间的无缝集成。

由日本机器人专家石黑浩(HiroshiIshiguro)发明的机器人艾丽卡(Erica),是机器人专家在追求人性的过程中重现性别规范的另一个例子。石黑浩希望目前仍处于早期原型阶段的艾丽卡有助于引领机器与人类共存的世界,机器人将通过做最乏味和不受欢迎的工作来改善人类的生活,包括照顾病人和老人。但是,通过对艾丽卡进行编程以模拟一种“温暖、温柔和关怀”的情感,石黑的团队加倍强调了这种护理工作的性别化区分。艾丽卡的设计是以这样一种看法为前提的:照顾世界的劳动责任主要是妇女来承担,她们将提供温暖和温柔,同时减轻人类的负担和痛苦。艾丽卡还被设计为“遵守传统的性别美”的标准。正如石黑所指出的,他把艾丽卡设计成“最美丽的”机器人,吸取了(他所认为的)“三十个美丽女人”的综合形象。显然,仅仅成为一个女性护理机器人是不够的;你还必须是一个“美丽”的机器人。

日本大阪大学智能机器人研究所所长石黑浩(左)和机器人在交流。对机器人技术中的种族问题的

1
查看完整版本: 疫情下的机器人护理问题算法中的种族与性别