我们是不是算法的奴隶

奴隶社会,人是人的奴隶,也是资源的奴隶

封建社会,人是人的奴隶,也是土地的奴隶

资本社会,人是人的奴隶,也是资本的奴隶

信息社会,人是人的奴隶,也是信息的奴隶

用算法来裁员,残酷又提升了一个境界

算法招聘不稀奇,现在利用AI算法来自动化处理海量简历筛选,已经是司空见惯的操作。但算法裁员,对于许多人来说就闻所未闻了。最近,一家海外公司Xsolla通过算法判断出150人是“没有生产力的员工”,然后一口气裁掉了他们。

引起争议的不是裁员本身,而是这一决定背后的原因、标准:Xsolla首席执行官阿列克桑德·阿加皮托夫接受俄罗斯出版物《Meduza》的一次采访中提出,员工的“数字足迹”不符合公司标准。

远程工作时代,加上外部环境急剧变化,处于困境的企业不得不裁员自救,原本无可厚非。但利用AI算法来履行裁员职责,就有待商榷了,因为这牵涉到一系列问题,比如:

靠数字足迹判断员工合格是否合理?算法开除的决定是否符合劳动保护条例?这是不是意味着未来打工人必须按照AI的喜好来行动,从而成为算法的奴隶?

算法裁员,究竟释放出了哪些“恶之花”?

边界之问

通过算法来开除员工,听起来着实有些匪夷所思,直到Xsolla创始人阿加皮托夫撰写的内部邮件被公开,人们才知道算法的判断标准是:数字足迹(Digital Footprint)。

信中提到,Xsolla的大数据团队分析了员工在Jira、Confluence, Gmail、聊天、文档、仪表板等应用中的活动,然后将那些行为路径不总出现在工作场景中的员工标记为“没有生产力的员工”。

在技术社会中,想要追踪一个人的网络活动是很容易的。此前,许多企业会通过社交媒体筛选潜在的员工,员工也会经营自己的“赛博形象”以传递好的形象,大家似乎都为企业考察员工的数字足迹投出了一张“赞成票”。

但当事情发生在裁员这一动作下,或许才会发现,数字足迹在职场的应用,正释放出了三个危险信号:

1. 模糊生活与工作的隐私边界。涉及150人规模的员工不知道自己正在被AI跟踪,并且网络活动的“蛛丝马迹”都可能被引入考核标准,还是很让人恐惧的;

2. 算法“黑箱性”缺乏说服力。通过数字足迹的可以分析判断出该人的性格特征,这在招聘时可作为加分项,但裁员需要明确的“不胜任工作”的认定标准,算法“黑箱性”让裁员这件事充满了不确定性,难以服众,容易引发心理失衡的报复事件;

3. 缺乏对“幸存者”指导意义。一次成功的裁员,不仅仅在于将部分员工开除,还要让“幸存者”做好对新任务的准备、了解持续发展的规范,但通过分析数字足迹作出的裁员决定,却无法清晰地体现出被裁和网络活动的因果关系。

一个人可能因为总在工作时间登录社交媒体,被认为效率过低,但这一结果对于需要与用户频繁交流的创意型岗位就没什么价值,也让“幸存者”处于惶惶然不可终日的状态。

疫情之后,越来越多的企业开始推行永久制的远程办公,与此同时,如何评估员工的工作状态和生产力也成为难题。这个案例也驱使我们思考,个人该向企业让渡多少数字足迹访问权限,将成为未来劳动市场和法律法规的重要议题。

标准之谜

那么,通过数字足迹来衡量员工的敬业度和生产力,到底靠不靠谱呢?

我们知道,数字足迹只能跟踪到软件交互的时间和频率,对于流程化程度高的工作有直接的参考意义,但对于创造性工作就有点无能为力了。

一来,科技企业是典型的知识经济,涉及到大量的创意创新,这是十分个性化的过程。比如乔布斯喜欢打坐冥想,然后做出决策;有媒体报道过,当团队遭遇瓶颈时,张小龙就带着大家一起听摇滚乐;德国作家席勒缺乏灵感的时候,则喜欢吸几口烂苹里的味道……如果让AI来判断,这些都算“不务正业”。

二来,现有算法很难评估OKR与数字足迹之间的因果关系。英特尔公司创始人安迪·葛洛夫发明的OKR目标与关键成果法,已经成为谷歌、Facebook、Linked in、BAT等科技企业广泛使用的工作模式,即先明确努力的方向和目标,过程中员工可以自主探索,只要保质保量地完成预定目标即可。这种方式能最大程度地激活员工的积极性,并且鼓励他们打破常规。这时候,用网络冲浪的蛛丝马迹来衡量员工的表现,是一种既过时又极其无效的标准。

标准的不合理性,也会直接影响裁员程度的正当性。我们知道,为了避免任意裁员,许多国家的法律法规都对裁员的程序公平有着严格限制,依靠AI算法裁员很难避免暗箱操作和违规裁员,正规企业为了避免陷入风险也不会草率上马相关算法。

人性之思

算法裁员,也证实了一个令诸多学者都担忧已久的问题:AI应该增强人性,而不是减少或取代它,是这个时代面临的最大挑战之一。

数字时代,许多劳动者都不可避免地被“异化”,失去了对工作、生活和自我的控制,比如与系统争分夺秒的外卖派送员、被算法支配的网约车司机、沉浸在算法推送中不可自拔的短视频爱好者……本该具备人文关怀的裁员,也开始因算法加入而变得冰冷。

此次Xsolla创始人信中表现出的态度和语气令许多网友感到不满,他给被解雇的员工贴上“没有参与工作和无益”的标签,称“我真的相信Xsolla不适合你”。还分享了一份“被开除者名单”,直言不担心离职员工,也不担心这些措施是否会打击公司前进的士气。

根据算法直接把人裁掉, Xsolla作出如此草率的决定,说明企业本身存在更大的问题。但用技术语言与员工沟通的做法,在科技公司却并不罕见。

2018年就曾发生过某技术总监因不满辞退,怒删9TB关键数据,造成直接经济损失225万;2020年63岁的亚马逊司机因算法评分较低而解雇。试图让算法“背锅”,拒绝以人为本的沟通,等待的不是被裁者的“反杀”,就是大众的群嘲了。

在裁员这一环节中,算法能提供的仅仅只是一个参考标准,更多工作则需要人性化的方式来进行。比如裁员沟通,就是一种更为人性化的方式。有研究显示,在裁员期间受到管理者积极人际待遇的员工,会较少表现出消极反应,对组织未来目标的认可也会增加。

高质量的对话,可以有效地避免员工的不公平感,从而把裁员的负面效应减少到最低限度。这是裁员活动中最不可控也至关重要的一个环节,也是展现企业文化和管理者个人素养的标尺。

马克思曾指出:我们的一切发现和进步,似乎结果是物质力量成为有智慧的生命,而人的生命则化为蠢钝的物质力量。

AI越来越多地进入到企业经营的各个关键领域当中,但在直接与人有关的领域,仓促部署AI都是不合适的。刚刚浮现出的算法裁员问题,应该被快速提上技术伦理甚至法律规范的议程。

被算法压榨的人不得不参与内卷

最近,有一个有外卖商家的收入截图火了,一份米线卖价19元,商家拿到手的实际收入只有9元。

那么商家不参加活动行不行?不行!因为店铺排名就会更靠后,以后连生意都没了。

更让该商家郁闷的是,同样一个25元的订单,在各大平台的提点都差不多,有的是21%,有的是25%,有的更高,到底依据是什么呢?他打电话问平台,得到的解释是:系统是按照算法执行的。

算法究竟执行的是什么规则?除了平台之外,没人能搞清楚。这就是平台的算法规则,在古代有”大斗进小斗出”的明剥削,现在就是暗剥削。

有人肯定会说:那别人的生意怎么做下去的?

来看看下面这个场景吧:

这么一个阴暗狭窄又杂乱无章的小巷子,叫“幽灵厨房”。这种餐厅没有招牌,没有门店,没有餐桌,只在各大平台上接外卖的订单,它们广泛的分布在城中村里。

每天中午11点到下午2点,订单像潮水一般涌来,老板(兼厨师)以最快的速度出餐,然后打包(往往是老婆负责)发给外卖员,外卖员再马不停蹄的把午饭送进各个写字楼。

这种”幽灵厨房“之所以能够生存,秘诀在于它们省下了房租和员工开支,可以承受平台确定的价格,不停的以更低价参加平台活动,就会获得平台给的推荐和流量。

然而,道高一尺魔高一丈。

后来又产生了一种店铺,其运营成本比这个更低。原来这种新型餐厅直接用几块钱的料理包,看到这个让人醍醐灌顶:我们平时在平台上点的黑椒牛柳/宫保鸡丁/鱼香茄子/糖醋里脊等等,根本不是厨房做出来的,只不过是料理包一拆,再加上米饭,加热一下就可以了。

经济学里有一个著名定律:“劣币驱逐良币”。在铸币时代,当那些低于法定重量的铸币——“劣币”进入流通领域之后,人们就倾向于将那些足值货币——“良币”收藏起来。最后良币将被驱逐,市场上流通的就只剩下劣币了。

没错,电商和外卖平台的兴起,会让生活变得更方便。但是当线上流量都被平台把持之后,另一个严重问题就来了。互联网的崛起使比价变得更容易,当市场出现一款流行新品的时候,第二天在网上就出现同款产品,价格远远低于实体店铺零售价。也就是说无论你生产的是什么产品,总有更低价格的出现。

先有淘宝,后有拼多多。于是不管什么样的产品,总有更低价格的产品出现,低到无底线,市场就形成了“低价是王道”的逻辑。低价者胜出,意味着企业不会有充足的资金投入研发、设计、品牌打造,这就会影响产品的品质和质量,消费者占便宜是天然的心理,这是人的本性,但是商家不能利用人的劣根性去谋利。

从短期来看,消费者捡了价格上的便宜。但是长期看,商家为了利益必然要无止尽的压缩成本,然后被逼采用劣质原材料,于是最终吃到“恶果”的还是广大消费者。算法最厉害的招数之一叫“大数据杀熟”:你越有消费能力,购买同样的东西,你就要比别人花更多的钱。

同样的逻辑:

你越有资金打广告,那么购买同样的广告位,就要比别人花更多的钱。

你越有精力加班,那么给你同样的工资,你就要比别人干更多的活儿。

你外卖送得越快,那么配送同样距离的订单,系统给你的时间就越短。

我们最终将陷入了算法制造的“囚徒困境”:它可以一只手紧抓996,另一只手摇喊大健康;它让我们现在不停的“用命换钱”,以后又让我们不停的“拿钱买命”。

人类将会失去意义,每个人都会变成一个“数据包”

立陶宛学者卡尔波卡斯犀利地分析道:完整而独特的个人被分解、降格为数据的生产者、数据分析的作用对象,或更直白地说,一个数据包。

“一位友好的同事成为了一位服务提供者,一位长期诚信的客户成为了一位拥有高信用分数者,一位善良的护士成为了一位护理提供者,一位学者成为了一位有影响力的学人,一位运动爱好者成为了一位拥有动态绩效曲线者。”进而,我们要么在算法对代码架构的直接控制下,只能做出架构所允许的行为,要么在算法对行为的微妙助推下,做出自认为自主、实则受控制的“最佳”选择,仿佛巴甫洛夫的狗一样容易操纵。

甚至,算法的编写者也受制于技术过程的反馈,并非独立自主、从零开始地设计算法,而是根据算法运行的输出结果而不断调整完善。与此同时,线上与线下的治理逻辑趋于统一,万事万物都将成为算法的数据分析的对象,不再存在互联网、物联网以外的治理领域。于是人类的自由意志与主体地位不可挽回地丧失了,人类不能再宣称自己是这个世界的主人,反而沦为算法的仆从、技术的奴隶,人类与技术的平衡向技术方向高度倾斜。

但同时算法必然带有人类的价值观。在定义上,人工智能即是由人设定与制造的智能:简单的算法代码是个决策树,由人类为特定问题的全部细枝末节设定解决路径;复杂的机器学习也仍然需要人类提供数据,并为数据与结果之间的关联赋予意义。更何况,算法作为平台治理的工具,根本上反映了平台的利益与需求,故而有大数据杀熟与灵活用工剥削,甚至将算法作为独立法律主体看待的争论背后,也是平台希望免除自身责任的动力在暗中驱使。

所以,算法本身深深地嵌入了这个社会:“算法被设想为类似莫比乌斯环,既没有纯粹的内在,也没有纯粹的外在”,“算法变得具有交互性,与其运行的更广泛的环境建立一种双向关系:从世界中学习,接着通过分类、排序和筛选反馈给世界,然后再从受其先前输出影响的世界中学习,继而进一步反馈”。人工智能并未统治世界,它仍然属于世界的一部分。

人类与技术、环境之间不是你死我活的斗争与统治关系,不是要么西风压倒东风、要么东风压倒西风;人类主体地位的消退并非向技术投降,并非复刻人类中心主义而成为技术中心主义,而是真正开启了设想一种更为平等、包容、你中有我我中有你的伙伴关系的可能性。

正如人类将自然商品化并将其仅仅视为一种资源而必须最大限度地利用和优化一样,通过机器和代码对人类所进行的类似处理也是错误的。事实上,人类控制、奴役人工智能固然不对,人工智能转而控制、奴役人类也并非真正的善,冤冤相报无穷尽也。甚至人类与人工智能彼此孤立、独善其身,也无法实现各自的终极进化与完善。人类与人工智能需要建立一种友爱的伙伴关系,携手进化;同样地,人类与技术需要在平等的基础上联合,才能使这个世界朝正确的方向前进,止于至善。

由此观之,当前人工智能发展所引发的技术中心主义的后人类思潮是误入歧途的。算法与人工智能并未强大到可以取得与人类平起平坐的主体地位,现实的侵权责任法、著作权法稍作解释或调整即足以应对自动驾驶、人工智能创作等提出的所谓新问题,只要穿透技术的迷雾,直指其实际的影响即可。毕竟,“无论数字(无身体或无实体)行动者是基于与自然人或法人的相同或相似基础而被赋予人格,还是被认定为介于两者之间的某种存在,或是被认定为从简单权利和义务(例如保险)发展到更复杂安排(例如产权)的实体,抑或是被认为根本没有明显的人格,它们的影响是不可否认的。

具而言之,首先可从算法的输出结果入手,要求公平公正,避免偏见与歧视,不实行不合理的差别待遇,根据各种标准来划分算法歧视类型,进行分级分类治理。其次可从算法的输入数据入手,一方面要求数据控制者完善其自我治理机制,强化对用户的数据保护,另一方面赋予数据主体以免受算法自动化决策约束权等个人信息权利,以及由此延伸出的算法权利,增强个人对自身数据的支配与管理。最后辅以适当程度的算法透明,采取分场景、有层次的算法解释权,以及制度化的算法影响评估、算法备案等可行的算法透明措施。但是主张算法所享权利,乃至算法主体地位,则大可不必,这亦非法律的制定、执行与适用者所擅长。

如果已经到了不得不革命性立法的地步,人类的单边立法或许也不一定能够取得人工智能的同意,二者需要斗争或协商才能确定共同的未来何去何从。因此,这样一种技术中心主义的后人类思潮其实仍然是人类中心主义的回魂:依旧从人类出发,思考如何将人格赐予机器或防止人格被机器破坏,过分抬高、夸大技术的作用与地位,无视人的主观能动性。在这样的后人类思潮之下,主客体等级关系的幽魂不散,支配-依附的思维方式根深蒂固,只是颠倒了过来罢了。持此论调者无法设想人与技术皆从中心地位退出,卸下彼此不必要的特权,彼此更为平等、合作地相处,致力于共同的解放事业,正如动画中所想象的乌托邦一样。

后人类之上的超人类

然而,平等的后人类主义在揭示了宝贵的洞见同时,也遮蔽了更深刻的反思空间:算法/人工智能与人类/人类智能的关系真的是平等的吗?换个问法:被算法消解主体性的人类,与对算法具有决定性影响的人类,是同一拨人吗?或者更准确地说,被算法计算、管理、控制的人,与设计、拥有、控制算法的人,是同一拨人吗?如果不是,二者真的是平等的吗?

答案当然是否定的。算法治理的服务对象是平台经济及其背后的网络资本,它们决定了算法治理的目标、形式与结果,通过算法治理的技术赋权,以大多数人的后人类主义、去主体性状态为代价,成就了自身的超人类主义、超主体性状态。

即使算法治理在总体上提升了社会福利,并因此惠及被治理的普罗大众,这一后果也是次要的,平台盈利与资本增值作为算法治理的根本目的不会改变。这不仅体现在分配环节,平台资本攫取了新增社会总福利中的大部分,更体现在当平台利益与用户利益、社会利益发生冲突时,算法总是维护平台利益,例如在共享经济中对灵活用工者的劳动剥削。

更何况复杂的技术也有利于超人类实现隐身,将他们与后人类的社会矛盾转移、消解为后人类对技术的无知、无力与无可奈何。于是后人类只能责怪自己素质太低、不够努力、跟不上时代,或先进技术太神秘、太狡猾、太不近人情,超人类借此坐收渔利,闷声发大财。超人类甚至可以用信息茧房、数字鸿沟打造新的美丽新世界,让后人类沉迷于滑动手指即可获得并不断自我强化的廉价快乐,从而沉沦为自动打工的生产者与不停剁手的消费者,丧失集体行动乃至独立思考能力,最终以一种类似奴隶支持雅典民主和哲学的方式,支持超人类“参与幸福、共同体事务、超越性追求和其他崇高活动”。

所以,人工智能非但没有通过普遍地赋予或剥夺权利而使人与人之间更为平等,反而以算法黑箱、算法歧视等各种方式进一步扩大了数字鸿沟,强化并掩饰了现有的政治与经济不平等体系,使少部分人能够以更为隐蔽也更有效率的方式对大多数人进行盘剥与控制。换句话说,被消解或被更大程度上消解主体性的是大多数人,能够影响甚至决定算法的是少部分人,因而在人类与技术相对平等表象之下,是人与人之间深刻不变的不平等本质。

因此,我们对机器人统治人类的担忧或许不无道理,在某种意义上也确实触摸到了算法时代不平等的大致轮廓。只是我们未必看透机器人背后其实还是万变不离其宗的资本与少数人,后者才是更加值得害怕的对象。他们通过算法黑箱、技术中立、人工智能主体责任等法律修辞推卸自身应当承担的责任,迷惑大多数后人类去控诉他们无法理解也无法左右,但事实上与之同为工具与奴仆的新兴科技。质言之,算法时代的后人类主义性质只是表象,算法赋权的超人类主义现实才是残酷的真相。大多数后人类成了滋养算法的单向度的数据材料,从而让算法服务于更丰富、更高级、更符合人之为人本质的少部分超人类的生活品质的达成。

By 遥堃脑极体