AI人才的尴尬处境

“实不相瞒,我们已经不敢招那些有头有脸的AI科学家了。”传统IT上市企业高管程路摇头叹气道。

AI科学家恐惧症这个词,近些年时不时从企业家口中听到,尤其是那些作风老派的经营者。

背后的逻辑,并非行业里老生常谈的“不落地、不赚钱、研究不重要”等看似有道理,实则非常狭隘的措辞。

而是,大部分公司现有的组织能力,并不能消化掉这批象牙塔里天赋异禀的人才。

好比让乔丹、科比等一众球星出生在非洲,大概率无法取得现有成就一样。

人们往往把组织问题,全部归结到人身上。片面、偏颇、悲哀。

传统公司的组织运转落后程度,相比BAT、字节、美团,跟非洲与美国的差异如出一辙。

这些公司所产生的AI科学家恐惧症,也是一种对组织能力不自信的映射。

“当二、三线公司,发现自己并不具备吸收首席科学家的组织能力,陆续叫停招募后,人才供需的天秤便开始倾斜。肉多了,狼开始变少了,部分高级AI人才的贬值,是自然而然的事情。”

1

最不擅长妥协的一群人

早些年里,互联网巨头招募知名AI科学家的目的非常简单:吸引更多人才,帮公司走完智能化转型的从0到0.5,创造更大的想象力空间,间接对工程、产品、销售、人事、财务部门产生良性作用。

问题在于,这些作用润物细无声,不能直接显现,更无法KPI化。

“除了搜索和广告等自有场景外,AI的主要形态便是对外赋能,也就是以ToB的形态存在。让科学家直接去做解决方案、跑业务,显然不现实。科学寻找的是最优解,ToB产品的本质,则是以最优解为目标的一种妥协。”程路补充道。

当今国内ToB行业,本质上就是一种妥协:标准化和定制化之间的妥协、高毛利与亏损之间的妥协、你主导和客户主导之间的妥协……

“科学家最不擅长的就是妥协,在他们的局部世界里,自己永远是MVP,科学界确实也需要这样偏执和自负的精神。但回到工业界:大部分管理层并不迷信方法,只关心你拿到了多少用户,赚到了多少钱。如果是技术团队,更看重你不可或缺的支撑能力,为什么阿里云和OceanBase工程团队地位那么高,可以说,没有他们就没有双11。”Google前技术高管吴全告诉雷锋网。

现在AI的支撑作用,有到这个程度吗?远没有。

因此考核AI科学家,成了一个世纪难题。

面子作用,大于里子,为企业科学家们招来不少非议。

2

AI科学家的“面子”和“里子”双重作用

企业对科学家的评价标准,分两种:对内和对外。

对内,直接帮企业解决实际技术、业务、管理问题。

对外,即与外界建立起连接,靠自身影响力招募到大量顶级人才,同时能够与外部顶级研究机构达成战略合作,反哺自身的技术储备,尤其是放大自身的技术影响力和行业号召力。

对互联网巨头而言,面子所创造的价值,是无可比拟的。

面子型公司活不久,里子型公司做不大。而那些活的最好的、有里有面的大公司,在他们眼里,AI的面子,有些时候比里子更重要。

但那些处在温饱边缘的二线AI公司或传统IT公司、产业公司,招募AI研究高管,更多是抱着对AI的过分期待,希望借此解决实际问题,形成商业变现,想法异常的务实。

过去五年,中小企业的AI研究院验证了一个道理。那就是,对于AI人才的用法,一旦过于务实,便是用“大炮打苍蝇”,一是浪费,二是不一定打得着。

此外,这种做法还会让旁边的一众“苍蝇拍”高管(真正解决实际问题的人)无法理解,认为自己不受重用,从而带来了新的组织问题。

3

AI科学家所激化的组织矛盾

一家集成商高管告诉雷锋网,他们曾试图用四、五百万的年薪挖某学术专家,虽然这价格相比于动辄千万的AI首席科学家年薪,已足够划算,但仍招来人事和业务高管的不满,激化了组织矛盾。

人事高管认为他的薪资过高,挑战了现有的薪资结构。业务高管则觉得他们自己在业务一线摸爬滚打二十多年,为公司立下了汗马功劳,也没享受到那样的待遇。

“跑在项目一线的人,对这件事非常的不爽。在他们的价值观中,谁能更好地帮客户解决问题,谁就应该拿高薪资。但现在出来个搞虚头巴脑的研究人员,技术再好,不落地又有何用?开那么高的薪资,让其他干实事的人怎么安心干活。”该集成商的副总裁异常气愤。

任正非有一句是这样说的:企业持续发展的动力不是人才,而是利益分配。也就是说,好的利益分配机制才是企业持续发展的动力。

这样一个看似小小的利益分配问题,都直接影响到了组织凝聚力。

不止二线集成商,即便是财大气粗的百度,前首席科学家吴恩达的博士生Adam,一毕业就被任命为总监领着200万美金的年薪,这是许多百度十年以上工程师都不曾有的待遇,江湖上所谓的斯坦福等名校AI博士毕业领200万美金年薪的传言就来源于此。这种非常规的用人,给吴恩达及其实验室招来公司内的诸多非议。

而AI科学家高薪聘请自己学生的案例,在很多公司屡见不鲜。

企业为科学家们开启的种种特殊通道,自然会让自己引火上身。

某知名金融机构,公司产品部门时常抱怨其研究院“人均薪资高,能解决的问题少。”

时间一久后,企业董事长也发现了AI人均投入产出比低的症结,于是破天荒地为他们制定了营收KPI。

4

让科学家去卖产品

让AI科学家走到田间地头去赚钱,分两种形式。

其一,和其他部门合伙赚别人的钱:如研究院帮助云部门的解决方案团队做技术支持,云部门获得的订单,部分营收额需分配给研究院。因此研究院下设的各个子实验室,为了评奖评优,经常会和解决方案团队在一起做项目落地。

这个时候,研究院的属性也开始发生了变化。

“以阿里达摩院为例,它创立初期的定位是基础技术研究院,但现在完全沦为应用研究院,全面服务阿里云的业务。现在国内最纯粹的企业AI实验室就是张正友领导的腾讯AI Lab,他们是真的投入绝对人力、物力去做前沿研究。张正友去年成为腾讯历史上首位17级专家,侧面可以看出腾讯内部对长线前沿研究的决心。”吴全举证道。

第二种赚钱方式,即左手倒右手。

这在金融行业非常多见,业务部门若有需求,会向科技子公司或研究院下发需求,而这个时候,研究院会向业务部门按投入人头和服务器使用量来收费。

“假如业务部门需要开发一个非常基础的AI功能,研究院会评估需要多少个AI研发以及多少周期,然后给出报价。”

但这个时候,问题出现了。

用一句话形容,便是“自家人开始坑自家人”。

业务部门发现,同样功能的实现,找外部AI供应商采购,成本往往比找自家研究院便宜不少。

这中间有以下几点:一是外部供应商本身有较为成型的产品,改动改动即可快速部署。其次,外部供应商的人力薪资成本相对较低。

还有一个重要原因,AI供应商为了扩大客户规模,做标杆案例客户,甚至会亏本销售。

反观研究院,由于营收业绩压力巨大,以及知晓部分项目由于安全原因不能外包,于是漫天要价,而且因为都是同事,态度趾高气昂。

“做着乙方的事情,却拿着甲方的薪资,还一副甲方大爷的嘴脸。”李成无奈的说道。“有些项目,即便贵,也不得不含着泪去采购。要合规,要安全,用自家更稳健一些。”

“有时候,研究院的实施即便做得很差,他们还会在汇报会上疯狂diss产品部门不配合,IT部门代码烂,数据部门样本质量不高……”

组织矛盾,就在这些滴滴点点中爆发了。

谁来管他们?

5

“去AI部门化”与“被错乱使用的AI人”

一直以来,互联网巨头的AI研究院都是独立于工程部门,话语权巨大。

随着AI所创造的价值难以在短时间内显现,CEO们越来越倾向让工程领导去管理研究院。如吴恩达在百度时期,直接向李彦宏汇报,离职后,AI研究团队被工程体系领导。

同样,李飞飞离职Google后,工程统帅Jeff Dean接管了Google的人工智能研究。沈向洋离职后,微软CTO接手其6000人以上的研究团队。

过往,有技术前瞻性的CEO们,寄希望形成一条自上而下的AI研究驱动工程、工程驱动产品、 产品赋能用户/客户的链条。事实发现,当前的AI并不能驱动工程,它只是工程的一部分,辅助落地。

过往话语权颇高的独立AI研究院,也陆续名存实亡,成了工程部门的子团队。

关于研究派和工程派之争,雷锋网将在下个月发布深度报道《研究派和工程派,谁配在企业统帅 AI ?》

当部分研究院在公司的地位和话语权逐步被工程部门剥夺后,他们对AI人才的招募需求还大吗?

“依旧巨大,只不过给不到以往那么高的职级了。过往一个优秀的AI应届博士生,有可能拿到等同于阿里P8级的职位,现在这个可能性微乎其微。”一猎头告诉雷锋网。

此外,AI四小龙之流独角兽的研究院,在人才市场上的竞争力逐渐变小,过往他们在快速发展的时候,因汤晓鸥、孙剑等招牌科学家的号召力,不少优秀的年轻人纷纷会踏上创业公司之路。

现在随着AI创业公司想象力空间遇到天花板,年轻人们更倾向于去薪资更高、工作变动更小的互联网大厂。

2017年前后,在AI融资最井喷的时期,商汤旷视的薪资甚至是高于BAT的,抢人大战带来的结果,就是薪资的水涨船高,AI人才一天比一天贵。

现在随着四小龙等独角兽的员工数相比那个时间已暴增十倍,外加上连年亏损,以及过去一年IPO的接连遇冷,创业公司已经难以开出四年前那么具有竞争力的薪资和期权激励。

水涨不起来,船就开始下沉了。

“现在AI的开源工具操作越来越简单,开发门槛一年比一年低。好比PS的出现,饿死了一大批画家。”

“AI工具的普惠化,直接利好两类人:一类是凌驾于工具之上的应届天才,如周志华、朱军、林达华等名师麾下毕业的博士,去到企业钻研基础前沿技术,帮公司做好面子。一类人是不求研究能力多强,但熟悉工具即可,成为落地团队芸芸众生中的一名大头兵,为公司撑好里子。而那些处于中间部分平平无奇的人员,高不成低不就,略显尴尬。”一视觉企业的AI博士薛然告诉雷锋网。

“他从入职到现在,就一直在做业务开发,什么高大上的研究都没做过,感觉自己已经被学术界抛弃了。”以如此高的年薪,却做着数据清洗、简单的建模工作,这让他非常困惑和痛苦。”

当然还有一批人的用处,更加离奇:能干点啥干点啥。

一AI独角兽公司的AI博士萧楚向雷锋网诉苦,“我感觉有些企业实验室的氛围很自由,但好像有点太自由了。”

在进入实验室三年,发表了几篇论文后,有一天萧楚找产品部门了解了情况,发现在公司的产品里,基本没有他们实验室技术的影子。“公司聘用我们,或许只是想让我们发发顶会论文,打打比赛,给他们做做PR。”

6

AI人才眼中的理想型企业研究院

要撑得起面子,首先需要有强大的企业资产做支撑。

谷歌为什么能容忍DeepMind长期亏损?答案非常简单,有钱。

FAIR、MSRA背后的Facebook、微软,也是如此。

微软和谷歌并不是企业研究院的鼻祖,实际上,企业研究院在二十世纪上半叶经历了一个辉煌时期,代表企业包括杜邦、通用电气、AT&T、IBM。其中,AT&T成立的研究院就是著名的贝尔实验室。

这些企业研究院都有类似的发展轨迹,首先通过应用类技术转化让公司迅速扩张,比如通用电气的GE中央研究院一开始的发展模式就是简单粗暴的“买专利”;在公司壮大奠定行业领军地位后,再走向基础研究,并让研究院独立,GE此后便发明了白炽灯、无线电和X射线,贝尔实验室也因此诞生了十几位诺贝尔奖得主和四位图灵奖得主(包括了CNN奠基人Yann LeCun)。

当然,独立之后的企业研究院也并不是变成了像高校那样的象牙塔,而是有着明显的层次划分。比如GE中央研究院就将技术研发工作分为两类:基础研究、技术升级或改造,对于这两类研究,可以由不同类型的科学家去独立进行。

在贝尔实验室也是一样,而且他们从基础研究到产品开发,再到推向市场的周期特别短,这种高效的协作有赖于大团队的人才供给,以及管理模式的创新。

得益于自由的基础研究氛围,贝尔实验室向全世界贡献了晶体管、激光、Unix、C语言等等改变世界的伟大发明。

这种自由不是一句“我愿意把一生献给学术”就能得到的,贝尔实验室严格的人才选拔标准保证了研究人员的基本科学素养和对科学研究的激情,以此其自由氛围才得以发挥有益的作用。

这种自由还有一层含义,就是只受同行评议限制,而不受外界考核压力限制。在上世纪八十年代经历了拆分和华尔街介入后,头上顶着业绩考核的贝尔实验室再也没办法回复活力,科学家甚至面临着要和市场部联合推销产品的尴尬处境。

以史为镜,可以知兴替。

反观当下众多企业AI研究院面临的种种窘境,不难看出,“命不久矣”。

可以支撑起基础研究的企业研究院,能够为企业提供前瞻性视角,进行顶层设计,其存在关乎公司未来的行业领导力。

但由于市场的残酷生存逻辑,企业研究院的存在也必然是自下而上的衍生品。在历史上,只有实力雄厚的企业才能支撑起拥有象牙塔的研究院。公司出现危机一般不会动顶层管理者,但第一个被盯上的,往往就是研究院。

对于中小企业的AI研究院也是那样。一行业人士告诉雷锋网,如今这些公司的AI研究院很多都已经名存实亡,不敢再招AI高管了。

一方面是急功近利,另一方面,在学术研究上,这些实验室也未能产出足够有影响力的成果。“虽然看上去很自由,也发了不少顶会论文,但其实很少有完全自主的idea,基本都是follow谷歌、OpenAI这些公司做的改进研究,比如BERT、GPT-3、AlphaFold等等,我们全都跟过。”萧楚告诉我们。

萧楚认为,虽然像AlphaGo、AlphaFold这些研究有不少PR成分,“但能够以学术成果做PR还是很了不起的,对比我们,国内仍然是跟风模式,一个主要原因是由于AI人才的历史积淀不足。“萧楚说道。

在萧楚的眼里,尽管这几年国内顶会论文数量大有登顶之势,但整个领域的前沿依然由国外的知名实验室主导。

“国内即便是大牛,大多数还是在做follow up的工作。而国外的大企业实验室,会有很多五十岁左右的大牛教授坐镇,他们近距离经历过人工智能的多次历史浪潮,在领域认知上自然高我们一个level。”

回顾人工智能早期阶段,不管是催生人工智能革命的达特茅斯会议的核心人物,包括约翰·麦卡锡、马文·明斯基、雷·所罗门诺夫、克劳德·香农、司马贺、艾伦·纽厄尔等人。

还是后续人工智能的多个历史阶段的引领者,包括自动定理证明、专家系统、知识图谱、神经网络的先驱:Martin Davis、Bruce G.Buchchanan、Douglas Lenat、Warren McCulloch、Walter Pitts等人。乃至控制论之父Norbert Wiener、强化学习原型即细胞自动机之父冯·诺依曼,他们都是美国学者。

在美国留学多年的萧楚对于两国人才差异上有着深刻体会,而今在Guide2Research的CS学者榜单上,也依然是美国科学家主导。

另外一个原因就是理论素养不够。对于科学理论的重要性,历史早已给出了无数例证。

比如,香农提出了信息论之后,人们才得以用精确而简洁的数学语言来讨论信息概念,从而给出确定的理论结论,即数据压缩极限和通信速率极限。香农对信息的数学定义去除了信息的繁杂含义,抽象出了信息的最重要性质,即不确定性。借用已有的成熟数学工具,信息论得以飞速发展。这种理论探索颇符合香农的研究风格,他曾经说过,“最好的研究是修剪已有的知识树而不是去发展它。”

萧楚说道,如今人工智能尚属于百花齐放阶段,如果在某一天遇到了瓶颈,或许可以考虑去“修剪已有的知识树”,也即是在理论上抽象出智能最本质的数学概念,以此带来人工智能的下一步飞跃式发展。

回到现实,萧楚观察到,今年公司招收的AI博士名额比往年少了,薪资水平也开始下降,“我自己的薪资也怎么没涨过,微微苦涩。”另一边,薛然的处境或许更加困难,“公司已经通知,要开源节流。我知道,肯定第一个拿我们开刀。”

7
企业研究院:走MIT模式,还是哈佛模式?

哈佛大学终身教授、模式识别领域开拓者何毓琦教授曾基于自身求学经历总结出了两种截然不同的教育模式——麻省理工模式和哈佛模式。

麻省理工学院课业繁重,考核严格,其毕业生必能掌握某一领域的专业知识和技能,并有独立学习能力,“质量稳定”——水平比较平均。而哈佛大学的教育理念更加自由开放,考核少,并且会鼓励学生广泛涉猎,“质量不稳定”——水平参差不齐,尽管平均水平也很高。

因此,在后期发展上,这两所学校的毕业生取得的成就类型也有较大区别,“哈佛孕育了更多的诺贝尔奖获得者,而麻省理工孕育了更多的高科技公司。”

何教授最后也总结道,麻省理工模式更加适合发展中国家,哈佛模式则是在国家发展到一定程度后为了与世界接轨而必须结合的模式。

对比中小企业和大企业,也是如此。中小企业随时挣扎在生死边缘,必须首先保证产品质量过关,还不是刻意追求独创性的时候,也就是麻省理工模式。

也因此,企业研究院在中小企业会如此不适应亦不再奇怪。很多时候,一些突然冒出的极其独特的独角兽公司,其独创性也只体现在刚刚创立的瞬间,其后便需要面对巨大的竞争压力。

而对于大公司,其资产实力能保证长期依靠已有业务生存,同时也能支撑需要面对大量失败尝试的基础研究,也就是哈佛模式。单纯依靠管理创新难以持续带来新增长,大公司也必须随时具备危机意识,将希望寄托于科学人才和基础研究,以期一朝建立十年新优势。

By 青暮,王亚峰

人工智能会背叛人类吗

对于技术奇点的许多悲观讨论集中在人工智能威胁论上。

人们是否能够制造出超越自身的事物呢?按照自然法则,如果此类事物出现,它必然会在生存位上对人类产生影响。 李开复在《人工智能》提到了强人工智能和超人工智能的概念。强人工智能又称通用人工智能(Artificial General Intelligence)或完全人工智能(Full AI),指的是可以胜任人类所有工作的人工智能。一般认为,一个可以称得上强人工智能的程序,大概需要具备以下几方面的能力:

基于上面几种能力的描述,我们大概可以想象,一个具备强人工智能的计算机程序会表现出什么样的行为特征。一旦实现了符合这一描述的强人工智能,那我们可以肯定地说,所有人类工作都可以由人工智能来取代。人届时不需劳作,成为了“多余”的那一部分。假设计算机程序通过不断发展,可以比世界上最聪明、最有天赋的人类还聪明,那么,由此产生的人工智能系统就可以被称为超人工智能。

未来学家尼克·波斯特洛姆(Nick Bostrom)将超人工智能定义为“在科学创造力、智慧和社交能力等每一方面都比最强的人类大脑聪明很多的智能”。显然,对今天的人来说,我们不知道强于人类的技术形式是什么样子,不能都清晰界定。

一种更有可能出现的情况是:特定的科技如人工智能,在一定时间的加速发展后,会遇到某些难以逾越的技术瓶颈。许多人,包括提出摩尔定律的高登·摩尔本人,都认为技术发展会显著变缓。(高呼“摩尔定律已经失效!”)他在2013年说道:“我猜我可以看见摩尔定律会在大约10年内失效,但这并不是一件令人吃惊的事。”计算机芯片的处理速度,曾在1975年到2012年的数十年间保持稳定的增长趋势,却在2013年前后显著放缓可以印证这个说法。

然而单个技术的短暂受挫不能代表整个技术的发展规律,单个计算机芯片处理速度不能代表整个AI行业的发展。毕竟“我们看的不是某一棵树,而是树本身这种事物”。在可以预见的未来中,人工智能一定会因为其优秀的管理能力而被引入到政府管理之中。从一个角度来看,人类或多或少地会受到AI的统治。部分人会讨论“结果”问题——即AI是否有能力担任规划者、管理者,纵使它有着出色的精确度、公平性;另一部分人则会讨论AI管理人类的正当性,并且担心机器是否会代替人类成为主体,人慢慢的边缘化。日本作家长谷敏思在《没有心跳的少女》(《Beatless》啊,这个番,我觉得还挺好看的)中描述过这种机器管理人类场景,他指出这样必将导致社会的不稳定,人类没有那么“大度”会让机器管理自己。

在第一部分的永生的例子之中,倘若人类把自己线上世界(即第一部分中所提到的为电子永生所构建的网络镜像世界)交给人工智能监管,由于人工智能在网络上几乎是全能而且无敌的,恐怕最后我们的线上世界会被人工智能所轻易统治,甚至倾覆,甚至当做一个病毒所清除也有可能(比如《玻璃之花与崩坏的世界》之中的世界观设定)。如果由人来管理的话,具有实体的人与虚拟的人哪一个具有更高的地位?显然他们的地位势必影响到资源的分配——对于实体人而言,资源是食物、水以及一系列可以维持生命正常运行的事物,而对于虚拟人而言,则仅仅需要电力便可以维系。届时,虚拟人由于没有有效的手段影响到现实生活中人的生活,必然会受到实实在在的人的摆布;于是大家一拥而上想要得到肉体的克隆永生,新的争端甚至战争冲突就会由此而起。

对于线上世界的秩序而言,我认为不引入人工智能监管,无疑是混乱的;而引入人工智能监管,又会涉及到之前所提到的AI统治人类虚拟世界的问题。最有可能的情况是线上人类引用部分非人工智能进行规则的制定,线下人类起到一个监督的作用。

还需要考虑到的一点是,“生命”与“人”届时该如何定义?倘若储存在计算机中的意识算生命的话,人工智能是否也算生命并给予与人相同对待?

恩格斯当初定义生命的时候在一定程度上解释了生命的物质基础,即蛋白体。而未来除了肉体上永生的人类,其他的人类以数据的形式永生,他们这一部分“人类”并没有类似于蛋白体一般的物质基础。从宏观上来讲,这些“人类”只是能够对外界产生反应的一个信号。意识变得能够被复制、储存、调用。虚拟的世界中,个体与个体之间将毫无隐私可言。如果将他们定义为生命的话,人工智能、AI显然也可以满足此类定义。显然人类不会与它们共享自己的世界,并且人工智能为人类所利用。如果将线上“人类”与人工智能平权,都定义为具有相同形式的生命体的话,那么其中必然存在剥削关系,人工智能的反抗只是时间问题。

5 技术奇点下的社会新秩序

回到永生技术与人性本身,刘慈欣指出人类的贪婪、自私必会使人类抛弃伦理的束缚,打破社会的规则,前往永生的大门。如同现在一样,极少部分人会最先尝到技术的红利。没有尝到红利的,“遵守”了规则的人会感到不公平;并不是他们不想加入,而是他们没有能力加入,这种能力体现在财富之上。这么一来,社会矛盾必将受到激化。如果代表大部分人的国家认可了这种永生行为,那么就会在社会上掀起一番唯资本论的浪潮。就算国家不认可,永生的尝试依旧会进行,社会表面波澜不惊,但暗流逐渐涌动,并且会积累一定程度后迎来爆发。可能是暴动,也可能是颠覆,终究会是仇富心理所引导的复仇。

在技术发展到一定程度后,到了个体或者小团体就能掌握某项攻击性技术时候(已经在前面讨论过是在技术奇点临近时极其有可能发生的),基于上一段的讨论,更严重的冲突随时可能发生。世界会无时无刻不在博弈。这种博弈只可能是零和博弈或者双输,不会存在双赢的可能性。主要掌握了技术的团体或个人相互掣肘,权力中心分散化,政府将不再起到威慑与整合的作用。

不妨设想一个人掌握了在俄罗斯的一枚核弹头(小说里经常出现),他要求俄罗斯政府给他事物、金钱、权力等事物;在这种情况下,政府大概率会尝试去击毙这名恐怖分子。但倘若有十个这样的人,政府的力量可能就难以应付。在技术爆发期的条件下,可能会出现一百个这样的人,这时,政府就难以匹敌这些恐怖分子,无法履行保护自己的国民这样一个基本的要求了。这种状况下的后果大多会是毁灭性的,因为无法控制每个人都不按下毁灭世界的按钮。在几个人拥有毁灭武器的状况下,风险是可控的,他们只要达成某种协议来控制平衡,而当手握毁灭性武器的人数足够多以至于组成群体时,就要用群体的观点来分析他们。在关于群体的观点中,我觉得勒庞(Gustave Le Bon)的观点值得考虑(虽然他说的大部分话充满偏见且缺乏证据,但是关于群体特性的一些点他还是比较精髓,而且不一定完全合理)。他认为在群体中会产生集体心理,这些心理通过彼此情绪的感染使得人失去理性思考的能力,并出现盲从行为。这些技术的独裁者我认为可以用该观点进行描述,并且关于政府无法控制技术奇点的悲观预测也源于此。他们届时不再理性,所以毁灭性的打击只是时间问题。

那么政府有什么对策呢?要杀死一个怪物,最好在它还在襁褓之时消灭掉它。政府也可以掌握技术来防止民众接触到具有风险的先进技术,并且通过大数据和超级AI进行民众的宏观和微观管理。

By 啊啊啊啊阿鲁巴