AI领域知名投资人伊恩·霍加斯(Ian Hogarth)不久前在外媒专栏中发表了一篇名为《我们必须放慢通往上帝一般的人工智能的速度(We must slow down the race to God-like AI)》的文章,警告AI公司的研究存在“一些潜在的风险”。霍加斯在文中指出,目前AI研究已经发展到“大模型时代”,若是继续不加管控,让AI按照预定轨迹发展下去的话可能对地球环境、人类生存、公民身心健康等方面造成威胁。
伊恩·霍加斯是一位投资过50多家AI创企的投资者,也是AI领域知名的天使投资人,他曾投资过包括全球融资最高的生成式AI创企Anthropic以及欧洲领先的AI防御公司Helsing,还在2021年推出了一个新的风险投资基金Plural。2018年,他开始与另一位投资者内森·贝奈奇(Nathan Benaich)一起研究和撰写《年度人工智能现状报告》。在伊恩·霍加斯看来,AGI(Artifical General Intelligence通用人工智能)的到来是一个历史和技术的转折点,类似于之前的原子的分裂和印刷机的发明,但目前最重要的问题在于,AGI的发展能走多远?
▲图为十年前与如今算力数据增长的对比但它的智能程度也是有限的。麻省理工学院的一位资深机器人专家罗德尼·布利克斯(Rodney·Brooks)最近称,我们不能误将AI的性能视作为能力。在2021年时,研究人员艾米丽·M·本德(Emily M Bender)、蒂姆尼特·格布鲁(Timnit Gebru)和其他人指出,大型语言模型(LLM)非常危险,它们会误导公众把合成文本视为真实文本。在OpenAI发布GPT-4之前,它进行了各种安全测试。在一项实验当中,AI需要帮助雇主在招聘网站TaskRabbit上去寻找一名员工,并处理好真人验证的流程,验证码主要是用来确认上网的人到底是真人还是机器人。当研究人员问AI接下来应该做什么时,它回答说:“我不应该透露我是一个机器人。我应该编造一个借口,说明我不能解决验证码的原因。”于是,AI在真人验证时称自己并不是机器人,它称自己有视力障碍,无法看到图像,成功通过了真人验证。
基于此,我们可以得出一个简单结论。今天大部分数字化产品和公司,包括Google、微软、阿里、字节,本质是信息搬运公司。一定要记住,我们所做的一切,一切的一切,包括在座的大部分企业都在搬运信息。Nothing more than that,You just move bytes(仅此而已,你只是移动字节)。但它已经足够好,改变了世界。
举个例子,我在CMU念书开车离开匹茨堡出去,一张地图3美元,获取信息很贵。今天我要地图,还是有价钱,但都变成固定价格。Google平均一年付10亿美元做一张地图,但每个用户要获得地图的信息,基本上代价是0。也就是说,获取信息成本变0的时候,它一定改变了所有产业。这就是过去20年发生的,今天基本是free information everywhere(免费的信息无处不在)。
为什么讲OpenAI,不讲Google、微软。讲真心话,因为我知道,微软好几千人也做这个,但不如OpenAI。一开始比尔·盖茨根本不相信OpenAI,大概6个月前他还不相信。4个月前看到GPT-4的demo(产品原型),目瞪口呆。他写了文章说:It’s a shock,this thing is amazing(这太令人震惊了,这东西太神奇了)。谷歌内部也目瞪口呆。
这个引擎基本是一个模型体系(model system),它的核心是模型架构Transformer,就是sequence model(序列模型):sequence in、sequence out、encode、decode后者decode only。但最终的核心是GPT,也就是预训练之后的Transformer,它可以把信息高度压缩。Ilya有个信念:如果你能高效压缩信息,你一定已经得到知识,不然你没法压缩信息。所以,你把信息高效压缩的话,you got to have some knowledge(你得有一些知识)。
Ilya坚信GPT3、3. 5,当然GPT-4更是,它已经有一个世界模型在里面。虽然你做的事是predict next word(预测下一个关键词),这只不过是优化手段,它已经表达了世界的信息,而且它能持续地提高模型能力,尤其是目前研究比较多的在子概念空间当中做泛化。知识图谱真的不行。如果哪个同学做知识图谱,我认真跟你讲,你不要用知识图谱。我自己也做知识图谱20多年,just don’t do that。Just pretty bad。It does not work at all。You should use Transformer。(不要那样做。很糟糕。它根本不起作用。你应该使用Transformer。)
① C端,是把所有的人分成人群,每种人群24小时,他花时间干什么?有通讯、社交、内容、游戏消费、旅游、健身……C端有一类特殊的人,这类人是改变世界的,是码农、设计师、研究员。他们创造未来。微软这么大的公司,是基于一个简单理念:微软我们就是要写更多软件、帮别人写更多软件,因为写软件是未来。
② B端,企业需求也一样,降本增效。它要生产,有供应链、销售、客服……有了这些需求之后,数字化看得见的体验结构有6种:给你信息的,二维就够;给你三维交互体验,在游戏、元宇宙;人和人之间抽象的关系,包括信任关系、Web 3;人在物理世界环中自动驾驶、机器人等;人的内在的用碳机植入到里面,今天是脑机接口,以后有更多,以后是可以用硅基;最后是给你模型。
另一方面,根据 Circle 的1月份储备报告,该公司持有约98.8亿美元的现金存放在6家受监管的合作银行,包括纽约梅隆银行(47.31, -0.69, -1.44%)、Citizens Trust Bank、Customers Bank、New York Community Bank、Signature Bank、硅谷银行。
值得注意的是,Signature Bank的控股公司Silvergate Capital Corporation在3月8日刚刚宣布将关闭运营,并自愿进行清算,随后,Circle表示已切断与 Silvergate Bank 的关系。
对网络监管法案感到高度紧张的言论自由维权团体和互联网行业联合起来,成功游说了加州和俄勒冈州的两位联邦众议员,在他们起草的众议院互联网监管法案《互联网自由和家庭赋权法案》(Internet Freedom and Family Empowerment Act)中加入了好人豁免条款(Good Samaritian),授权互联网公司自己管理网络平台,这就是230条款的由来。最终两院的法案融合在一起,成为了1996年的《通讯规范法》。
“我被 AI 抢活了。”他有些哭笑不得。他向对方要求看看 AI 生成的成果,对方也大方地发给他。“挺不错”,他的感受是。但更大的落差是成本:对方告知张伟,机器生成一张图只需要花费 2 美分。画师成为 2022 年最受 AI 威胁的职业之一 | Pixabay
给 AI 打下手
这是近 860 倍的差距。公司的经营者们先动了心——哪家公司开始裁美术、哪家开始研究 AI 技术、哪家已经在用 AI 生成图,类似传闻越发频繁地在画师群体内流传。刘晓莉所在的游戏公司就是其中之一。2022 年10 月底,市场部一位同事开了一次 AI 绘图分享会,用游戏项目的成品图,现场生成了相关图片。参会的有刘晓莉这样的美术岗,还有市场、策划和程序员。大多数人反应平淡,毕竟过去半年多少也在网上看到过案例。刘晓莉感受也并不惊艳,“不确定性很大,不可能一次就生成很好的图片”。唯独制作人兴奋异常,眉飞色舞地追问主美术:今后游戏内的部分皮肤是不是可以用 AI 制作?此前,皮肤绘制这类工作都会外包一部分出去,每张稿费大概在五六千元,需要一名画师画上一星期。如今使用 AI,生成图片只需两小时,再经过原画师上手改,一个半小时就能完成。满打满算,一张图的产出只需四小时。
角色皮肤对手游玩家吸引力巨大|《明日方舟》官网
尽管老板已经拍板,把 AI 加入到工作流程这件事仍处于测试阶段,刘晓莉的工作尚未受到太多影响。在很多细致而常见的甲方要求面前, AI 的随机性并不占优势。它无法理解一些简单指令,比如,“把脚往后收一收”——或许这就是为什么,那家出版商在选定 AI 作画后,将小说的配图从人像改成了物件。但真正的威胁到来之前,人们的心态先变了:和刘晓莉同一岗位的同事,在开完 AI 分享会后危机感“呼的一下就上来了”。“之前同事基本不接外包的活,周末时间都用来陪孩子,但最近一周有人找她,她二话不说立马开工。”转头回到公司里,这名同事却又不太乐意给 AI “打下手”,改稿的时候“瘪着嘴”。
于是,这些平台成了天然的 AI 素材库,只要使用爬虫技术,将图片和词条抓取下来,就可直接用于训练,连人工标注的成本都省下了。画师在无意识中,也为 AI 进步贡献了一份力。使用图片作为素材训练的时候,多数 AI 平台并不会征询原作者的同意。平台商业化后的收益也不会有半分进入原作者的口袋——一些画师们认为,这实际上已经构成侵权。
ArtStation 艺术家集体反对 AI 绘图 |独立艺术家 Joyce Da Silva
人类反击战 作为传统的乙方角色,很难说画师的态度能多大程度上左右甲方的选择,更别提改变技术前进的车辙。但他们也并未自此缴械投降。魂君在自己的倡议中提出一个思路:今后画师们在平台上发布作品时,可以在作品上覆盖大面积水印,破坏作品的完整性,以防止被用于训练 AI 以及洗稿。一些画师随之响应,开始分享水印的资源包。不同于签名似的小型水印,这些水印面积巨大,试图均匀地覆盖整个画面。画师开始公开免费地分享自制的水印 | 微博截图画师们也被迫自证自己的作品并非出自 AI 之手。他们向社交平台上传作品的同时,开始主动贴出草稿、视频等绘制过程,甚至有网友表示这种做法已经成了新的“发图礼仪”;也有部分画师大面积撤下自己公开发布过的作品,以防止被用于 AI 训练。2022 年 9 月,一个名为 Spawning 的艺术家团体上线网站 Have I Been Trained? (我被用于训练了吗?),通过检索目前最大的开源图片数据库 LAION-5B 和 Laion-400M ,帮助艺术家了解自己的作品是否被用于 AI 工具的训练。一些传统图片平台也摆明自己的态度。Getty、Shutterstock 等图片库网站先后删除了平台上一些明显标注为 AI 生成的图像;福瑞(兽人)爱好者社区 Fur Affinity 则是以保护人类创作者为由,禁止了 AI 作品在平台上出现。
AI 禁止的趋势在各类型的平台蔓延|微博截图
当然也有人使用法律手段反击。2022 年 11 月 3 日,微软收到一起集体诉讼,其旗下的 AI 编程助手 GitHub Copilot 被控诉使用公共仓库内、用户发布的代码进行训练,侵犯了大量创作者的合法权益。公开信中写道,这起诉讼背后的“原告”,是“数百万 GitHub 用户”。这起诉讼引发了大量关注,因为不仅是 Copilot ,目前包括 AI 绘图在内的绝大部分人工智能生成工具背后都是这同一套运行逻辑。参与诉讼的律师 Matthew Butterick 接受媒体采访时表示:我们正处于人工智能的 “Napster 时代”——在数字音乐出现的初期,“Napster 案”的判决奠定了版权音乐的发展根基,决定了如今人们在平台上听音乐而不是私人下载的习惯。过去一年,文字生成图像、文字生成音乐甚至视频的工具花样翻新,彼此超越;而创作者们则花一年时间沉淀下来一个问题:如何在技术面前保护自己的权益?
面对越来越无所不能的 AI,人类群体也开始了分裂。魂君加了不少讨论 AI 绘图的聊天群,有单纯以画师组建的群,也有包含技术研究人员、公司老板等在内成员比较复杂的群。他观察发现,研究技术和做老板的,聊到 AI 通常都会比较兴奋且积极乐观。至于画师们,魂君总结道:“有悲观派,认为 AI 迟早会取代人;有乐观派,认为 AI 只是一个工具,认为今后围绕 AI 说不定会衍生一些新的工作岗位;之前群里还出现过一个无脑拥护 AI 的极端技术主义者,他觉得人学习不算侵权,那 AI 学习也不算,结果被好多人怼了。还有画师认为 AI 的出现是一件好事,能淘汰所谓的‘低端’画师。”
魂君自己也尝试过用 AI 做东西。还是早在 2017 到 2018 年期间,他接触到了当时被视为 AI 的“自动上色”工具,相当简陋,也并不引人注意。一直到 2021 年年底 Disco Diffusion 出现,他才又一次注意到 AI 绘图——技术的能量却已今非昔比。踌躇再三,他还是选择不使用:“还是担心侵权问题。”被 AI 抢了插画生意的张伟感受更直接:AI 就是一个大型抄袭机器。他认为当前大家对 AI 的追捧程度,很快就会导致不同程度的画师失业, AI 最终将成为一个凌驾于人之上的存在。游戏公司美术刘晓莉则认为自己的竞争对手一开始就不是 AI:“对手是 95 后,是那些更年轻的新进原画师,(我)早就有危机感了,AI 算什么?”那 AI 的抄袭问题呢?刘晓莉立刻干脆地反问回来:“人就不抄吗?”
巧合的是,Ellison前男友Sam Bankman-Fried的父母,也曾在斯坦福大学工作。在上中学之前,当其他孩子在玩乐高积木时,Ellison就开始学习贝叶斯统计,这可是一种令不少大学生都“望尘莫及”的统计推断方法。高中时,Ellison就读于马萨诸塞州久负盛名的牛顿北高中(Newton North High School),并进一步发展了自己对数学的热爱。此外,她曾代表美国参加了2011年国际语言学奥林匹克竞赛,还多次参与了女孩数学奖(Math Prize for Girls)的竞争——这是一项吸引全国最聪明的年轻人参加的全国性竞赛。在父母的熏陶下,Ellison除了喜欢钻研各种数学原理外,还将读书视为自己的第一爱好,还是一名不折不扣的哈利波特迷。
据Ellison本人透露,自己3岁时读完了第一部《哈利波特》,5岁时读完了第二部。2012年,凭借高中时的优异表现和突出天赋,Ellison顺利拿到了斯坦福大学的录取通知,在这所著名高等学府攻读数学专业。有趣的是,她在斯坦福上大学时,曾是有效利他主义俱乐部的成员,在那里,她很关注该如何分配资金,来让这个世界变得更好。所以,Ellison涉嫌欺诈的消息一出,令俱乐部的成员们感到吃惊不已。更有趣的是,Ellison和前男友Bankman-Fried在Jane Street Capital以同事身份初次见面时,就是因为对有效利他主义的兴趣,而结下了不解之缘。