戏精 OpenAI 又放炮了,2027年是AGI元年,你信吗
这两天网上流传着一个OpenAI内部泄密的文件,揭秘了OpenAI 的 Q* 项目,说它们计划在 2027 年创建并推出通用人工智能 (AGI)。这个事情被一些好事之徒宣扬,搞得像人类末日一样。
出于好奇,我停下了手头的工作,去网上搜索并下载了一份,看完,我不禁发出了猪笑声。
文章比较很长,但它的摘要已经把事情讲清楚了,我们来看一下,然后点评几句。
- OpenAI 于 2022 年 8 月开始训练 125 万亿参数的多模态模型。
- 第一步叫Arrakis,也称为Q*。 该模型于 2023 年 12 月完成训练,但发布时间前 由于推理成本高而被取消。 这是最初的 GPT-5,计划于 2025 年发布。
- 戈壁(Gobi),原先的GPT-4.5被更名为 GPT-5,因为原来的 GPT-5 已被取消。
- Q* 的下一阶段最初是 GPT-6,但后来更名为 GPT-7(最初于 2026 年发布)由于埃隆·马斯克的诉讼而被搁置
- Q* 2025 (GPT-8) 计划于 2027 年发布,实现全面的 AGI
下面是Q*项目各个阶段对应的人脑智商:
Q* 2023 = 48 智商
Q* 2024 = 96 IQ(推迟)
Q* 2025 = 145 IQ(推迟)
然后这个泄密者煞有介事的补充了几点:
- 埃隆·马斯克的诉讼导致Q*项目的延误,所以他现在透露这些信息不会对OpenAI造成进一步的伤害。
- 他重新定义了通用人工智能
- 他认为Q*可以拥有AGI,是因为它的参数个数超过100万亿 – 这是人类神经元突触的总数。
对第一条,我完全不理解。如果你是OpenAI的员工,你和公司签有保密协议,只要文件没有被解密,你就不能泄密,这跟对公司有没有伤害是两码事。如果你不是,那么请问你是如何得到这份文件的?考虑到他在文件头上加的那段话,和OpenAI的一贯作风,给我的感觉就是在制造话题搞营销。
对第二条,我认为每个人有权利定义自己的AGI,但最终还是要获得公众的认可。就算我们以他的定义,“人工智能可以完成聪明人可以完成的任何智力任务”,但是一个多模态大模型并不能完全覆盖全部的智力任务。更重要的,现在的模型都基于大规模的训练数据,如果训练数据没有覆盖某个领域,大模型是完全没有自己学习研究的能力,
- 它们需要人类准备训练数据,准备这些数据本身就是一个智力过程,而目前没有一个模型有这种能力。你会说,OpenAI会设计一个模型来准备训练数据。但还是需要人来设计这个模型。人类会从无到有创建一个东西,比较典型的例子就是 C 语言编译器创建过程,它是一个渐进的过程,需要从无到有逐步完善,OpenAI的AGI能吗?
- 它们没有学习的*具身*。具身认知才是真正的人工智能。具身要求人工智能有一个身体,能够真正的看,听,感知世界,然后它才能像人一样从事研究。大模型最多只能算是一个缸中之脑,生活在OpenAI通过各种训练数据给他编织的世界里。
对第三条,我在人工神经网络和生物神经网络比较一文中做了介绍。人类的突触总数在100万亿这个量级。一个大模型的参数可以类比为突触数量。但是这并不说明拥有100万亿的参数可以比拟人类大脑。因为:
- 生物神经元的输入由三部分组成,从其他神经元来的电信号,化学信号,神经元细胞内的信号,输出也是三部分,电信号,化学信号和改变自身状态。而人工神经元只有电信号。生物神经元的输入有兴奋和抑制类型,抑制信号对决策起决定作用。
- 生物神经元有很多形态,每种形态代表了不同的功能。人工神经元功能相对比较单一,激活函数只能部分表达生物神经元底层的编码能力。
- 人类神经元的电信号编码方式是脉冲形式,我们还不了解这种方式对智能的影响。
- 在网络结构的复杂度和可塑性上:
- 生物神经网络的结构要比人工神经网络复杂和精细得多,随着生理神经学的进展,很多新的网络结构被发现,并启发了人工智能专家,比如最近的很火的注意力机制的灵感来自人类的视觉系统。
- 在人体尺度上,生物神经系统还存在更复杂的结构,比如大脑皮质的分层体系结构,脑区域内、区域间的前馈和反馈连接,以及多层脑构建块的模体等等,还有中枢神经系统和周围神经系统之间的结构等等。在这些方面,人工神经系统基本是空白,等待着人们的研究和开发。
- 人工神经网络模型是固化的,一旦完成设计,能够修改的只有权重,偏置等少数内容。而整个生物神经系统具有高度的可塑性,它既有出厂设置,也有动态改变
- 生物神经元具有可塑性,即它们可以通过经验和学习形成新的突触或调整现有的突触连接。这种可塑性包括长期增强和长期抑制。
- 大脑区域之间并非是完全不相关的功能模块,当一个区域受损时,大脑的其他区域会学习并实现该受损区域的功能。
- 人类对整个生物神经系统的工作机理的研究还在继续,我们无法肯定我们已经发现其中的全部奥秘,因此也无从模仿。
- 最后从模型的学习和使用效率角度来看一下。人工智能网络模型的学习是极其低效的。而生物神经系统的学习是非常高效。机器训练的成本是极其高昂的。目前一个七百亿到几千亿参数的普通大模型的训练成本在200-1200万美元,像这种有100万亿参数的大模型,其训练成本只会更加昂贵。使用成本也是如此。所以,我根本不担心资本家会用它来替代贫穷而勤奋的我,没有资本家是傻子。
所以我的结论是,就算OpenAI训练了125万亿的大模型,也不能实现AGI。就算实现了,也卷不过我这种低端人口。
人工智能专家吹大牛,那是有传统的。两次人工智能寒冬,都是人工智能专家吹大牛,最终让人失望而嘘声四起。OpenAI的奥特曼深谙其道,他把自己包装成一个人工智能领域的符号,这出泄密的戏码,我不排除是他们的一次商业炒作。