如果算力无限,人的意识、情感能否被计算机模拟出来?

如果算力无限,人的意识、情感能否被计算机模拟出来?

赵泠,最高的轻蔑是无言,而且连眼珠也不转过去。

不需要“算力无限”这种毁灭性的前提。计算机可以模拟人的行为、让人以为它是人。这是图灵测试的基本理念。

  • “模拟出来”这词语通常不要求机器里产生“真正的”意识和情感,而是关注现象。
  • 2023 年,AI21 Labs 公司创建了一项名为“Human or Not?”的测试,让大语言模型与 200 多万名人类参与者进行了超过 1000 万次类似图灵测试的试验。结果显示,机器骗过了约 32% 的人类参与者。这已经满足图灵在 1950 年谈论的比例。
  • 2024 年以来,大语言模型在一些特定场景里的表现被解读为通过了图灵测试。
  • 无限的计算力需要无限的质量和无限的能量,具有无限的计算力的设备的物理性质会将其周围的一切毁灭殆尽,如此毁灭的范围大概会以真空光速向四面八方延伸。

通过图灵测试意味着机器具有智能,而不意味着机器具有人格或意识。不过,动用他心问题和高度的怀疑论,你可以质疑其他人有没有人格、有没有意识,可以质疑你自己究竟是人还是机器还是别的什么。

不考虑超验问题,人脑的质量约 1.5 千克,体积约 1.26 立方分米,视为球时半径约 6.7 厘米,利用黑洞热力学的若干推论,可以算出人脑的贝肯斯坦上限约 2.6e+42 比特。人脑中所有物质、能量、信息的精细排列组合的种类数不会超过 10^(7.8e+41)——在当前历史阶段,人脑还用不着考虑这种精确到普朗克面积的玩意,人的意识、情感对应的信息不会很多,需要的计算力不会很大。考虑人脑的实际结构和用于神经活动的能量,可以知道,人脑的“复杂程度”极大幅度低于贝肯斯坦上限给出的极值。

  • 人脑的大多数神经细胞用于意识之外的功能,例如调控身体。
  • 人脑整体的有效信息量可能在 1e+15 比特的水平,乐观估计可以再多几个数量级。
  • 人脑整体的计算力乐观估计在 1e+16 次每秒以内,人脑九成以上的计算力并非有意识思维所能利用。
  • 估计人脑的信息储存能力在 4.7 比特每突触到 100 字节每突触。可以看看我回答过的:突触储存信息的容量是如何估算出来的?
  • 估计人脑每秒可处理约 1100 万比特信息,其中“有意识的思维”每秒处理约 40 比特到 120 比特信息[1]
  • 清醒的人脑和处于快速眼动睡眠状态的人脑的能耗约 17 到 20 瓦[2],慢波睡眠的人脑的能耗约为清醒时的 85%,啮齿类实验动物也有类似的比例变化[3]
  • 对意识障碍患者的研究显示,维持意识状态所需的最低皮层代谢活动是正常人清醒时皮层代谢活动的约 42%[4]
  • 人脑灰质的神经计算功率约 0.1 瓦、通信功率约 3.5 瓦[5]。一篇 2020 年公开的预印本论文显示,以 ATP 消耗量计算,人脑的神经计算功率约 0.17 瓦、皮层通信功率约 4.6 瓦[6]

一些媒体向大众介绍过默认模式神经网络[7]。以下引用:

(前略)“大脑始终处于活跃状态”并非新观点,脑电图的发明者汉斯·伯格就是这个观点的支持者。他在一系列开创性论文中,根据仪器检测到的不间断脑电波推测,“中枢神经系统始终处于相当活跃的状态,而不仅仅是在人们清醒的时候”。
只需对大脑成像图进行肉眼观测,就能找到大脑背景活动存在的证据:无论来自对照组还是试验组,大脑成像图总是显示,多个脑区都处于相当忙碌的状态。进一步分析发现,在执行特定任务时,大脑消耗能量的上升幅度不会超过基础神经活动的 5%。在神经回路中,大部分神经活动都与外部事件无关,这些活动消耗的能量占大脑总消耗能量的 60%~80%。因此我们借鉴天文学家的说法,把这些固定存在的神经活动称为大脑的暗能量——正如看不见的暗能量占据了宇宙中物质能量的绝大多数。
推测大脑暗能量可能存在的另一个理由是,研究发现只有极少的感官信息能够真正抵达大脑的中枢处理区域。视觉信息从眼睛传向视觉皮层的过程中,信号强度会大幅衰减。
我们周围存在无数信息,每秒约有上百亿比特的信息抵达视网膜,但与之相连的视觉输出神经连接只有 100 万个,每秒钟视网膜传向大脑的信息只有 600 万比特,最终能到达视觉皮层的信息只有 1 万比特。
经过进一步处理,视觉信息才能进入负责产生意识知觉的脑区。令人惊讶的是,最终形成意识知觉的信息每秒钟不足 100 比特。如果这些是大脑所能利用的全部信息,如此少的信息量显然不大可能形成知觉,因此固定存在的大脑神经活动必定在此过程中发挥了某种作用。
神经突触的数量也暗示大脑暗能量可能存在。突触是神经元间的连接点。在视觉皮层中,负责传递视觉信息的突触数量还不到全部突触的 10%。因此,大部分突触肯定是用于建立视觉皮层内部神经元间的联系。(后略)
文 / 马库斯·雷切尔(华盛顿大学圣路易斯分校神经科学家)
译 / 冯泽君
选自环球科学公众号,有删节

引用完。

2025 年 7 月 2 日发表于的一项研究称,基于 Llama 3.1 70B、用心理学数据集 Psych-101 微调的大语言模型 Centaur(半人马)可以在 32 项实验任务中的 31 项比过去的心理学模型更好地模拟人类受试者给出的选择,在变体任务中有类似的表现,或许能在任何使用自然语言的实验中生成类似人的行为。doi.org/10.1038%2Fs4158

一些学者并不感冒:

  • 加拿大麦吉尔大学的计算神经科学家 Blake Richards 认为,该模型没有真正模拟人类的认知过程,不会总能产生与人类行为一致的结果。
  • 英国布里斯托大学的认知科学家 Jeffrey Bowers 称,该模型在短期记忆测试中能够一次记住 256 个数字(人通常可以记住约 7 个),该模型在反应时间测试中的反应时间为毫秒级,这些都和人大相径庭。
  • 马克斯·普朗克研究所的 Federico Adolfi 认为,Psych-101 不足以对应更严格的测试。

对此,论文作者提出将来会使用明显更大的数据集。

读者不难注意到这些反对意见的模式,其中还有“你这个模型的一些认知表现比人强所以不能良好模仿人”的经典陈述。