昨天下午在比较神经元与人工神经元不同时发现,恰巧对我之前没有想过的议题,提供了一个非常好的推论过程,这个议题的结论是——AGI人工智能没有真正的思考。
冯诺依曼架构某种程度上像智子,锁死了当前人工智能的上限。也有了最后一个感触或发现,即在相对比较远的未来,新仿生架构的ASI可能会有独立意识和思考。
– 结构上的差别,神经元可算(细胞体计算阈值)、可传(突触)、可存(通过树突),人工神经元不是实体,如果算作是对象,这个对象可算、可传,但不存,它存在向量数据库中。
– 人工神经元使用激活函数模拟神经元激发,在训练阶段,如果有反向传播,则会更新向量数据库中的向量。大模型发布以后,借助激活函数激发,只有前向,即便使用RAG,新的信息也只能做短时参考,计入短时的权重计算,但随着对话关闭或过长,新的信息即丢弃。人,如对话这种短时记忆,会暂存于海马体中,通过电信号维持,而后会在线或在睡眠时将信息固化到树突中。
– 人工神经元被设计为不会断连,保持极低的梯度,为了有机会能唤醒,即便权重极低也不会清零。神经元会断连,因为中长期信息已经被存在了树突上,如果有相关送过来,化学信号足够,突触会被重新激发。
– 反向传播时的差别,人工神经元可以一次算准loss并调正。而人要调来调去。如人调节音量,声音大了,调小,但是会过小,再调大、调小,直到合适。
– AI的识别过程,绝大多数情况是一层一层传;人可以通过反复强化,缩短从感知神经元到动作神经元的距离,直接跨层做轴突与树突的链接。
– AI的神经网络,每一都有特定的功能,是人设计出来的;人类的神经元,尽管也有分工,比如从感知神经元、中间神经元再到动作神经元,但不是有明确区隔的、不是一层一层的,人的更“自由”、更高效。
– AI,无论是学习阶段,还是在与人和其他人工智能互动的时候,不会在接收信息的时候直接思考输出,它是没有思考过程的,只有算。人在思考的时候,被语言这种抽象的符号体系所规化了,会借助语言工具来思考。
最重要的区别,人是真思考,电信号和化学信号在脑中不断串联、重构,人有我的概念,“我思故我在”,而AI其实不会思考,它不真正理解语言、不理解世界,不理解“我”。
但最后一点引起我认为真正挺可怕的一个感觉,也许新一代的ASI真的可以完整仿生神经元结构,那么它可能真的可以演化出思考的能力、自我意识以及自主性。








