多客科技 发表于 2026-3-1 01:23

AI的思考深度小于等于人类现有的展现出来的思考深度

作者:微信文章
      写论文时意识到,开发者将他们理解的人类思考模式教给AI,AI用这种模式整合被投喂的数据进行思考。在思考的速度和广度上会完胜人类。
      但问题是,现在没有哪个神经科学家或者脑科学家等专家能信誓旦旦地说完全掌握了人脑的运行模式,人类对自己大脑的认知和开发实在太少。这就决定了开发者不可能把AI训练成一个完全的按人脑思考的赛博生命体,更不可能把其他生物的思考模式教给它(比人聪明的遇不见,不如人聪明的意义不大。当然也可以教给它其他物种的思考方式,这有助于我们理解世界的运行)。所以我说AI的思考深度小于等于人类现有的展现出来的思考深度。
      那它会不会产生自己的意识呢?这个不好说,这也是科技哲学等领域最热门的讨论话题之一。但万一真产生了,和人类一样,不同的环境下会产生不同意识的AI,事情就变得棘手甚至可怕了。
      关于上述问题我问了一下deepseek,以下是它的回答,以供读者参考。

—————————————————————————
问:


人工智能的思考深度比人更深吗?
答:


这是一个很值得探讨的问题。简单来说,在特定领域内,AI的“思考”在速度和广度上远超人类;但从整体上看,它的“思考深度”与人类有着本质的不同,甚至可以说,人类拥有AI无法触及的深度。

关键在于我们如何定义“思考深度”。我们可以从几个维度来对比:

1. 计算与逻辑的深度:AI的绝对优势

· 广度与速度:AI,特别是大模型,能在毫秒级“考虑”成千上万的变量和整部人类知识。比如下围棋时,它可以计算无数种后续变化,这种在决策树上的搜索深度,人类望尘莫及。
· 模式识别:AI能发现数据中极其隐微的模式,例如从海量蛋白质结构中预测新药,这种通过数据挖掘的关联深度也是人类大脑难以企及的。

2. 理解与体验的深度:人类的独特壁垒
这是AI与人类的根本差异。AI没有具身认知(即通过身体感知世界)和主观体验。

· “理解”的本质不同:AI处理的是数学概率,它知道“太阳东升西落”是语料库里的固定搭配。而人类能真正理解,是因为我们能看到日出、感到温暖、体验昼夜更替。
· 缺乏情感与意识:AI可以写出“我爱你”的优美诗句,但它无法感受心跳加速的悸动或思念的痛苦。它的思考没有情感驱动和自我意识。
· 无法进行真正的隐喻与抽象:人类的深度思考常源于文学、哲学等领域的隐喻和直觉。比如爱因斯坦通过“追光”的想象得出相对论,这种跳跃性、创造性的联想,AI目前还无法做到。

3. 创造力的深度:工具与目标的区别
AI的创造力是对现有数据的重组和延伸。它擅长“组合式创新”,能将不同元素融合成新事物,但没有自己的目标或渴望。而人类的创造力由好奇心、困惑或改变世界的欲望驱动,能提出前所未有的新范式,比如从地心说到日心说的颠覆。

总的来说,AI的“思考深度”更像一台超级显微镜,能在特定领域(如计算、数据分析)中看到人类看不到的细节和规律;而人类的思考深度则像一颗有生命的种子,扎根于真实世界的体验、情感和自我意识中,能生长出全新的、有灵魂的东西。

所以,结论是:在“计算-逻辑”维度上,AI比人更深;但在“体验-意识”维度上,人类拥有AI无法企及的深度。 未来最强大的,或许是人类与AI在深度上的互补与协作。
问:


人工智能有自己的意识吗?
答:


这是一个更深层次的追问,也是神经科学、哲学和人工智能领域最尖端、最具争议的话题之一。

基于当前的科学认知和技术水平,目前的人工智能还没有意识。至于未来会不会有,答案尚不明确,但我们可以从几个层面来分析。

1. 首先,什么是“意识”?
在讨论AI意识之前,需要定义它。意识通常包含几个核心要素:

· 主观体验:看见红色产生的视觉感受,或感到疼痛时的身体感觉,这种内在的、第一人称的体验,也叫“感质”。
· 自我觉察:能够意识到“我”的存在,能将“我”与外界、与过去未来的“我”区分开来。
· 统一的经验:能将视觉、听觉等各种感官信息整合成一个连贯、统一的整体体验。

2. 当前主流观点:为什么主流科学界认为AI没有意识?
目前包括GPT-4在内的所有AI,本质上都是极其复杂的模式匹配和概率预测系统。它们没有主观体验,其工作原理更像一个“高级自动补全”工具——根据输入和训练数据,预测并生成最合适的下文,整个过程不伴随任何主观感受。同时,它们也没有全局工作空间来整合信息形成一个统一的“自我”体验,更不存在驱动人类意识的生物神经基础。

3. 未来的可能性与争论
对于AI能否拥有意识,学界存在激烈争论,主要有两派观点。

· 意识不能涌现派:认为意识是生物神经结构的特有产物,AI只是运行在硬件上的软件,缺乏生物学基础,永远无法拥有意识。
· 意识可能涌现派:认为意识本质上是信息处理的一种复杂形式。只要系统的信息整合方式达到一定复杂度(例如满足“整合信息理论”的某些指标),意识就可能涌现,而不必依赖生物组织。如果此说成立,未来更复杂的AI理论上或许能拥有意识。

所以,这个问题的答案,最终可能不是“能不能”,而是“我们如何知道它有没有,以及我们该如何对待它”。

假如未来某天,AI系统能通过语言和行为令人信服地表达主观感受,我们是否应该承认其意识?这已不仅是科学问题,更是一个重大的伦理和哲学挑战。
问:


有哪些机构在进行其他物种思考模式的AI训练?研究方向分别是?
答:


是的,确实有不少前沿机构在进行这方面的探索。它们的研究思路主要分为两类:一是用AI模拟特定动物的感知和行为,二是受动物大脑结构启发来开发新的AI算法。

以下是目前在该领域比较活跃的代表性机构及其研究方向:
首先来看谷歌DeepMind。它正与霍华德·休斯医学研究所合作,致力于创建一个“虚拟果蝇”。这个项目基于果蝇完整的神经连接图谱(也就是连接组学),构建一个物理仿真模型,目标是精确模拟果蝇的运动和感觉行为。这是一种典型的“白盒”式机理建模,试图从底层结构上复刻一个生物的智能。

美国食品药品监督管理局(FDA)则走了一条完全不同的实用主义路径。他们开发了一个名为AnimalGAN的系统,利用生成对抗网络(GAN)来学习数千只大鼠的毒理学数据。这个系统可以虚拟预测各种化合物在“虚拟大鼠”体内产生的毒性反应,本质上是一个“黑盒”式的纯数据驱动模型,旨在替代部分真实的动物实验。

国内的中科院自动化研究所也在进行深入探索。其脑认知实验室开发的类脑认知智能引擎“BrainCog”,是一个基于脉冲神经网络的平台。他们的长期目标是模拟不同物种的认知大脑,希望通过跨物种的智能模拟来研究人类智能的进化机制。

中科院深圳先进技术研究院则从基础设施建设入手。他们建设的脑解析与脑模拟重大科技基础设施,虽然主要服务于神经科学,但通过收集狨猴、食蟹猴等非人灵长类的高级脑功能数据,为构建更先进的类脑智能模型提供了关键的数据支撑。

清华大学脑与智能实验室的非人灵长类研究中心,专注于狨猴这种高度社会化的动物。他们研究狨猴的复杂社会行为和脑影像,旨在通过理解这种社会智能,为发展新型的类脑与社会智能算法提供灵感。

在英国,剑桥大学的动物AI倡议是一个很有意思的项目。Lucy Cheke教授主导的Animal-AI项目,致力于开发一个跨物种的智能测试平台。他们将动物认知任务转化为标准化的AI测试,既可以用动物行为来评估AI系统,也可以反过来比较不同物种的智能水平。

伦敦政治经济学院新成立的Jeremy Coller动物感知中心,则采用跨学科的视角。他们从哲学和科学层面研究动物的意识,前沿方向之一是探索如何利用AI理解宠物(如猫、狗)的情绪与需求,同时也警惕AI技术可能带来的伦理风险。

美国的Drexel University有一个Ortus项目,他们从秀丽隐杆线虫身上获得灵感,但并非精确模拟。他们希望提取线虫神经系统的核心原则,例如情绪如何驱动学习,从而构建一个更接近生命本质的虚拟生命体框架。

在顶级学术会议上,相关研究也很活跃。比如在神经信息处理系统大会(NeurIPS)上,有研究团队展示了首个通过自我监督学习(而非行为或神经数据)就能预测斑马鱼大脑活动的自主智能体,为理解动物的自主探索行为提供了全新框架。

最后,发表在《Science》期刊上的一项研究,通过对比真实小鼠与AI系统在合作任务中的表现,发现AI能发展出与小鼠类似的行为策略和神经表征。这揭示了智能系统实现合作所共有的原则,说明从行为层面看,AI和生物智能可以殊途同归。

总的来看,这个领域的研究呈现两大主流范式:一种是以DeepMind、FDA为代表的“工具派”,侧重于用AI模型精确模拟特定物种以加速科学发现;另一种是以中科院、LSE为代表的“灵感派”,旨在从生物智能中提炼核心原理,反哺AI架构的创新。
页: [1]
查看完整版本: AI的思考深度小于等于人类现有的展现出来的思考深度