你的位置:gm游戏哪个平台好 > 新闻动态 > >人的智能与机器智能
热点资讯
新闻动态

人的智能与机器智能

发布日期:2025-04-18 11:20    点击次数:75

人有智能,机器也可以有。本文试图从多个方面详细对比人的智能与机器智能,探讨它们的相似之处和不同之处,从而帮助我们从人的角度去理解机器智能,也让人可以更好地发展和利用机器智能。

人类智能和机器智能的不同特点

人的智能是一个复杂系统。概括讨论时至少可以分为四种能力。

第一,感官能力:视觉、听觉、嗅觉、味觉和触觉。这些感官不仅帮助我们接收来自外界的物理刺激,还通过复杂的大脑处理系统将这些刺激转化为可理解的信息。比如视觉不仅帮助我们识别物体的形状、颜色和大小,还能感知空间关系和运动轨迹,进行物体的空间定位。人类的感知系统不仅能准确识别单一的感官信息,还能将多感官信息综合起来,形成更加全面的感知体验。

第二,高度的推理和抽象思维能力。我们不仅能够从已有的信息中推理出结论,还能够进行抽象思考,创造新的知识。例如,数学中的证明、科学理论的构建,都是高度抽象的思维表现。逻辑推理能力让我们能够处理复杂的因果关系,形成假设并验证其正确性。归纳推理则帮助我们从有限的观测数据中总结出普遍规律。

第三,情感理解能力使我们不仅能够识别和体验自己的情感,还能理解他人的情感,并通过同理心作出适当的回应。同理心的作用不仅限于个人之间的互动,还影响着我们在更广泛社会层面的行为。例如,在合作和集体行动中,人类通过理解他人的需求和情感,能够在复杂的社会环境中协作并共同解决问题。

第四,创造力和灵活性是人类智力的另一个显著特征。人类不仅能够解决已有问题,还能创造新的思想、艺术品和技术。我们能够应对新环境中的复杂问题,利用先前经验和直觉进行灵活调整。创新不局限于单纯的逻辑推理,它往往是通过打破常规、跨界融合和对不确定性的探索来实现的。人类的创造力使我们能够从零开始,提出新问题并找到新的解决方案。

虽然都是智能,相对于人类智能来讲,机器智能表现出一系列完全不同的特点。机器智能的核心优势之一在于其强大的运算能力和存储能力。计算机通过晶体管开关来快速处理信息,能够在短时间内完成大量的数据处理任务。现代超级计算机每秒能够进行数万亿次的计算,处理的数据量也达到了惊人的水平。这种高速计算和存储能力使得机器在许多领域,特别是大数据分析和科学模拟方面,大大地超过了人类的处理能力。

机器智能依赖对大数据的学习,而人类则可以通过少量的样本或经验做出有效的推断。人有很强的直觉和创造性,能够根据情境的变化迅速调整策略,解决新的问题,并在没有明确指导的情况下作出决策;但机器更依赖于既定规则和数据驱动的模式识别,因此在面对未知或没有明确数据的情况时,机器的学习效率和准确性往往大打折扣。

机器智能虽然在信息处理能力上远超人类大脑,但也伴随着巨大的能源需求。人工智能系统,尤其是在进行深度学习时,需要消耗大量的能源。数据中心通常需要巨大的电力供应,才能维持系统的正常运行。一个GPU的功率是500瓦,训练一个大模型得要上万个GPU并行运算。相比之下,人类大脑的能量消耗极低,只有大约20瓦到30瓦的功率,相当于一个不大的灯泡。

语言在人类智能中的核心作用

语言不仅是人类沟通的工具,也是思维的载体。它是表达思想、传递信息的核心媒介。语言的独特性在于它不仅能够传递具体的信息,还能够帮助人类进行抽象思维和创造性思考。语言的形式多种多样,从口语到书面语言,再到更为复杂的符号语言,以不同的形式高效地承载丰富的信息。

口语和文字是人类最基本的语言形式。口语使得信息能够快速而直接地交流,而文字则提供了记录和保存信息的方式。文字的发明大大推动了文明的进步,它使得知识能够跨越时空传递,从而极大地提高了人的学习和沟通的效率。

语言本身是一种低维度、低通量、低速率的信息传递方式。人类的口语语速和文字阅读能力通常是每秒几个字节,而计算机则可以达到每秒数千兆比特(Gbps)的速度。同时,人类语言的信息维度相对较低,主要通过文字、语音等有限的表达形式传递信息,而计算机则可以通过多维信息(如图像、视频、音频、网络数据包)来传输和处理信息。人类可以用视觉和听觉来感受多维信息,但很难用语言来描述。比如,我们被一幅画或者一个交响乐所震撼,但很难仔细描绘是为什么,只能说出感觉。一般只有当人们把信息可以用语言来表达的时候才说有了“理解”,而对那些无法用语言描述的认知叫“感悟”。在人们试图去理解复杂事物时,必须对多维信息进行降维处理,所以也会因此损失一部分信息的深度和复杂性。

人类智能的生物学基础

人类的智能是一个复杂的现象,涉及大脑的神经网络、基因的作用以及后天的学习过程。人类的大脑是高度复杂的器官,由约860亿个神经元组成,这些神经元再通过约100万亿个突触相互连接,形成一个错综复杂的神经网络。这个神经网络不仅负责基本的生理功能,还支持高阶的智能,如语言、推理、问题解决、情感调节等。其中,突触连接的可塑性,即神经元之间连接强度的变化,是学习和记忆的生物基础。

DNA(脱氧核糖核酸)是生命的遗传信息载体,它包含了所有生物体形成和功能运作的指令。人的DNA包含大约30亿个碱基对和约2.5万个基因。基因的表达可以直接影响大脑神经元的生成、突触的形成以及大脑神经网络的连接,这为我们思考、学习、记忆和情感调节等各类智力活动提供了基础。

人类的大脑与其他动物的神经系统相比,具有独特的优势。首先,人类大脑的神经元数量远超大多数动物。前面说过,人有860亿个神经元,黑猩猩有280亿个,而到了狗就只有2.5亿个左右。此外,突触的数量也是影响大脑功能的一个重要因素。研究发现人类的大脑中的突触数量也远超其他物种。

虽然神经元和突触的数量并非智能的唯一决定因素,但却是毫无疑问的物质基础。就像芯片,不见得晶体管越多性能就越高,因为还有架构和算法等其他因素在起作用。但如果其他条件一样,一般来讲,晶体管越多,算力就越大。

机器学习

基于深度神经网络的机器学习是AI飞速发展的一个决定性因素。如何来理解这种算法上的突破?一种看法来自神经网络之父杰弗里·辛顿(Geoffrey Hinton),即通过计算机模拟人脑的工作原理。辛顿研究的初衷并非是为了制造可以拿来用的智能机器,而是为了理解人的智能:由于人脑的神经网络过于复杂,就试图用模拟人脑的神经元及其连接方式来帮助我们构建具有自主学习能力的系统。他认为对于这种机器智能的研究,反过来能让我们对人的智能有更深入的理解。

但辛顿的这种观点属于极少数,绝大多数AI专家的观点是把它看作是一种对传统统计计算的延伸。经典的统计方法往往假设数据之间的关系是线性的,然而,现实世界中(图像处理、自然语言处理等)的数据关系往往是高度非线性且多维的。普遍逼近定律是神经网络的一个核心理论,它表明,只要神经网络的规模足够大,理论上它能够逼近任何非线性函数。这一理论为神经网络的强大表现提供了理论依据,意味着神经网络能够通过足够的训练来解决几乎任何复杂的非线性问题。注意这里AI并不需要和人一样思考,它更是一种机器处理数据的方法,是一种完全不同的智能。

在现实中我们观察到的是规模定律的表现。规模定律指神经网络的性能往往随着网络规模的增加、数据的增加、算力的增加而增强。所以当有复杂、困难的学习问题需要解决时,往往可以通过增加数据、算力、模型的规模来实现。

机器学习的算法有很多种,永远在进化过程中。概括起来,有三种起到非常重要的作用。

第一,向人类的智慧学习。向人类学习的方法有监督学习与无监督学习。在监督学习中,机器通过已标记的训练数据来学习输入与输出之间的关系。对数据的标记是人类智慧的体现。与监督学习不同,无监督学习并没有对数据进行标注,而是让机器自主识别数据中的潜在结构。比如,如果把互联网上的文本用来做自然语言处理的学习,这些文本都是人类智慧的结晶,机器学习到的规律就自然来自人类的智慧。

第二,向自然学习(强化学习)。强化学习是机器通过与环境的互动进行学习。与监督学习不同,强化学习没有明确的标签,而是通过奖惩机制来调整行为。机器会根据执行某个动作后的奖励或惩罚来调整自己的行为策略,从而优化未来的决策。强化学习在游戏(如围棋、象棋)和机器人控制等领域有广泛应用。

第三,向其他模型学习。模型之间的学习有蒸馏学习与转移学习两种。在蒸馏学习中,较大的模型经过训练后所获得的知识可以通过学习转移到较小的模型中。这种知识转移使得较小的模型能够在较少的计算资源下表现出与大模型相当的性能。转移学习是指机器学习模型将一个任务上学到的知识迁移到另一个任务中。与从零开始的学习不同,转移学习可以通过预训练模型在新任务中快速进行微调,减少对大量标注数据的需求。这两种学习的共同之处是智能从一个模型向另外一个模型上的转移。

比较机器学习与人类学习

人类的学习和机器学习有很多相似之处。人类和机器都可以通过与环境的互动进行学习。婴儿通过触摸、抓取、抛物等行为,逐渐学会如何控制身体并理解事物的性质。试错在这一过程中起着至关重要的作用。通过不断的尝试,婴儿能够从错误中获得反馈,改正错误并优化行为。在科研和技术创新的过程中,科学家和工程师也是通过做实验、试错来探索未知,获得新知。这一点和AI的强化学习非常类似。

人类通过老师或他人传递的知识进行学习,类似于机器学习中的监督学习和蒸馏学习。通过教师的指导,学生能够理解复杂的概念,并在此基础上进一步学习。蒸馏学习同样是通过“导师”模型的指导,帮助较小的模型获得较高的表现。监督学习更像是老师根据自己的认知给学生留家庭作业,通过和标准答案的对标,学生就可以学到正确的解题方法。

教育体系的结构与转移学习有很多相似之处。在传统的教育体系中,在中小学阶段,教育侧重于基础知识的普及。学生通过接受数学、科学、文学、历史等课程,打下普适的知识基础,并在此基础上培养逻辑思维、批判性思维和问题解决能力。进入大学阶段,学习变得更加专业化,学生可以选择自己感兴趣的学科,深入研究并获取专业知识。这种教育体系类似于大模型通过互联网上的广泛知识进行预训练,再通过后期的微调来适应更专业的任务。转移学习让机器能够更高效地将从一个任务中学到的知识应用到另一个任务中,减少了从零开始学习的时间。

人类学习的基础是大脑和DNA,尤其是遗传信息对大脑结构和功能的塑造。人脑是进化的一种结果,进化可以看作是一个长期的强化学习过程(38亿年),而DNA就是存储模型参数的媒介。基因通过“生育后代”这一奖励机制推动了智力的逐步进化。通过“适者生存”,人类在不断与环境互动中适应并优化自己认知的生物基础。活下来的物种都是进化中的佼佼者,只不过每种物种所处的环境天差地别,因此学习的结果也有极其丰富的多样性。

在过去十几年AI突飞猛进的发展中,可能最重要的灵感就是规模定律:从李飞飞的Imagenet,到Transformer,到GPT-3和GPT-4,人们发现AI的性能依赖巨大的数据量、巨大的算力、巨大的内存、巨大的能量。当AI的发展遇到了瓶颈,一个最简单的方法就是进一步加算力、加内存、加数据、加能量。这种灵感并没有一个严谨的理论基础,但如果我们观察生物界,不难发现不同物种之间的智能差异和神经元、突触的规模有很强的正向关系。最近的DeepSeek之所以对全球AI领域产生了巨大的冲击,一个非常重要的因素是它证明大模型在效率上有很大的提升空间。因此我们可以在不增加规模的同时,通过增强效率,来增强模型的性能。

然而,如果我们借鉴动物界中观察到的规律,不难预测这种冲击不大可能从根本上冲击规模定律的根基:如果人需要800万亿个突触来思考,那么超越人类的AI是否也需要超过800万亿个参数才有可能?所以有上万亿个参数的大模型是否只是个起点?在使用了各种增强效率的方法之后,增大规模仍然可能是目前最重要的发展途径。

从我们的分析可以看到,智能的表达可以是多种多样的。人类的智能和机器智能是两种截然不同的东西。人的智能效率极高,需要的能量少,数据也少,但很难扩展,因为受到生物遗传的限制。机器智能能量效率低,往往需要大量的数据和大规模的运算,但通过增大规模,算力几乎可以无限扩展。无论人还是机器,学习知识的方式非常相似,学习的基础都是数据。其中数据可以来自老师,也可以源于自然。向老师学习,老师的智能就是天花板;向自然学习,就可以突破人类智能的极限。所以AI的优势在可扩展性,它发展的绝对瓶颈常在数据和能源。

(作者系长江商学院教授)

举报 文章作者

刘劲

相关阅读 美团神抢手全面接入DeepSeek

消费者可以使用AI进行“缘分测试”,获得商品卖点和健康指引等信息。

68 8小时前 专访中国平安首席科学家肖京:核心技术才是“胜负手”

未来,将会有很多依靠知识和经验提供专业服务的领域,可能会有演变成这样一种新的形态:即少数优秀专业人员调教指挥一群机器人来提供客户服务。

247 03-24 21:15 AI真的有幻觉?会胡编吗?

怎么才能用好如今“百模大战”之下各种层出不穷的AI模型?关键就是要分清楚它们所处的层次,以匹配你想达到的目的。

194 03-21 10:27 从亏1.9亿到赚5.9亿,美图创始人称 AI让美图“重生”

DeepSeek带来行业共识,未来AI应用的竞争会尤其激烈。

172 03-19 09:39 大企业初炼大模型,数据是“拦路虎” | 海斌访谈

随着DeepSeek免费开源崛起,数据问题成为阻碍大模型落地进程新的拦路虎。很多央企国等大型企业业务数据分散且格式多样,需解决非结构化数据的清洗、标注和知识化问题。

115 03-17 21:22 一财最热 点击关闭

上一篇:没有了
下一篇:没有了