我们一直低估了新生儿,大脑出厂时预装了音频节奏和视觉分类软件

本文仅在今日头条发布,谢绝转载

文 | 段小草(自由撰稿人)

宝宝出生后,哪些能力是先天就有,哪些能力是后天习得?这个问题决定了我们对认知的起点,但长久以来没有确定答案,

心理学家威廉·詹姆斯认为,新出生的婴儿心智是“一片混乱”,需要后天学习塑造。

但实际上,我们一直低估了新生儿。婴儿的大脑不是一块等待写入的白板,而更像一个已经加载了底层操作系统(OS)的计算机,甚至可能还预装了一些基础软件。

这个结论并非空穴来风,而是基于最近发表在《PLOS Biology》和《Nature Neuroscience》上的两项突破性研究。

这两项研究聚焦人类认知发展的最早期阶段,研究发现,婴儿从出生的那一刻起,大脑就已经具备了令人惊讶的复杂“工具包”,能够组织视觉世界,并能捕捉音乐中的节拍。这不仅仅是简单的感官反应,而是基于预测和模式识别的复杂神经活动。

这两项研究分别从听觉和视觉两个最基本的维度,揭示了人类大脑的“出厂设置”,可能比我们想象的要更高级。

节拍早于旋律:写在基因里的节奏感

意大利技术研究院研究的核心问题是:新生儿在多大程度上能够理解音乐的结构?他们是只能被动接收声音,还是能主动预测接下来会发生什么?

研究人员选择了49名出生仅两天的健康新生儿,在他们睡眠时,通过脑电图(EEG)记录其大脑活动。他们给这些小婴儿播放了巴赫的钢琴作品。

关键在于,播放的音乐分为两种:一种是巴赫的原版旋律,另一种是经过处理的“打乱版”,研究人员分别扰乱了音乐的节奏(音符出现的时间)或旋律(音符的音高)。

脑电图要捕捉的,是一种被称为“意外”或“失配”的脑电波信号。当大脑基于过去的经验形成了一个预期,但现实的输入却与这个预期不符时,就会产生这种信号。

简单来说,如果婴儿的大脑能够预测音乐的节奏,那么当节奏突然被打乱时,他们的大脑就会产生一个“意外”信号。

结果非常明确:当音乐的节奏被意外打乱时,新生儿的大脑确实产生了强烈的意外信号。然而,当旋律被胡乱改变,但节奏保持不变时,他们的大脑却毫无反应。

这个发现的结论是:新生儿的大脑能够跟踪并预测节奏模式,但对旋律模式不敏感。

为什么是节奏,而不是旋律?

答案很可能在于胎儿时期的子宫环境。在生命最后的几个月里,胎儿并非处在一个寂静的世界。母亲的心跳、走路的步伐、说话的韵律……这些都构成了胎儿最早的听觉环境。这些声音最显著的共同点是什么?

是节奏。它们是稳定、重复、可预测的周期性信号。

相比之下,旋律所依赖的精确音高信息,在充满羊水的环境中会被严重削弱和扭曲。高频声音难以穿透,细节模糊不清。

因此,胎儿在出生前,大脑就已经接受了长达数月的“节奏训练”,但几乎没有接触过清晰的旋律信息。

所以,新生儿天生对节奏敏感,并非巧合,而是一种深刻的生物适应。

节奏感,很可能是人类大脑处理时序信息的最基本能力之一。它是一种底层的统计模式识别机制,是大脑在感官中寻找秩序和规律的第一个突破口。这种能力的重要性远远超出了音乐欣赏。

语言就是一个典型的例子。在婴儿理解任何一个词的含义之前,他们首先要能从连续的语音流中切分出单词和句子。这种切分在很大程度上依赖于语言的节奏和韵律。

可以说,与生俱来的节奏预测能力,为日后复杂的语言学习搭建了一个至关重要的“脚手架”。它让大脑能够预测“何时”会有重要信息出现,从而更有效地分配注意力资源。

这项研究告诉我们,人类大脑的预测引擎从生命的第一天起就在线运行了,而它处理的第一个任务,就是时间维度的预测。

初见世界:两个月大的婴儿已有“分类”概念

如果说节奏研究揭示了大脑处理“时间”的起点,那么另一项由斯坦福大学的研究,则揭示了大脑处理“空间”和“物体”的起点。

这项研究成功地对超过100名平均年龄仅为2个月的清醒婴儿进行了功能性磁共振成像(fMRI)扫描。

在扫描过程中,婴儿们躺在机器里,观看投射在他们上方的各种图片,包括动物、食物、家具等12个不同类别的常见物体。研究人员的目标是观察婴儿大脑的“腹侧视觉皮层”(VVC)对这些不同类别的图像有何反应。VVC是负责识别“我们看到了什么”的高级视觉中枢。

传统观点认为,婴儿的视觉系统是“自下而上”发展的。

也就是说,大脑首先处理简单的视觉特征(如点、线、边缘),然后在大脑更高级的区域逐步将这些特征组合成复杂的物体,最后才能形成“类别”的概念。

按照这个模型,2个月大的婴儿大脑应该还处在处理基础特征的阶段,不可能有清晰的类别区分。

然而,fMRI的扫描结果颠覆了这一经典模型。

研究发现,2个月大婴儿的VVC在看到不同类别的物体时,其神经活动模式已经表现出和成年人高度相似的类别特异性。 也就是说,当婴儿看到一只猫和看到一把椅子时,他们VVC的激活模式是截然不同且可区分的。他们的大脑已经开始对这个世界进行“分类”了。

更值得深思的是研究中的一个对比。虽然负责高级物体识别的VVC表现出惊人的成熟度,但另一个被称为“外侧枕叶皮层”(LO)的区域却显得非常不成熟。LO区域主要负责处理物体的具体形状。

这意味着婴儿大脑的视觉发展并非严格的“自下而上”的层级结构。一种粗略的、高级的类别模板(比如“有生命的东西”vs“没有生命的东西”)似乎在精细的形状分析能力完全成熟之前就已经存在了。

大脑的策略是“先抓大放小”:首先快速区分出物体的大致类别,然后再去完善对具体形状和细节的感知。

团队还将婴儿的大脑数据与深度神经网络模型进行了比较。他们发现,一个经过大量图像数据“训练”过的DNN模型,比一个未经训练、权重随机的DNN模型能更好地解释婴儿大脑的活动模式。

这再次说明,即便是出生后短短两个月的视觉经验,也足以让婴儿的大脑迅速学习到这个世界的统计规律,其表征方式已经开始接近一个成熟的分类模型。这种学习速度是惊人的。

大脑是天生的贝叶斯预测机器

将这两项研究放在一起看,我们会发现人类的大脑从出厂时就不是一块白板,而是一台强大的贝叶斯预测机器。

它自带了强大的“先验知识”,即那些与生俱来或在子宫内就已形成的结构和敏感性,比如对节奏的预测能力和对视觉世界的粗略分类框架。然后,从出生的第一秒开始,这台机器就开始利用感官输入这些“证据”来不断、快速地更新和微调自己的内部模型。

过去几十年来,“先天vs后天”的争论一直不休。但这些新研究表明,这个框架本身可能就是错的。

真实的情况更可能是“先天为后天服务”。大脑的先天结构并非僵化的本能,而是为了让后天学习变得更高效而存在。它是一种为了实现“自举”而优化的系统。

节奏研究揭示了大脑处理时间信息的“脚手架”,视觉研究则揭示了处理物体信息的“脚手架”。时间和物体,构成了我们经验世界最基本的两个维度。

大脑在这两个维度上都预装了基础框架,让婴儿能够从一开始就不是在黑暗中摸索,而是在一个有结构的、可预测的世界里进行学习。

这对我们理解 AI 的发展也有深刻的启示。

当前主流的深度学习模型在很大程度上仍然依赖于海量数据和强大算力的“暴力学习”。但人脑的学习效率显然高得多。或许,通往通用人工智能的道路,不仅在于更大的模型和更多的数据,更在于如何为模型设计出正确的“归纳偏见”,也就是那些类似人脑的、经过亿万年进化打磨出来的先天结构和学习框架。

对于为人父母者和教育者而言,这些研究同样意义非凡。

它告诉我们,早期环境的重要性不仅在于提供“刺激”,更在于提供高质量、有结构的“数据”。婴儿的大脑不是一个被动的容器,而是一个从第一天起就在主动寻找模式、验证假设、构建模型的学习引擎。父母的每一次歌唱、每一次互动,都在为这个强大的引擎提供宝贵的训练数据。

总而言之,这两项研究共同描绘了一个全新的婴儿形象:他们并不是只有被动的感官接收,而是从一开始就用预设了强大框架的大脑,积极主动接受信息并解析世界规律。

我们对人类自身的理解,或许才刚刚开始。

展开阅读全文

更新时间:2026-02-23

标签:育儿   新生儿   大脑   节奏   音频   视觉   软件   婴儿   物体   模型   旋律   能力   结构

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight All Rights Reserved.
Powered By 71396.com 闽ICP备11008920号
闽公网安备35020302034903号

Top