在第五部分,我将向你展示 "渐进式总结 "如何直接促进我们在信息消费中寻求的最终结果:学习。
完美记忆的重担 (THE BURDEN OF PERFECT MEMORY )
在传统的学校教育中,能从记忆中回想出某件事情,就被当作一个人学过某件事情的最明确证据。这就是学习的反刍模式 —— 在不加入任何自己的解释和创意的情况下,你能够越准确地再现它,你的分数就越高。
忘记的重要性(THE IMPORTANCE OF FORGETTING)
随着世界的变化越来越快,越来越不可预测,对过去的观念和模式的依恋越来越成为一种负担。
与大多数关于 "加速学习 "的书籍和课程相比,它们往往提供两种方法。
#1 增加进入大脑的信息流(INCREASE THE FLOW OF INFORMATION ENTERING THE BRAIN)
这就导致了用2倍速听有声读物、速读、专注于已经高度浓缩的资源、阻断杂念、深层专注和双耳节拍等技巧。
#2 加强对这一信息的记忆和回忆。(IMPROVE MEMORY AND RECALL OF THIS INFORMATION)
这就产生间隔重复、记忆宫殿、记忆法、音乐和韵律、缩写和思维导图等技术。
看起来有效,但是却丧失了重点。
头脑不是一个空的容器,你把信息像灌水一样浇进去就好了。
不是你塞进去多少信息,就能取出来多少。
大脑和文件柜最大的差别是,大脑不仅仅存储,还能采取行动。而行动,才是学习「真正发生的的地方」
问题是:越沉迷于优化存储,留给行动的时间越少。
更多的信息消耗,编排精心的目录,精确地记录,都在挤压执行的时间。
但重要的是行动:应用、实施、实验、对话、沉浸、体验、协作、犯错。
学习不是一种活动,过程或结果,可以让你优化至完美。
它是一种现象,就像意识、注意力或者爱。
你如何强行优化「爱」的能力呢?
其实我们不需要加速或者改善 —— 学习本身就是进化的目的。
无论你工作还是休息,专注还是分心,说话还是倾听
你的大脑都在不断的绘制关系,建立联系
你甚至无法终止这个过程
知道我们的大脑在不断地收集信息,
我们的目标就会从尽可能地记忆
切换到尽可能的遗忘
信息瓶颈 THE INFORMATION BOTTLENECK
在人工智能领域有一个新概念「信息瓶颈(THE INFORMATION BOTTLENECK)」
研究人员试图回答的基本问题是
你如何决定哪些是给定信息的最相关特征?
当你听到别人讲一句话时,你怎么能在忽略他们的口音、呼吸声、背景噪音,甚至是你没听清的单词的情况下,还能接收到信息的要点?
这是人工智能研究的一个基本问题,因为计算机会倾向于对所有这些输入给予同等的权重,从而最终彻底混乱。
事实证明,在人类接收带宽极窄的情况下
我们依旧能从中找到重要的线索
其核心在于我们的大脑会尽可能的丢掉嘈杂的数据,减少需要跟踪和处理的数据量
简而言之,大脑比计算机「能更快的忘记」尽可能多的信息
这样才能让我们专注于核心
如果让一个算法识别哪些图片有狗狗
会有两个阶段
初期处于「拟合」阶段,尽可能多的记住各种类型的狗狗(确保数据纯净)
然后进入「压缩」阶段,从中找到狗狗最关键的特征
这样的算法才能足够通用
记住的细节越多,越会造成部署时候的困扰
我们日常在信息流中学习也是如此
除了严格限制信息源
还应该在大量消费信息后,尽快忘记无关细节。
别担心,我们会失去细节,但这也不是大脑擅长的
大脑最擅长的是创造
在混沌中寻找秩序,在噪声中看到信号。
忘记多少合适呢?这里有篇论文
结论是,大概随机忘记 90% 为宜
所以忘记一些东西,反而能增加剩下信息的价值
所以渐进式总结,不是让你记得更多
而是让你尽可能忘记的更多
让你的思维释放出来更多空间给创造力和想象力
但又提供了一种安全网
这样你在概念之间游走的时候,如果迷失了方向
有一个可以回溯的兜底策略
最大限度地降低认知负荷(MINIMIZING COGNITIVE LOAD)
认知负荷理论(Cognitive load theory,CLT)
由约翰-斯韦勒(John Sweller)在20世纪80年代末研究儿童问题解决和学习时提出
任务越复杂、越困难,对学习者的 "认知负荷 "就越高
完成任务所需的认知心理努力也越大。
他认为教材的设计可以大大减轻学习者的认知负荷,促进了教学设计的巨大进步。
CLT提出在学习方面有三种认知负荷
- Inherent 固有负荷:比如 2+2 或者解微积分方程
- Extraneous 外在负荷:教学材料的设计和呈现方式(教具教材)
- Germane 内在负荷:为建立永久的知识储备(如笔记、大纲、图表、类别或列表)所投入的努力
受CLT的启发,教学设计侧重于两个目标。
- 通过将信息分解成可以单独学习的小部分,然后再重新组合成更大的整体,从而减少固有负荷。
- 将外在负荷转为内在负荷,即把学习者的注意力集中在构建永久的知识储备上。
这样减少了在阅读主题时候的内在难度
避免了完全理解的必要性,把每个段落当做小的,自成一体的单元
唯一的目标就是把每一块的关键节点找到
然后串联成为一个整体
还可以将无关的负荷转化为相关的负荷
通过和现有知识的连接(不是在软件里,而是在大脑里)
这些新知识将会保留下来,以供日后复习
减少认知负荷不仅是让学习变得「简单」
而是让学习变得更容易时,学习本身会变得「更快、更好、更深、更强」
用召回来抑制记忆 RECALL AS INHIBITION
为什么最大限度地减少认知负荷
对让学习更深入、更牢固如此重要?
因为当你试图记住太多东西时
新的输入会受到影响
记忆使用的带宽越多
用于分析、理解、质疑、思考的带宽就越少
像 64G 内存的电脑拖了一块机械硬盘一样
即使存储的再多,取不出来也是白搭
这里有篇博文解释了什么是「主动抑制记忆形成」
将我们的思维卸载到外部工具
可以有效的降低大脑遇到新信息时候的负荷
当你刚开始这么做时
卸载思维会让你记住尽可能少的东西
比如划根线或者高亮一下
你暂时不会记忆那么多,因为这些都交给了工具
你可以空出来脑子继续看下面的段落
而不用担心回溯的时候找不到

你越是想记住书里面的所有内容
你剩下的带宽越少,越无法看到他们之间的联系
而我们的大脑,存储的都是关系
如果你执着于在笔记软件上记录下所有内容
那你很可能会错过更重要的东西
看看孩子们
他们才是最好的学习者
将自己沉浸在想要发掘的世界中
而不是试图记下每一件事
训练你的直觉(TRAINING YOUR INTUITION)
技术让我们拥有了「记忆一切」的能力
但这种祝福已经在今天成为了诅咒
我们必须从知识的囤积者,变成知识的使用者。
我们必须学会将阅读、回顾的重点
放在我们关注的事务上
这样我们才能看得更清楚,而不是被信息淹没
学习不是为了积累数据
而是「训练我们的算法」
什么对我们是重要的,什么是相关的,什么是有趣的
即使我们从没见到过,甚至我们都无法解释
当然如前文所说的算法的训练
初始阶段我们需要多样、丰富、实践的经验
然后将其中 90% 丢弃
剩下的那些东西,那些一小块一小块的
就是我们所谓的洞察力
而这些洞察力可以适用于更多情况,甚至可以创造出流传几个世纪的艺术品。
渐进式总结
是将你所消耗的信息
转化为训练你直觉的数据
你可以消费更多信息,因为你能不断地卸载更多无用信息
即使你最终丧失了这些数据
你也由于这个训练的过程,让自己的经验变得更加多样和深入,更加的敏锐。
要在一个不断变化的世界中有所作为
你必须能解决更多你没处理过的情况
在脑海中建立起更多学科的基础和他们之间的关系
然后用来寻找问题背后的联系和答案
很多人凭直觉感受到了这一点
但他们是试图把背后的所有细节都记录下来
这是徒劳的,只能把自己绕进去
其实这需要勇气
一种放弃对任何事情都了如指掌的安全感
这也需要一种脆弱感
因为你需要依赖其他人获得进步和成功
这还需要好奇心
让你愿意问一些没有答案的问题,或者找寻从未有人走过的小径
就是现在