「深刻理解信息论的启发,才能打破AI总结的迷信」
过去看过了很多集成了 AI 的总结工具,主要汇集在对音视频学习资料、长文本、会议摘要、播客这些场景之上。📻📺
看着几百几千字齐刷刷地在几秒内变成了短短几行,不由得叹为观止。
我不得不说这种科技带来的「魔法」般的效果让我们兴奋过度了,它来源于人们对「高效率」的极度渴望。
这本身无可厚非,而一旦超过了难以言表的那个「度」,又可以评价它为「急功近利」。
不过别急,这个问题可以被轻松克服,释放 AI 带来的真正效益。以下思考的切入点针对于「学习」场景,Summary 的定义是对长文本的压缩总结形成的段落摘要。
—————————
不妨回忆那些收藏量巨大的视频/笔记标题 —— 《只需 X 天精通 Y 工具》、《X 天成为 Y 大师》、《X 天轻松减肥 Y 斤》、《一周内 X 水平提高 N 倍》、《X 天速成 blabla》。
其实在性质上和对 AI 压缩的过度期待一样。我为什么敢这么断言?关键在于你如何对「效率」一词下定义。
当我听完一则四五十分钟的理工科科目,AI 给出的 Summary 是什么?
这个其实要分类讨论。主观感受,当 AI 总结的视频长度介于 10~15 分钟之内时,给出的 Summary 不仅知识点较为详细,而且拥有一些「必要」的细节;
而超过 15 分钟之后 Summary 能力几乎是直线下降,几乎没有太大参考价值。
当然了,再次强调,这是我长期使用的定性测量。
—————————
可以这么归因:AI 的技术发展局限性,即目前的技术从机理上无法识别“有意义”的信息;以及训练和参数的设置标定的 output 长度;
在 output 通过各种方法固定在差不多长度的前提下,10~15 分钟之内的学习资料,大概率不会压缩掉不该损失的信息;
反之,15 分钟之上的学习资料则是重灾区。从信息论的角度来看,虽然不关注意义,但是度量性和信息提取的容错性是需要考虑的。(和后面提到的概念有关,看完之后你可以试着思考)
在这一环节,其中一方面是 AI 损失了大量“有意义”的信息,只不过这种损失带来的厌恶感对于一些人而言,可能会被 AI 总结那种「刷刷刷的魔法体验感」消弭了一部分。
毕竟在没有看过这个长视频之前,你也不知道什么信息有用,所以无序列表只需要随便抽离几个点,大概率能“骗”过你的感官。
☝️ 一个和上述观点多少有点关系的延伸
m.okjike.com—————————
说到这里有人可能要说“那总比没总结好啊”。我的回答是确实是,但用处有多大?这个问题是得不到「统一」结论的。(我也会给出优化方法)原因有两个:
第一个,是学科之间的差异性;对于文科而言,效果不言而喻。从上述我提到的实验结果来看,主观上,我们至少不应该把一个特别长的视频直接拿给 AI 做总结。
而是应该分段总结,且不要把分段总结再拿来合并做二次 AI Summary,直接拼接效果都会更好,以此得到信息获取效率和信息损失容错率之间的平衡;
对于理工科,AI Summary 其实是一个几乎完全没什么鸟用的功能。举个例子,高数是你 Summary 就能 Summary 会的么?越 Su 越傻。Summary 甚至没提供任何太大的工具价值。如果一定要提取,从齐夫定律来看,提取关键词足矣。
不过核心因素,在于产品忽略了学习的核心过程。
—————————
那么,究竟是什么原因导致 10~15 分钟之内的学习视频可以获得更好的 Summary?其关键在于冗余度的定义和应用价值,以及大脑 🧠 预测机器的工作机制。
也就延伸出了第二点:不同人的感受质、大脑预测机器之间的差异性。
即便信息量一致,不同人之间的感受也有一些差异,这种差异既包含了知识差异带来的推理隔阂,也包含了对客观世界感受的差异。
先解释一下什么是感受质?它指的是感觉输入的感知方式和带来的感觉,也是大脑学习的世界模型的一部分。
它是主观的,意味着它们有内在的经验 👻。同一张连衣裙👗图片,有人认为是白色、金色相间的;也有人认为是黑色、蓝色相间的。
即,颜色的感受质不纯粹是客观世界的属性,而是与个体世界模型息息相关。类似的例子还有很多。不妨继续思考 🤔️ 同一比特的信息对于不同人的「意义」是不同的,也与此密不可分。
另一个例子是,视觉和听觉这 2 种截然不同的感知方式,却都能由相似的脉冲产生。
——
🌟 其次是对冗余度的解释,它被用来描述信息的稀疏和密集程度。(能理解吗?暂停思考一下)
✨ 通俗来讲,冗余度太低,那么信息接受的速度也会变慢,语言学上的歧义可能增多,理解的容错性降低;反之,冗余度太高,特性倒置。
✨ 举个例子,会议上的内心OB:「你能不能讲重点?」(冗余度过大,占用太大存储空间,提高提取有用信息难度)
✨ 又或者初高中老师教育学生:「我明明上次才在黑板这个位置讲过!!!」(冗余度过大导致提取有用信息的容错率降低)
同样,如果敏锐,就会发现:
1⃣️ 上面带上 🌟 符号的这句话就是被压缩的信息;
2⃣️ 而 2 个 ✨ 符号的段落则是「冗余」扩充。试想,如果只看 🌟 后的这句话而没有记录 ✨ 后的例子,又会导致多少理解偏差呢?(冗余度太低,歧义增大,接受速度降低)
理论上讲,大家都拥有同样长度比特的信息,然而每个人都因为各种因素训练得到了不同世界模型的大脑,既有可能是知识上的差异(比如有人能推出公式的等价信息;有人不行),也有可能是其他感受质的差异。
看到这儿也就理解了,为什么从工具实用价值的角度来看,AI Summary 的作用有限。大部分人不是不会总结,而是无法理解和加工新领域的知识,尤其是理工科。
当然了,我没有否定 AI Summary 的价值,👆 上面我也提到了优化方法。
不是每个人都是数学天才、学霸。有了 AI 可以让我们更好地进行自我教育和学习,效率也更高。
但是,效率变高的方式并不是通过急功近利地压缩文本来获得的,这只不过是浮于表面。
关键是判断信息和自己的关系是什么?冗余度多少对于自己最合适?这也是 AI 实现「因材施教」的质量的理论指导。
其背后的内涵是,人不是流水线上的螺丝钉。冗余度的扩充不仅不一定减少你的学习时长,反而可能会延长你的学习时长,这是因人而异的。
不过,难题带来的阻挠感、无人帮助的无助感所带来的意识神游和自我放弃的结果,都可以转化为好奇心带来的探索欲。
让你重回真正的教育课堂。