曾经人们针对于某一个需求,想要找到答案,要去图书馆坐一天。再到后来,要去互联网上一个帖子一个网页的翻。
在翻的过程当中不断地理解自己的需求、探索自己的需求,最终可能自己的需求都已经变了。但是无论是变没变、得到什么样的答案,有一点可以确定:就是他对于原来那个问题理解一定会更深。这似乎是人脑这个物理设备决定的。
但是当用户现在普遍地使用 AI 去解答自己问题的时候,几秒钟之后就从白板上出现的的、言之凿凿的答案,会让很多人放弃思考,习惯性的下意识的接收那个看起来不错,甚至是没有破绽的答案。这就是现在很多Geo厂商评价这个业务的:“一搜就有,一有就信”
但是不知不觉的,在这过程当中,人已经异化,被大模型的思考方式引导。也许一开始你问题的原点确实来自于你的思考,和你现实生活当中实实在在发生的事情,但是接下来的走向,以及你看待这个世界的方法。却不可避免受到了大模型的影响。
当然人就是这样,只要在社会当中,就会受到各种各样信息源的影响。就好像有一段时间食品安全有问题,大家就说,你没有办法防止吃到一个不干净的或者有化学加工的东西,你只能尽量什么东西都吃,让它们在你的身体里相生相克。我觉得古早的信息获取模式,就像是这样的方式。但是现在如果人们使用 AI 模型这一个统一的流量入口去进行信息源的获取和问题答案的探索的话,那相当于是所有的人都从同一个池子里面喝水,都吃同一种食物。我记得几家大模型刚出的时候,大家还在讨论谁家的模型更具有人文关怀、谁家的模型更直白、谁家的模型更舔狗。那么现在,这几家给你的感觉还那么明显吗?
所以如果有一天,如果这个大模型进行某种精神操纵,或者是某家厂商的 GEO 算法真的是非常的成功,那么一定会带来巨大的灾难。
我知道现在没有一模一样的提示词,这就导致了几乎不会有一模一样的答案,但是不要低估在思维链路上给到哪怕一点点的引导所能带来巨大的蝴蝶效应。
所有价值观的引导都是从点滴当中不知不觉地改变了人们思想的走向。如果觉得价值观这个议题过于宏大的话,那可以思考一下言情小说、武侠小说、短视频,或者是娱乐圈的饭圈文化,是怎么在不知不觉当中影响和改变很大一批人的。这些方式往往并不是摇旗呐喊,甚至可能只是在细微之处改了几个词,增加了几个标点符号,就能改变舆论的走向,而这还只是你一天当中被某几个广告或者是在某几个场景下被影响所产生的结果。
那当你一天使用 6 个小时 AI 的时候呢?或者是 10 个小时 AI 的时候呢?或者是你所有的工作全部都需要Ai在你副驾驶的时候呢? 我不知道这个问题的解法是什么,也许根本就没有解法。就像随着工业化的进程,糖尿病和三高病例不可避免地增加了一样。但是起码有一点可以确定,就是如果你在一个物质极大丰富的时代,想要避免三高,你就需要管住嘴,迈开腿。
在 AI 时代,你也需要做同样的苦行僧。
关掉Chatbot,打开kindle开始阅读。
你看,我的Kindle都已经被我侄子说成是老古董了。