Deepseek app 可以深度思考(R1)的同时进行联网搜索,这一点比 ChatGPT o1 要好。
但用了几天后,我发现,通过搜索提供更多的上下文,反而可能会限制模型推理。
倒不是说中文内容的质量如何,而是说搜索提供的上下文束缚了模型思考的方向。
比如 o1 回答中(见截图),有一个方向是关于 Influence on Market Psychology 的,其中提到了 Greenspan 的个人魅力对市场的影响,同时 Powell 则更多依赖集体决策,倾向于给出清晰的政策信号。在 R1 中,这个点基本上没有提到。
一种可能性是,Deepseek 似乎用了国内的不知道哪家搜索引擎,即便我用英文 prompt 也会引用很多中文网页。这些搜索结果的质量不够高。
但也可能单纯是因为,人类过去积累的认知反而成为了 AI 思考的牵绊。
我把两个模型的回复都贴在评论区,感兴趣的朋友可以自行比较。