今天在讨论一个需求的技术可行性,用最简单的方法直接问大模型,看它是否能够回答出来。
我用了 Poe 的 gpt4o,回答的结果是不对的。开发认为可能没有用到官方的 gpt4o。当时我认为是一样的,他认为是不一样的。他用了官方的 o1 得到的是正确的结果。
后来仔细想了下,确实是不一样的。Poe 可能只是调用 API ,即使标记着“官方”,可能在构建这个机器人时也加了其他能力,那跟官方自己加的能力大概率是不完全一致的。
进一步思考,直接通过 API 去了解技术可行性会更合适,而不是通过加强版的大模型/产品形态,因为也无法完全了解产品中叠加的 buff 。以此视角重新来看待
@while1. 的 chatAny ,会更合适嵌入这一环节的工作流中使用的。
此外,对于可行性验证,模型的选择也是一个需要考虑的点,涉及应用落地的成本。