今天花了两个小时带着Claude把deepseek的API文档过了一遍,然后找算法聊了聊function call和API的区别,勉强算是对如何通过API调用deepseek的模型有了更多的理解。
这块我之前一直是让AI去搞定,我自己只提需求就行了,但写了一些脚本之后我去整体看LLM调用的时候,我发现我其实缺乏一个框架型的认知,我不知道LLM支持几种模式的调用、我不知道有哪些参数可以调参达到效果(温度值还是知道的),看起来我能发起一个请求调用LLM完成对应的内容,但是没有那种得心应手的感觉。
后来我琢磨了一下为什么?原因还是在于我偷懒了,我没有自己去读去死磕API文档,了解每一个请求的构建到底该如何进行,我直接扔给了Cursor,所以60分水平的内容我还是能够做出来,但是再往上更加系统化的去控制和调配模型,我总感觉卡在哪里,但我也说不出来的这种感觉。
这个其实有点像AI时代下我们大规模借助AI的通病,比如说写代码也一样,我感觉我就是写个60分的水平,再复杂一点的系统,反正我感觉我设计不明白,这种设计不明白不是产品上我梳理不明白,而是说我真正在用AI写代码的时候我搞不明白。
但这块我没有选择去学习代码,它不是我的核心竞争力,我只需要拿cursor能够把简单的需求或者系统弄出来就行了,足够我去应用了,更复杂的内容有研发和算法团队来和我配合完成。
但LLM的API的调用则不一样,这个地方是必须要清晰的了解和深度测试的,总不能说如果有一个场景需要视觉模型,我当在去网上现搜市面上哪些模型能够支持视觉,这也干的太不称职了。
这其实就是我们和AI协作的一个边界点,有哪些内容是自己核心要去深度掌握的,哪怕没有AI自己也必须把这个事情干好的,这些要梳理出来,包括产品的洞察、文档能力、API文档的阅读能力,把他们搭建成一个网络地图,在这个地图上用自己的konwhow串成一条线,从而发挥更大的价值。
剩下的靠AI来解决的,比如说AI编程,那就增加自己和AI协作的熟练度,然后等待AI模型进步就好了,反而不需要去学基础知识,除非你就想成为这个赛道的专家。