聊一下
aski.ai 这种基础AI服务有没有利润,篇幅较长。
很多人只会去计算token,没错,gpt-3.5-turbo价格确实只有gpt-3的1/10,为0.002/1000 tokens,但更重要的是,他提供了上下文聊天的支持,就意味着,每次我们会把聊天的上文尽量多的提交给api,所以每个请求提交的数据会比以前gpt-3多很多。因为单次往返上限为4096tokens,所以提交的messages我们会控制在2000~3000tokens,留1000+的空间用于api的返回量。
所以开始聊天后,单次提问往返tokens数量会在3000~4000tokens之间。成本就是5分左右。
而Aski就是定价5分/提问,之前我们使用gpt-3的接口时,我们定价1分/提问,由于gpt-3的davinci模型价格很贵,单次提问光接口费用就大于1毛钱,所以我们是不可能有利润的。
此外,还要算上服务器的开销,在内容风控方面支出?那利润在哪呢?
Aski运行两个月,上个月基于davinci的模型,成本高,并且送的多,我们是亏损的。
很多类似的服务,声称免费服务,要么就背后做的模拟抓取(稳定性堪忧),要么是建立在白嫖OpenAI赠送的18美金账户的(做一堆免费账户)。
我们为保证服务稳定(尽量长期可用)这应该是健康的商业行为,我们是真实支付给OpenAI费用的。
同时我承认现在做的这些东西都太基础了,有一部分是出于我个人兴趣,以及AI带给我的惊喜,尽量参与其中做一些力所能及的产出,只希望能提供一些“正经”的工具,为行业健康贡献一点点力量。
同时也期望国内大厂早日做出ChatGPT这等优秀AI服务,并免费提供给每个普通人,那天既是我关闭Aski问答功能之日。