即刻App年轻人的同好社区
下载
App内打开
拾伍51
43关注7被关注0夸夸
拾伍51
3天前
数据龙虾养成记2
今天调整龙虾的时候,一直遇到一个问题,因为我不是飞书机器人的创建者,Lark-CLI的文档功能都用不了。包括读取飞书文档、创建飞书文档、还有我希望的自动@人。
但今天的进展是至少实现了数据可视化。
我问它我觉得纯文本可读性太差了,你在现有条件下验证一个可以做数据可视化的方案。
它自己最终给了我这个方案。

实现路径很简单,三步:

查询数据
照常用 hologres_query.py SQL,拿到结果
生成图表
Python matplotlib 把数据画成图,保存到 /tmp/ 本地文件
这个库 macOS 上已经装好了,开箱即用
发图到飞书
OpenClaw CLI 命令:
openclaw message send \--channel feishu \--account <账号id> \--target <用户或群id> \--media /tmp/图片.png \--message "说明文字"

关键点:
不需要任何额外权限(飞书云文档权限不够,但发图片不受限)
图表样式完全可定制(柱状图、折线、热力图随便组合)
整个流程在 AI 回复的同一个 turn 内完成,用户体验上无感知

依赖:
Python + matplotlib + PIL(已装)
OpenClaw 已配置飞书账号(已有)

就这些,没有额外组件需要部署。
生成的效果还是不错的。
00
拾伍51
3天前
最近连续用下来几天Kimi2.6还不错。回答质量已经比较接近ChatGPT5.4。 //@就你怕肉: 蹲个后续

拾伍51: 我今天正好卡到要续费coding plan的日子了 之前刚开始探索OpenClaw的时候,同时订阅了火山和阿里云两家的。实际用下来,从计费透明度,模型池来讲,阿里都更胜一筹。 所以一直盘算着再续费的时候,就不续火山的了。 当然不是说阿里的哪哪都好,Lite计划是用不了qwen3.6-plus的,我订它也只是备用。因为公司有发token,我还也订了Cursor Pro和ChatGPT plus,这些都是主力。备着阿里云只是以防这些额度耗尽或者服务不稳定时,不至于停工。 谁成想,阿里云不在提供Lite版本,反过来卡火山云还是有Lite计划的。而一个备用供应商实在不值得我花200一个月,要知道ChatGPT plus才20刀(140左右)。 说回火山coding plan,除了模型池和计费透明度,其他还是很好的,尤其是体验部分。我最早OpenClaw用的就是火山服务器加它家的coding plan,在当时那个龙虾非常容易养死的早期版本,光是一键配置就降低了不少门槛。 最近有一次让我超出预期的事是,他们知道龙虾需要配置向量模型来做memory serach,索性把向量模型加入了coding plan,也就是说你不用单独再去接向量模型API。可惜的是,实测下来向量模型调用容易限流,不是很稳定… 体验一流,但是模型拉胯。限流、自家模型在我的场景里几乎用不上,三方模型更新断代(不支持glm-5,我看飞书秒哒龙虾都支持了),估计这也是不能像阿里云一样直接砍掉40元的Lite版本的底气。 但模型问题也不太能让我接受,所以我把向量模型换成了阿里云text-embedding-v4,按调用计费,也转头看看其他模型供应商。 看了glm,因为工作主力在用模型,glm-5.1,在Claude Code里表现还是很好的。又看了Kimi,正好今看到Kimi发布2.6版本,也看到了模型测试好评。想到Kimi在我这里有着独特性(长文阅读理解、写作),Kimi一直是我这些场景下几乎是唯一选择。 因此思考再三还是订了Kimi code。第一天用已经发现了有一些小小的限制,飞书妙搭龙虾不能用Kimi code ,再用用看,以后把自己遇到的其他坑写出来。

20
拾伍51
4天前
数据龙虾养成记 1

今天早上数据龙虾调用的国外模型报错率高达6%,导致对话总是中断。
运维的初步反馈是,供应商稳定性差,需要更换到一家看看。
我觉得除了换供应商,还得在龙虾里设置fallback模型做兜底。正好最近放出了DeepSeek-V4,模型跑分非常不错,又是国内模型供应商,稳定性比国外好,最近实际测试一下模型效果。
00
拾伍51
7天前
我今天做了个决定,已经付诸行动了。我决定把我的老板“蒸馏”掉,我要蒸馏出来一个老板的 skill。

背景是这样的:
今天汇报的时候,我又被老板批了一顿。实际上老板整个的逻辑框架我应该是理解的,只是不知道自己着了什么道,加了些自己的东西进去,导致内容不符合老板的要求。

所以我今天做的事情就是:
1. 把我们的开会文档、会议内容以及最后经过和他讨论的成品内容,全都丢给 AI 了。
2. AI 给我生成一个 skill(技能模型)。
3. 以后我在给老板汇报之前,先把汇报内容丢给这个 skill,让他帮我先过一遍。

我今天已经做了第一个版本,后面我会持续进行汇报上的迭代,把这个 skill 做到更强。

这是一个只敢发到即刻,不敢发到朋友圈的消息。
20
拾伍51
9天前
真实的场景是,一个项目人越多,进度越慢
有了 AI 以后,实际上只保留最小人数就可以了。
人多的话,信息传递就需要耗费时间,以及信息在传递的过程中是一定有折损的。
00
拾伍51
9天前
他们是看到我发的文章了吗?动作还挺快

拾伍51: 我今天正好卡到要续费coding plan的日子了 之前刚开始探索OpenClaw的时候,同时订阅了火山和阿里云两家的。实际用下来,从计费透明度,模型池来讲,阿里都更胜一筹。 所以一直盘算着再续费的时候,就不续火山的了。 当然不是说阿里的哪哪都好,Lite计划是用不了qwen3.6-plus的,我订它也只是备用。因为公司有发token,我还也订了Cursor Pro和ChatGPT plus,这些都是主力。备着阿里云只是以防这些额度耗尽或者服务不稳定时,不至于停工。 谁成想,阿里云不在提供Lite版本,反过来卡火山云还是有Lite计划的。而一个备用供应商实在不值得我花200一个月,要知道ChatGPT plus才20刀(140左右)。 说回火山coding plan,除了模型池和计费透明度,其他还是很好的,尤其是体验部分。我最早OpenClaw用的就是火山服务器加它家的coding plan,在当时那个龙虾非常容易养死的早期版本,光是一键配置就降低了不少门槛。 最近有一次让我超出预期的事是,他们知道龙虾需要配置向量模型来做memory serach,索性把向量模型加入了coding plan,也就是说你不用单独再去接向量模型API。可惜的是,实测下来向量模型调用容易限流,不是很稳定… 体验一流,但是模型拉胯。限流、自家模型在我的场景里几乎用不上,三方模型更新断代(不支持glm-5,我看飞书秒哒龙虾都支持了),估计这也是不能像阿里云一样直接砍掉40元的Lite版本的底气。 但模型问题也不太能让我接受,所以我把向量模型换成了阿里云text-embedding-v4,按调用计费,也转头看看其他模型供应商。 看了glm,因为工作主力在用模型,glm-5.1,在Claude Code里表现还是很好的。又看了Kimi,正好今看到Kimi发布2.6版本,也看到了模型测试好评。想到Kimi在我这里有着独特性(长文阅读理解、写作),Kimi一直是我这些场景下几乎是唯一选择。 因此思考再三还是订了Kimi code。第一天用已经发现了有一些小小的限制,飞书妙搭龙虾不能用Kimi code ,再用用看,以后把自己遇到的其他坑写出来。

00
拾伍51
9天前
我今天正好卡到要续费coding plan的日子了
之前刚开始探索OpenClaw的时候,同时订阅了火山和阿里云两家的。实际用下来,从计费透明度,模型池来讲,阿里都更胜一筹。
所以一直盘算着再续费的时候,就不续火山的了。

当然不是说阿里的哪哪都好,Lite计划是用不了qwen3.6-plus的,我订它也只是备用。因为公司有发token,我还也订了Cursor Pro和ChatGPT plus,这些都是主力。备着阿里云只是以防这些额度耗尽或者服务不稳定时,不至于停工。

谁成想,阿里云不在提供Lite版本,反过来卡火山云还是有Lite计划的。而一个备用供应商实在不值得我花200一个月,要知道ChatGPT plus才20刀(140左右)。

说回火山coding plan,除了模型池和计费透明度,其他还是很好的,尤其是体验部分。我最早OpenClaw用的就是火山服务器加它家的coding plan,在当时那个龙虾非常容易养死的早期版本,光是一键配置就降低了不少门槛。

最近有一次让我超出预期的事是,他们知道龙虾需要配置向量模型来做memory serach,索性把向量模型加入了coding plan,也就是说你不用单独再去接向量模型API。可惜的是,实测下来向量模型调用容易限流,不是很稳定…
体验一流,但是模型拉胯。限流、自家模型在我的场景里几乎用不上,三方模型更新断代(不支持glm-5,我看飞书秒哒龙虾都支持了),估计这也是不能像阿里云一样直接砍掉40元的Lite版本的底气。

但模型问题也不太能让我接受,所以我把向量模型换成了阿里云text-embedding-v4,按调用计费,也转头看看其他模型供应商。

看了glm,因为工作主力在用模型,glm-5.1,在Claude Code里表现还是很好的。又看了Kimi,正好今看到Kimi发布2.6版本,也看到了模型测试好评。想到Kimi在我这里有着独特性(长文阅读理解、写作),Kimi一直是我这些场景下几乎是唯一选择。

因此思考再三还是订了Kimi code。第一天用已经发现了有一些小小的限制,飞书妙搭龙虾不能用Kimi code ,再用用看,以后把自己遇到的其他坑写出来。
32
拾伍51
10天前
在使用龙虾写文章的时候用过几家模型,后来一直使用Kimi2.5,因为它在写作能力上已经比其他国产模型要好很多了,但是有些时候还是强差人意。
直到某次我在telegram里探索,才发现有个/think的命令,能控制思考强度,最近几篇文章素质马上高了起来,但是代价是7-8分钟的思考时长…深切体会模型厂商要出high speed模式到底解决了什么痛点。
不同的模型供应商提供的强度范围不,GPT还支持adaptive(自适应)模式。
当然这是拿火山的coding plan的实际使用情况,明天再试试阿里云是不是也这样。
顺便说下火山的coding plan不计划续费了,模型池不太够用。
11