即刻App年轻人的同好社区
下载
App内打开
艾逗笔
103关注7k被关注14夸夸
前腾讯高级工程师,微信后台开发
现独立全栈开发,自由职业,all in AI应用出海
bio:https://bento.me/idoubi
置顶
艾逗笔
3月前
用 Pagen 给 1024 全栈开发社群做了个介绍页面,对全栈开发感兴趣的朋友可以看看👇

1024.pagen.io
06
艾逗笔
1天前
大家对这个内容感兴趣吗?有没有想补充的话题?🤔
150
艾逗笔
2天前
新的一周 从一杯苦美式开始。☕️
10
艾逗笔
7天前
解锁第一个十万加😎
70
艾逗笔
7天前
知了阅读群文章摘要功能恢复了,踩了不少坑,值得记录一下。

1. 微信机器人用的是 wechaty 框架,之前用的是 padlocal 协议,200 元/月,现在换成了 wechat4u 协议,免费使用。

padlocal 协议有一个好处是,重新登录后能返回稳定的用户 ID,wechat4u 协议重新登录后用户 ID 会变。之前需要记录是哪个用户发了哪篇文章,只能选择 padlocal 协议,现在改成了免费摘要,不绑定文章和用户,则可以选择 wechat4u 协议。

2. 更换微信机器人协议之后,用户在群里转发公众号文章,拿不到文章内容了。排查发现是因为新的协议下,拿到的公众号文章链接是临时的,直接去获取文章内容,会被浏览器拦截,需要人工验证。无论使用 jina reader / firecrawl 还是无头浏览器,都拿不到文章内容。

为了解决这个问题,要么换成原来的 padlocal 协议(拿到的文章链接是稳定的,不是临时的),要么使用无头浏览器模拟点击验证,到达稳定的页面后再获取文章内容。我使用 go-rod 实现了这个模拟点击验证的方案。

3. 拿到文章内容之后,请求大模型摘要,之前用的 DeepSeek 直连 API,请求会比较慢,改成硅基流动的聚合 API 之后,速度有所提升。现在大模型 token 费用非常便宜了,文章自动摘要功能可以免费提供给用户使用,toC 收钱是非常难的。

4. 大模型生成摘要之后,最后一步是生成图文回复到群里。服务端直接画图的方案效率会比较低,我现在的方案是先用前端渲染一个图文摘要页面,再用无头浏览器(go-rod)去截图这个页面,再把图片上传到 cos 拿到图片链接,然后通过微信机器人返回到群里。

后面有时间,再整理一篇文章详细介绍微信机器人 + AI 摘要的方案。“知了阅读”在的群里,任何人转发文章,都会自动输出一个图文摘要,帮助群友做读前筛选。

欢迎体验知了阅读,感谢关注与支持。
1017
艾逗笔
9天前
全球收款,出海淘金。💪⛽️

我跑通了全球收付款的流程

97
艾逗笔
11天前
新签名。🤩
30
艾逗笔
11天前
我最近一年写的 web 项目,开发框架全部用的 nextjs,数据存储用的 supabase,之前部署在 vercel,云函数调用费用特别高。

为了节约成本,一次性迁移到了 cloudflare,因为 cf pages 只支持 edge runtime,之前数据库读写库用的 pg 不兼容,只能换成 @supabase/supabase-js。

之前本地调试数据库用的自建 postgres,supabase-js 不支持直连,只能换方案在本地部署 supabase 实例。

而 supabase 本地实例是跑在 docker 容器里面的,Mac 开发需要下载 docker desktop 客户端。跑了一段时间发现,docker desktop 内存占用太高了,本地调试完全卡死。

开始找 docker desktop 的替代方案,找到了 OrbStack,Mac 下的轻量级容器运行平台,可以一键迁移之前跑在 docker desktop 下的容器,迁移完之后,把要调试项目的 supabase 实例都启动,内存占用很小,本地调试一下舒坦了。😭

推荐一下这个项目,解决痛点出现很及时👇

orbstack.dev
3018
艾逗笔
14天前
Coding in Seoul. 💻
00
艾逗笔
20天前
HeyBeauty 新版本上线,支持 11 个常用的图像处理任务,欢迎体验👉 heybeauty.ai
53
艾逗笔
21天前
🀀🍁👵🏻
40