即刻App年轻人的同好社区
下载
App内打开
Rajeshcoding
110关注69被关注0夸夸
#社畜🐮手机厂商互联网PM
#深耕出海互联网
#尝试用AI成为AI时代的Super Individual😲
#养一只牡丹鹦鹉
Rajeshcoding
5天前
最近花了比较长的时间试图给aibasket.me批量新增大批冷启内容,一来数据库里只有几十条数据需要更多冷启内容来填充,二来填充海量页面对SEO也有帮助。目前在cursor帮助下手搓了几个版本的py脚本,但最终效果差强人意 💔(期望一次批量成功处理上千甚至上万个,目前只能实现一次批量成功处理百来个),在这里记录下失意过程 😨

👉🏻脚本版本
V1: 读取表格中批量URL地址,自动化调用爬虫服务,爬取数据后自动插入supabase数据库
V2: 基本同上,但爬取数据后不自动插入数据库,而是保存为csv,表格字段格式和字段顺序与数据库表保持一致,方便上传(可以在csv做人工校验后再插入数据库表)
👿以上脚本在不处理超过10-20个URL的情况下都可以完美运行,URL数据量大起来就会遇到很多问题,如爬虫服务不稳定,处理网站数据的LLM groq api调用问题等,需要cursor继续迭代版本

V3: 主要针对groq api 每日token限制和api调用速率限制导致的数据处理成功率过低的问题,cursor在自动化爬虫脚本的基础上新增一个api manager的单独模块脚本做处理,逻辑思路是对的,但里面还有很多细节需要一一调试,目前这个版本的数据处理成功率还是很低,而且放着脚本静默长期运行,在运行后期一定会批量失败 😨

👉🏻Takeaway
1.还是那句话,让cursor分模块逻辑实现子需求,做好需求拆解
2. api的限制对需求实现的影响很大,这个需求估计还是得换调用限制较小的LLM api来实现
3. 脚本中要做好日志输出和清晰的结果文件保存(成功处理的内容,以及失败的内容和原因记录)以便后续统计

🉑整体需求用cursor还是可以被实现的,只是需要更多时间调试,目前不继续死磕了,转战下一步,以后有时间再继续优化~
01
Rajeshcoding
13天前
记录自己第一个Reddit获得3k+ upvote, 60w曝光pv的帖子 🐣
00
Rajeshcoding
14天前
💡《关于我如何用AI将真人做成卡通手办形象的半成品经验》💡

@JessyJang 老师的Midjourney生图->Tripo AI 3D建模->3D打印实物手办创意工作流💡指导下,尝试实现自己的需求,不过我的需求更定制化一些,希望将真人做成卡通手办形象。以下是实操分享(虽然是个fail case)👉🏻

☝🏻️Midjouney生图,通过垫图+人物一致性参考(cref)功能,生成与真人形象接近的卡通手办效果图
(1) 上传真人照片到midjourney对话框,得到图片链接(推荐使用类似证件照的清晰大头照片)
(2) 生成风格参考用的手办图片,比如我想要OL风格的卡通动漫的手办
参考提示词:
Product Photo of an Anime Character figurine, Nendoroid, A full-body shot of a modern female character with long black hair, naturally flowing, soft and voluminous, wearing a minimalist and intellectual outfit. The top is a white V-neck silk shirt, paired with a black silk long skirt. wearing white canvas sneakers, complementing the refined look. Professional product photography on a plain background with studio lighting, highly detailed, --no socks --ar 30:43 --v 6.0 --q 2
(3) 将1和2的结果结合,使用2的提示词,并加入--cref人物参考和--sref风格参考,格式如下:
上述提示词
--cref ____ (第一步生成的链接)
--cw 0 (参考真人照片的权重,一般0会更focus在脸部还原,数值0-100可以尝试调整,测试效果)
--sref ____ (第二步生成的链接)
--sw 500 (风格参考用的手办图权重)

PS 👁️
1. 网上其他教程会建议真人照片用midj过一次后用midj的返图去做人物一致性参考,但我实测是直接用真人照片链接去垫图生成出来的效果会更像真人
2. 如果要生成三视图,只需要用custom zoom然后修改提示词(比较靠前的地方)加入Show three views: front view, side view, and back view, 然后 ar调成16:9,zoom调成1即可

✌🏻️照片上传到Tripo AI 自动建模,到这一步就失败了,生成的模型还原度太低,满足不了诉求~
只能转而寻找真人付费服务了,在淘宝和小红书找了一通,发现3D建模设计的水很深😨,相差10-20倍的报价都有,目前还在寻源中~

以上就是一个fail case的实操分享。

期待实物!😃
15
Rajeshcoding
17天前
太棒了,感谢整理,里面还提到我的练手项目哈哈哈,现在已经离不开cursor了,希望它越来越好!

黄少侠: 即友们利用 AI 编程神器cursor 都创造了什么? 想要看看大家都用 cursor 创造了什么产品,我把即刻上所有提到 cursor 的帖子做了一下梳理和总结,包括: - 即友们创造了哪些产品 - 他们有哪些使用 cursor的心得 - 谁发的最早 - 谁发的最多 - 谁的帖子获赞最多 1. 他们创造了哪些产品? 类型还是比较多的 1️⃣内容生成与分享工具 awesome-website-reader: 一次性抓取并总结多个网站内容的网站。(开发者:杨兄) 自动生成编程 FAQ 文章工具: 自动生成基础编程相关的 FAQ 文章。(开发者:Alchian花生) Producthunt Daily 自动推送工具: 自动生成 Producthunt Daily 文章并推送到 Wordpress 网站。(开发者:viggoz) 基于简历的对话机器人: 基于个人简历,调用 ollama llama3 模型搭建的对话机器人。(开发者:海辛Hyacinth) 网页划线生成分享图片插件: 在任意网页划线并生成带有网站 logo 和标题的分享图片。(开发者:Alchian花生) 2️⃣开发辅助工具 phone-number-generator-eight.vercel.app: 电话号码生成器网站,存在 UI Bug。(开发者:Rajeshcoding) barcode-maker.com: 条形码生成器网站,UI 设计使用了 Flux。(开发者:ncuzengliang) svg-factory.vercel.app: SVG 图片优化压缩工具网站。(开发者:viggoz) 实时显示页面读取时间插件: 实时显示读取当前页面的时间,并支持缩放和拖拽。(开发者:海辛Hyacinth) Emoji 的 AI 翻译器: 使用硅基流动的 API 和 Llama 模型实现的 Emoji 翻译器。(开发者:杨远骋Koji) 3️⃣个人生产力工具 待办App: 本地使用的待办 App。(开发者:启师傅今天逛动物园了吗) comfyui 拼贴画工作流 App: 将 comfyui 拼贴画工作流制作成 App。(开发者:海辛Hyacinth) Tab Group Organizer: 支持自定义域名分组和颜色设置的标签页管理插件。(开发者:AI产品黄叔) 英文播客翻译及生成中文电子书工具: 上传英文播客,逐段翻译并润色,最后导出中文电子书。(开发者:泛函) 微信公众号接入项目: 包含前后端、爬虫、数据库、LLM 调用等模块的微信公众号接入项目。(开发者:Josh_Yo) 4️⃣网站与内容平台 Cursor Prompt 分享网站 CursorHub.co: 包含在线 prompt builder 的 Cursor Prompt 分享网站。(开发者:HackerQED) nextjscn.org: Next.js 中文文档网站,首页由 Cursor 生成。(开发者:阿伟dev) travel-in-china.life: 面向外国游客的中国旅行攻略网站。(开发者:Samile) indiebaker.com: 风格参考 dns.fish 的个人网站。(开发者:阿强与阿尔文) 2. 他们有哪些使用 cursor的心得 1️⃣Cursor 能力与使用体验(正面为主) 高效易用,颠覆编码体验: 多数用户对 Cursor 的评价是高效易用,甚至“颠覆编码体验”,尤其 Composer 功能备受好评,可以快速生成代码、修改代码,甚至根据图片生成布局,大大提升了开发效率,让不懂编程的人也能轻松上手。 代码质量高,Bug少: 很多用户反馈,Cursor 生成的代码质量很高,Bug 很少,甚至比人工编写的代码更少出错。 学习门槛低,适合新手: 即使是编程小白,也可以借助 Cursor 快速学习编程,因为它不仅可以生成代码,还能提供详细的说明和教程,帮助用户理解代码逻辑,并提供解决问题的方案。 多种交互方式,灵活便捷: Cursor 提供了 Composer、Chat、Tab、cmd+K 等多种交互方式,用户可以根据自己的需求选择不同的方式进行编程,更加灵活便捷。 与其他工具协同,提升工作流效率: 一些用户将 Cursor 与其他工具(如 RPA、Google Sheets、Obsidian、Figma 等)结合使用,进一步提升了工作流效率。 2️⃣. Cursor 的局限性与改进方向 对大型项目支持不足: 一些用户反馈,对于大型项目,尤其是代码量很大的项目,Cursor 的效率会降低,因为它对大型工程的理解和支持还有待提升。 存在上下文长度限制: 尽管 Claude 3.5 Sonnet 的上下文长度已经提升到 200K,但对于一些复杂的项目来说,仍然可能存在上下文长度限制的问题。 偶尔出现幻觉,需要人工修正: 虽然 Claude 3.5 Sonnet 的幻觉问题已经得到了很大改善,但偶尔还是会出现一些错误,需要人工进行修正。 希望提供更全面的功能: 一些用户希望 Cursor 能够提供更全面的功能,例如支持全链路开发、自动生成测试代码等等。 3️⃣、AI 编程的思考与未来展望 AI 编程将颠覆现有编程生态: AI 编程的出现,将大大降低编程门槛,扩大编程群体,并改变现有的编程方式,未来可能出现更多 AI Native 的编程工具。 LLM 模型的进步将持续提升 AI 编程体验: 随着 LLM 模型的不断进步,AI 编程的体验将会持续提升,未来的 AI 编程工具将会更加智能化和高效化。 AI 编程对职业的影响: AI 编程工具将利好高级程序员和没有编程经验的人,但对于初级程序员来说,则需要提升自身能力,例如学习架构或深入了解业务,才能不被淘汰。 3. 谁发布的最早? @罗锴 老师于 2023/03/17 在即刻发表了第一篇有关cursor 的帖子: 「想要让 AI 帮你写代码? 可以试试 Cursor,它集成了GPT-4,而且免费」 4. 谁发布的最多? @Alchian花生 花生发布的最多 Alchian花生 6 AI产品黄叔 5 是魔王哒-流光卡片 4 海辛Hyacinth 3 哥飞 3 泛函 3 5. 谁的帖子获赞最多 以单条帖子来计算,以下列出了前五。 @Szhans : 他的帖子「仅仅站着凝视海水是无法穿越大海的。」——泰戈尔 获得了 200 个点赞,18 条评论和 114 次转发,是所有帖子中数据最高的。 这篇帖子是关于 AIGC 的大目录,内容丰富全面,引发了广泛的讨论和分享。 @杨昌 : 他的帖子「最近歪打正着,摸索出了套“懒人AI工作流”的玩法。」获得了 174 个点赞,22 条评论和 97 次转发。 这篇帖子通过结合AI搜索、原始网页数据、RPA、AI编程和Chrome插件等多种技术,摸索出了一套适合技术小白的"懒人AI工作流" @常高伟_长山 : 他的帖子「谈一下AI编程工具cursor」获得了 162 个点赞,25 条评论和 68 次转发。 这篇帖子分享了他作为程序员使用 Cursor 的深度体验,对于其他程序员用户很有参考价值。 @哥飞 :他的帖子「产品经理再也没有借口不会写代码了,再也不会就缺一个程序员了」获得了134 个赞,26 个评论,58 个转发。这篇帖子主要是说Cursor等AI编程工具极大降低了编程门槛,使得产品经理等非专业程序员能够通过描述需求直接生成和修改代码,加快了从想法到实现的过程,减少了对专业程序员的依赖。 @泛函 : 他的帖子「笑死,每天去杭州良渚的共享空间办公,都会给 3 个以上的人,种草 3 个以上的 AI 产品🤣」获得了 107 个点赞,23 条评论和 42 次转发。 这篇帖子分享了多个 AI 产品的使用体验,引发了不少用户的共鸣和兴趣。

00
Rajeshcoding
18天前
部署爬虫服务的zeabur月订阅要到期了,🈶什么平替的平台服务推荐吗?最好是免费的
53
Rajeshcoding
24天前
上一个帖子在Reddit上也发了下,外网网友都不太建议这样做,海外用户还是看重隐私。

btw Reddit上也是个验证产品初步需求的好地方,用户活跃,评论真实😎
00
Rajeshcoding
25天前
有个特殊礼物的想法✨,导出跟某人的微信历史聊天记录,用AI Python做数据清洗后,用gpt或claude写情感生动的信。网上的分享贴更多是根据导出的聊天记录做数据分析报告,比如词云图,数据饼图,折线图等,感觉惊喜还不太够。

求问下即友👀
👉🏻除了微信聊天记录导出清洗+AI prompt写信外还有其他更惊喜的ideas吗?求分享
👉🏻基于聊天记录信息AI写信有相关的prompt推荐吗?
40
Rajeshcoding
27天前
感谢转发🙏🏻 //@字符排序: 实用分享

Rajeshcoding: 感谢@出海的Helloleo 大佬分享的开源代码和教程🙏🏻 成功上线自己的AI工具导航站 www.aibasket.me 👀,总结下上线过程中遇到的问题,为后面想跟着教程实操的朋友提供更多信息的参考。 【实操内容】 1.crawler爬虫服务部署在zeabur,爬取生成的图片存储到cf R2存储桶中 2.前端webui部署在vercel 3.数据库使用supabase,连接zeabur爬虫服务和前端webui服务,爬虫爬取后AI生成的数据内容写入supabase数据库并展示在前端webui上(这个代码逻辑在开源代码里好像没有实现,我的版本是下需求给cursor写的) #源教程见 1.https://mp.weixin.qq.com/s/VktoZ7f1Xo4ZmkXKJ5TOdQ 2.https://mp.weixin.qq.com/s/okYexIBLemXKe6cTDDvueg 【实操中遇到的一些问题和经验】 问题1:curl调用 https://ai-portal-site-webui.vercel.app/api/cron(Vercel子域名)显示无法连接服务器 解决方法:通过Chatgpt程序员朋友的排查(分析原因,一步一步排查)通过在curl上加 -x 127.0.0.1:XXX 本地代理解决(电脑的代理地址可以问gpt)见图一 问题2:爬虫服务执行后supabase的submit表未收录信息状态没有更改(理应从0改为1),新数据没有插入到web_navigation表中 解决方法:通过cursor程序员朋友的排查,是webui项目中api/cron/route.ts脚本中没有处理该功能逻辑的代码(WebUI的后端自动去查询supabase的submit表中未收录的内容,并且调用爬虫API去生成内容,内容生成完成后,爬虫API会回传结果到Tap4 AI WebUI后端,并将结果写入supabase;后半句的逻辑没有代码实现),同时通过给cursor下需求实现了该功能逻辑的代码 问题3:crawler项目的本地.env脚本没有设置 CF R2 自定义域名的情况下,爬虫抓取并生成的网站截图URL地址无法访问,在前端网页上图片无法展示 解决方法:crawler项目的本地.env脚本设置CF R2自定义域名 问题4:购买域名后需要配置什么地方以及如何配置 解决方法:在CF上添加域名并根据提示在godadday(域名购买商)将DNS nameserve设置成CF提供的信息,即所有DNS记录都托管给CF (1) 在vercel上设置域名,根据vercel提示将相关信息在CF DNS记录上完成设置(将主域名比如我是aibasket.me指向vercel) (2) 在CF R2上设置公开访问-连接自定义域,设置子域名(比如img.aibasket.me)(不要重复设置为主域名aibasket.me,打开网页会显示报错) PS:建议在本地部署可以运行项目代码的环境,在本地运行整体项目代码,可以调试各种问题,本地跑通在部署线上 【花费】 1. zeabur: 用于部署爬虫服务,订阅月套餐$5 2.域名: 在godaddy买的域名¥14 总共花费不到50元 (cloundflare绑定信用卡后使用免费版本) 接下来做了个项目计划表,包含产品,运营,推广,研发都有挺多事项可以继续做~👀

00
Rajeshcoding
27天前
感谢@出海的Helloleo 大佬分享的开源代码和教程🙏🏻

成功上线自己的AI工具导航站 www.aibasket.me 👀,总结下上线过程中遇到的问题,为后面想跟着教程实操的朋友提供更多信息的参考。

【实操内容】
1.crawler爬虫服务部署在zeabur,爬取生成的图片存储到cf R2存储桶中
2.前端webui部署在vercel
3.数据库使用supabase,连接zeabur爬虫服务和前端webui服务,爬虫爬取后AI生成的数据内容写入supabase数据库并展示在前端webui上(这个代码逻辑在开源代码里好像没有实现,我的版本是下需求给cursor写的)
#源教程见
1.mp.weixin.qq.com
2.mp.weixin.qq.com

【实操中遇到的一些问题和经验】
问题1:curl调用 ai-portal-site-webui.vercel.app(Vercel子域名)显示无法连接服务器
解决方法:通过Chatgpt程序员朋友的排查(分析原因,一步一步排查)通过在curl上加 -x 127.0.0.1:XXX 本地代理解决(电脑的代理地址可以问gpt)见图一

问题2:爬虫服务执行后supabase的submit表未收录信息状态没有更改(理应从0改为1),新数据没有插入到web_navigation表中
解决方法:通过cursor程序员朋友的排查,是webui项目中api/cron/route.ts脚本中没有处理该功能逻辑的代码(WebUI的后端自动去查询supabase的submit表中未收录的内容,并且调用爬虫API去生成内容,内容生成完成后,爬虫API会回传结果到Tap4 AI WebUI后端,并将结果写入supabase;后半句的逻辑没有代码实现),同时通过给cursor下需求实现了该功能逻辑的代码

问题3:crawler项目的本地.env脚本没有设置 CF R2 自定义域名的情况下,爬虫抓取并生成的网站截图URL地址无法访问,在前端网页上图片无法展示
解决方法:crawler项目的本地.env脚本设置CF R2自定义域名

问题4:购买域名后需要配置什么地方以及如何配置
解决方法:在CF上添加域名并根据提示在godadday(域名购买商)将DNS nameserve设置成CF提供的信息,即所有DNS记录都托管给CF
(1) 在vercel上设置域名,根据vercel提示将相关信息在CF DNS记录上完成设置(将主域名比如我是aibasket.me指向vercel)
(2) 在CF R2上设置公开访问-连接自定义域,设置子域名(比如img.aibasket.me)(不要重复设置为主域名aibasket.me,打开网页会显示报错)

PS:建议在本地部署可以运行项目代码的环境,在本地运行整体项目代码,可以调试各种问题,本地跑通在部署线上

【花费】
1. zeabur: 用于部署爬虫服务,订阅月套餐$5
2.域名: 在godaddy买的域名¥14
总共花费不到50元 (cloundflare绑定信用卡后使用免费版本)

接下来做了个项目计划表,包含产品,运营,推广,研发都有挺多事项可以继续做~👀
417