即刻App年轻人的同好社区
下载
App内打开
潦草学者
678关注2k被关注1夸夸
AI 探索者 创作者 产品经理
公众号:潦草学者
Newsle..:草稿拾遗
🖋/📖/📷☕️/🍻/🤘🏻/🏓
关注人工智能&个人管理&互联网商业
置顶
潦草学者
2年前
Readwise Reader 是最好用的阅读软件之一。
但作为一款海外产品,Readwise Reader 在中国有些许水土不服。

为了让你更好地使用 Readwise Reader ,我们做了一款小工具—— wechat 2 reader

这款小工具解决了两个问题:
1. 让收藏文章更加便捷,在微信内转发文章或链接,即可以收藏文章。
2. 解决了Readwise Reader 在收藏中文文章时,图片丢失的问题。
1618
潦草学者
3天前
分享一个我的多维表格+AI 的使用案例——🔀 批量翻译成多语言

📱在出海 App 的开发中,多语言翻译一直是一个费事儿的问题:
多语言翻译,讲究既要符合当地用户的语言习惯,又能够让文字尽量精简。

在没有 AI 之前,曾经有一段时间我们需要海外的同事帮忙翻译。

但这个事情一旦交给人了,就有各种各样的原因会出错。
比如因为时差,很难协同上。比如英语很难表达中文产品经理想要表达的意思,而再翻译成多语言以后, 意思可能又会产生更大的偏差。而这样的偏差,又很难在测试中被发现。

但有了 AI 以后,大语言模型完美地解决了问题。

设定prompt 后,大语言模型可以又快又又好地完成这项工作,无疑是非常大的利好。

剩下唯一的问题,就是怎么批量去翻译大量的文案,一个一个用模型生成,又太慢了。

这时我就发现了飞书的多维表格在今年支持了 AI 填充文字的功能。

便完美地解决了批量化的问题。

我只做了一个自动翻译的飞书多维表格模板。
1️⃣ 只需要在多维表格中的第一列填充需要翻译的中文文案。
➡️ 整个多维表格就会自动运作,开始翻译文字。
2️⃣ 等到翻译好后进行校对,就可以交付给开发。
02
潦草学者
5天前
00
潦草学者
5天前
国内外产品看多了
发现海外的 UI/UX 设计远不如中国公司

中国产品大多都注重视觉和用户体验的,
海外往往有一股浓厚的工程师的味道,强如 Google,Meta 皆是如此。

可以看一些案例:

ChatGPT 迭代了这么久的 App,Deepseek 爆火后,页面都改成了和 Deepseek 一样。
deepseek UI/UX 设计,在中国大模型的 APP 里几乎只能算是刚刚及格
可以再一下豆包现在手机端和 PC 端的产品设计,这才是 85 分的产品。

再比如 Character.ai 对比 Talkie/Poly.ai,Youtube 播放器对比 Bilibili,Instagram 对比小红书。大部分情况下,中国产品的 UI&UX 都要好得多。
53
潦草学者
5天前
自带推理能力的 Deepseek R1 Deepseek-v3 相比,prompt 写法有何异同?

相同的
1. 尽可能清晰准确地描述你的需求,这一点和之前相同,但自带推理能力的模型,因为其推理能力存在,即便你描述得不够清楚,模型也会生成相对完整地回答。
2. 依旧可以赋予模型一个角色,告诉他你的受众,帮助模型更好地思考

不同的
3. RL 会放大你的 prompt 描述,以写文章为例,让 deepseek-v3 其以 xxx 的写作风格来生成内容,其效果远不如 Deepseek R1,猜测是因为在 RL 训练的过程中,对文笔优化进行了特殊奖励,才形成了 R1 这样好的写作能力。
4. 减少使用 few-shot案例,多余的案例会影响模型的推理。
5. 不必使用 COT prompt,也就是不必告诉模型思考的步骤,模型有自己的思考方式。像“让我们一步一步思考”这样的文字,也可以去掉了。
02
潦草学者
6天前
用豆包来做同品类产品的对比,帮助挑选想要的产品。

产品测评博主,危⚠️
33
潦草学者
7天前
写完日记,让 Deepseek-R1 模仿苏轼和李白的写作风格为今天的经历写一首诗词,确实很惊艳.

《甲辰新春感怀》
闹钟无响日高眠,午梦初回赴案前。
案牍随风皆过眼,天籁萦耳似鸣蝉。
明朝辞别知音少,今夜烹茶旧友牵。
且把利是换美酒,醉邀明月共翩跹。
00
潦草学者
8天前
Readwise 发布了 Chat with Highlight 功能,可以和之前的高亮对话了!

问了一些问题,回答的不错,中文回答也可以,Readwise 的会员越来越值钱了!

readwise.io 体验
43
潦草学者
22天前
我有一个暴论:语言的上限,决定了大模型的上限。

现在这一波生成式 AI 的技术,实际上都太依赖 Transformer 了,太依赖语言了。

因为大模型依赖人类的训练,而人类只能通过语言来描述一个东西,所以现在的大语言模型都高度依赖人类的语言。

比如视频生成。

了解了现在视频生成模型的技术原理。有种感觉,按照现在的框架,比如 DiT,不太可能实现通用的视频生成模型。

因为,视频是很难用语言描述的东西。

可以做一个思想实验:你蒙住眼睛,让另外一个人通过语言来和你描述一个一分钟的视频,让你在大脑中想象他的画面。无论于语言描述得多么完善,你想象的视频必然和原始视频有非常大的偏差。

所以,我有一个暴论:语言的上限,决定了大模型的上限。

按照现在的框架来看,通用的视频生成模型更难出现,视频生成模型只能在在特定的场景中稳定使用。例如基于一些画面信息,进行一些稳定的简单的镜头移动,生成时间短的视频还是可以的。但是通用的长的模型生成不可行。

当然,希望技术的突破可以打我的脸。
127
潦草学者
23天前
Deepseek 沉浸式翻译 Deepseek 的论文
71