即刻App年轻人的同好社区
下载
App内打开
AndrewChan
335关注252被关注0夸夸
出海产品|AIGC|增长
在Mapify做增长
AndrewChan
2年前
在任何输入框调起大语言模型来润色、回复、发散

CoChatter Keyboard

00
AndrewChan
2年前
Apple Vision Pro太帅了。。。
最震撼的这个手指交互、自动透光展示用户的沉浸状态
这些如何让产品不那么wacky更能融入日常生活的交互定义
希望快点到手玩一下
10
AndrewChan
2年前
苹果也发布了自己的AI键盘🫠
刚做的CoChatter AI prompt 键盘直面苹果竞争

不过我们可以和场景结合推荐和搜索AI prompt
让最符合场景的机器人都在你的输入法里🤖️

(并且还蹭了Chatgpt官方APP的热度,可以直接在我们输入法里搜索prompt

不过键盘真是太卷太难了
高频,用户体验要求高,用户切换成本高,商业化难
小团队做出海的体验还很不完善,现在只有英语键盘
期待各位大佬体验提出宝贵意见

认知迭代以后的更容易商业化的产品也在计划中了🙃
这个输入法就当作是相信从GUI到LUI过程中输入法会是入口级产品的一个下注吧,也会一直更新的

#WWDC23
01:31
30
AndrewChan
2年前
终于要来了🤩
原动态已删除
00
AndrewChan
2年前

哥飞: 一句话搞清楚微调 fine-tuning 和嵌入 embedding 的使用场景: 如果你想实现记忆功能,用 embedding ,如果想给模型增强或者增加能力用 fine-tuning 。 如上下文记忆、ChatPDF、ChatDoc、智能客服、虚拟女友、虚拟人等等,都需要用到记忆功能,那么就用 embedding 。 如写梗、写笑话、写诗、写对联、模仿写作风格,都属于增加新能力或者增强已有能力,就要用 fine-tuning 。 继续把回答群友提问搬过来,其实是老生常谈话题,但是可能会有人不知道,所以继续科普。 @DemoChen 问:好奇一个问题,用向量化的话,用户提问和向量数据库匹配后,找到最相关的 Top N ,提交给 chatGPT 这个是利用 messages 字段吗 我答:topN 这里的 N 不是指长文档,而是短文本。所以第一步,把长文档拆分成短文本。 举例可以按照自然段拆分,如果自然段太长,还可以继续拆分成更短的。一般每个短文本300字左右。 所有的一切都是围绕着官方文档的限制去做的,官方文档只提供这个接口,那就只能用这个接口。接口限制了 token 大小,才会用上向量方案。 所以最后找出来的就已经是短文本了,可以整个提交给gpt。 @效威Fernando 问:把embedding用来增强LLM的记忆其实是两步嘛 第一步 Embedding其实是把原始文本(称为文本A)转成了向量 第二步是: 在文本向量中匹配出与问句向量最相似的top k个 -> 匹配出的文本(称为文本A`)作为上下文和问题一起添加到prompt中 -> 提交给LLM生成回答 那么A 跟 A` 是一模一样的吗? 我答:长文档,假设ID是 doc123 ,假设切分成10个文本,你给每个短文本设置一个ID,假设是 doc123_text01 ~ doc123_text10 调用 embedding 接口,为每一段短文本生成向量 。 假设你把向量存储到文本文件里,可以这样存,用 jsonline 格式,一行一条数据 {"textID":"doc123_text01","vector":[这里是向量数组1]} …… {"textID":"doc123_text10","vector":[这里是向量数组10]} 使用时,把 jsonline 文件整个载入到内存里。 把用户的提问也调用 embedding 接口转成向量,拿着提问的向量,去内存里遍历之前的所有短文本向量,计算每个短文本向量与提问向量的距离,排序,找出向量距离最近的3个向量的短文本ID。 再拿着短文本ID去数据库找出对应的文本。 再把文本和提问放到 mesages 里去。 这是简单实现,如果你的短文本数量在一两万条级别,那么全部载入内存就是最快的方式。 你也可以用 langchain ,搭配向量数据库,向量搜索引擎使用。

00