即刻App
年轻人的同好社区
下载
App内打开
奕谌
66
关注
1
被关注
0
夸夸
奕谌
2年前
陈桦Grace: 😃我的个人说明书:https://presence.feishu.cn/docs/doccnx04PU4FzTPBNzQBi2EoPnf 出海/创业/AI/社区/社交/内容C端产品相关期待和即友多交流。喜欢飞书,欢迎来我的飞书话题群玩 部分我的原创文章: 👋十年创业者 万字长文分享 我是怎么招人的 https://presence.feishu.cn/docs/doccn71hTTKbaRGF8RvD2XzLJEK 😳青年管理者指南 职场必读 https://presence.feishu.cn/docs/doccn1D2S1az39QNfuNmO94FLpK 🧧青年打工人升职加薪打怪指南 职场必读 https://presence.feishu.cn/docs/doccnUGilY7fYK4Sygb23l8n3Jf 🤓如何高效率面试? - 面试官必看 https://presence.feishu.cn/docs/doccnA68L4NXtwFAZ0ByDnjFsPg 🔥互联网女高管,买了1万+快递,推荐这 1000 个好物…0广告 https://presence.feishu.cn/docs/doccngGszbxRrZGBQDDXHgsoTfh 😋北京 不断更新的美食地图https://presence.feishu.cn/docs/doccnZr1ZgVPO65owSMgHxUXM6k 年薪翻倍的工作习惯 https://presence.feishu.cn/file/boxcnLiOuw0TyGwe1qAFXqhRXTf 用CBT治愈负面情绪 - 愤怒、焦虑、失眠、拖延等https://presence.feishu.cn/docs/doccnMA2sXjDgIU2slsubnTk4bf 📢招人硬广 这个介绍不仅包含我们的JD,还包括十年来对创业、行业和商业的思考 - 出海AI社交平台,超精英团队全球招研发(北京)、视频制作实习生(可远程/兼职)等 http://about.archat.us 志在千亿美金公司,创造让自己骄傲的伟大产品和组织。坚信早期团队是组织的地基,我们刻意保持极高人才密度和文化浓度,奉行S级薪水配S级人才,高标准做事,高标准招人的原则。大家也都非常自驱,彼此欣赏,是个每天都很有活力激情、乐于分享、快速成长的团队。欢迎大家推荐,base北京,推荐奖金1k-2万🧧
0
0
0
奕谌
2年前
喝鹅何说说: 斯坦福这节课讲清楚了LLM做RAG所有最重要的问题。 这节课就是传说中的Stanford CS25中的一节讲座<Retrieval Augmented Language Models>。授课人就是RAG论文的作者之一Douwe Kiela,课程中他分享了一个检索增强语言模型的架构图。 这张图重要到让我觉得,做RAG只要记住这一张图就够了。所有相关概念和工程实践中的权衡,全都涵盖在这张图的架构和问题中了。 这个架构主要包括input、prompt、通过retriever检索增强生成的context,然后把这三部分一起输入给generator即模型,最终输出output作为结果。 ❇️❇️关于这几个核心概念,值得注意的是: 1️⃣input和prompt的区别和联系在于,input可理解为既包含system prompt,又包含用户输入的检索范围的指向,而prompt则强调用户输入的指令。 🌟以公司知识库RAG举例,比如用户输入chatbot的内容为"检索公司2023年的财务数据并生成总结报告",其中"公司2023年的财务数据"是对公司知识库检索范围的指向,应理解为input的一部分,而"检索并生成总结报告"则是指令,应理解为prompt。 2️⃣retriever的作用机制,我理解类似于在图书馆借书的过程,提供书名(query)-系统查找图书编号(query编码)-对应书架书籍编号(docs编码)-找到并借出图书(context)。 🌟接着上文公司知识库的例子,从input获取query(如"2023年资产负债表, 2023年利润表, 2023年现金流量表"),对应的query编码("2023年资产负债表, 2023年利润表, 2023年现金流量表"的向量化表达)在docs编码(公司知识库所有文本的向量化表达)中检索匹配,提取匹配的部分作为context(涉及公司2023年财务数据的文本)。 🌟其中query和input的关系,我想到两种可能性,一种是直接把input作为query,另一种是模型基于input生成的query,架构图简化表达了。 3️⃣retriever和context之间可加一步reranker架构,对检索结果按特定规则进行重新排序。reranking的机制既可通过模型判断,也可在模型基础上预设特定规则。 🌟比如根据员工职级限制其可获取的企业知识库信息范围。 ❇️❇️目前工程实践上,大家把优化的重点基本都放在了retrieve环节里,这里面涉及三个重要的问题: 1️⃣how and what do I retrieve:从传统的相似性检索、文本检索,到目前最常用的依托于embedding的语义检索,大家在实践中仍在不断迭代。Kiela后面也提到有研究希望把整个retriever过程做成一个模型,他也在课程中构想未来应该把retriever的训练也纳入到LLM的训练架构中。 🌟文本的embedding可简化理解为文本的向量化表达,并且可根据不同文本的向量化表达,判断出文本之间语义的远近亲疏关系。 🌟目前的文本emebedding也都是通过模型来实现的,这类模型也在不断迭代。OpenAI在今年1月份推出了text-embedding-3(small和large两版),相比其2022年12月推出的ada-002模型,在性能上获得了显著提升。 🌟用于多语言检索的常用基准(MIRACL)平均分数已从 31.4%(ada-002)增加到 44.0%(3-small)和54.9%(3-large)。 🌟附图之一是OpenAI对其text emebedding模型作用机制的示意。 2️⃣When to retrieve: 一般就两种思路。一种是在获得检索范围后即retrieve,另一种是让模型判断何时retrieve。 3️⃣How to encode: 如何编码也直接影响了如何检索的过程。 ❇️❇️其他问题: 1️⃣how to pre-process: 实际上强调就是input要包含system prompt,可设定角色、技能、任务、工作流、限制条件等。 2️⃣how to prompt: 涉及提示词工程的方法论。 3️⃣how to pass context: 可以把context作为prompt的一部分以文本形式输入,也可通过代码的方式代入。 4️⃣how to post-process: 比如格式化输出的处理,如固定输出json格式,或固定在末尾输出reference列表等。 5️⃣how to verify: 指的是如何验证output的效果或质量,比如验证output与知识库的相关性、准确性等。 ❇️❇️最后,还有关于RAG整体架构的审视框架: 1️⃣How to optimize: 各环节哪些地方可以优化。架构中已经列出的问题都是思考的重点。 2️⃣How to learn: 这里的learn应该指的是机器学习的learn,探讨各环节从software 1.0的静态架构向机器学习和software 2.0的演进。 3️⃣how to scale: 如何应对规模化的问题。 🌟比如关于知识库如何chunk、何时编码,在知识库过大时就不适合提前预处理好chunk和编码。或者大量用户同时prompt该如何应对。 ❇️❇️前段时间判断过2024年会是RAG应用爆发的一年https://m.okjike.com/originalPosts/6602dca712ed2fda687ec0a3?s=ewoidSI6ICI2M2VlMjQ0NjhhMGY3NzVjODQyMmY1NzEiCn0=,自己在2B业务中也涉及RAG工程的落地,所以花了些精力来学习这节课。以上内容夹杂了不少自己的个人理解,欢迎批评指正,一起交流学习~ ❇️❇️links: 🌟Stanford CS25 V4 2024春季课程(面向公众开放,有人想一起学习搭子么?) https://web.stanford.edu/class/cs25/ 🌟Stanford CS25 V3: Retrieval Augmented Language Models https://www.youtube.com/watch?v=mE7IDf2SmJg 🌟RAG论文原文<Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks> https://arxiv.org/abs/2005.11401 🌟OpenAI text-embedding-3 models https://openai.com/blog/new-embedding-models-and-api-updates?t 🌟OpenAI text-embedding-ada-002 model https://openai.com/blog/new-and-improved-embedding-model?t 🌟Software 2.0 by Andrej Karpathy https://karpathy.medium.com/software-2-0-a64152b37c35 🌟 Kiela在讲这节课几个月后在其创立的Contextual AI正式推出RAG 2.0 https://contextual.ai/introducing-rag2/
0
0
0
奕谌
2年前
林木同学: 去年我们抖音本地生活的ROI超过20... 幸福西饼抖音渠道去年完成破局,高峰期月销3000多万,去年一年整体规模2个多亿,曝光将近40个亿,爆品单品单月gmv超过800万... 咋做的其实我很少对外说,因为压根不靠投流,也没给抖音贡献啥营收,做起来后抖音也不咋推广我们案例哈哈哈 我们只迎合推流机制外加多重杠杆撬动,搭建了抖音的螺旋增长系统。直到现在很多本地品牌依然还在线性投流,行业整体ROI 2-4;我们整体ROI一直稳定保持在20以上(实际值远比20高) 简单复盘下整体破局的几层逻辑: 1、底层逻辑是启动抖音的螺旋式增长系统。 POI、达人、商品/品牌三者彼此独立,自带流量,且可以相互赋能。 POI越多流量越大,POI下的达人和商品流量就越大,就越能吸引到更多达人来带; 达人带的越多,POI热度越高,流量就越大,商品曝光的概率就越大; 商品卖的越好,达人就越爱带,对POI的热度贡献就越大; 商品热卖最后会贡献为品牌,品牌本身也会拥有可叠加的流量和热度,再次反哺给POI和达人。 三者相互赋能无限叠加,形成一个非常强的增长循环系统。 这时候业务模式搭建的问题就变成,要如何启动这个增长系统。 2、增长系统的核心杠杆是达人生态。 达人的生态杠杆如下: 采买达人->自来水达人->搜索流量 以上3个要素带来的效应是相乘而非相加,单这一杠杆的ROI就超过20,更别提种草流量外溢对于投流、直播等的反哺。 理解达人生态会更好理解以上杠杆。 本地达人只在意两个事情:赚钱或升级,即要么给钱要么出量。 通过合理的达人策略和内容策略,可以营造小部分达人的赚钱效应,从而引发大部分达人跟进赚钱,提升POI和商品热度后,品本身就会转变为集赚钱和出量为一身的抢手货,从而引发批量的自来水跟进。 而所有达人集中曝光教育用户,加上本地天然的搜索习惯,杠杆的叠加就完成了。 这个逻辑下,投流只是营造赚钱效应的工具而已。 所以达人杠杆的核心就是营造赚钱效应撬动免费自来水从而拉动免费搜索流量。 这时候增长的核心就变成,要如何找到能让达人赚钱/升级的爆品。 3、增长系统的发动机是满足用户痒/痛点的品。 产品本质上是用户在特定场景下的解决方案。能让达人赚钱和升级的品,至少要满足两个要求: 1)产品本身好转化(用户买单) 2)达人内容成本低(达人买单) 痒点产品的营销策略是需要通过进攻右脑感性脑完成的。 品的筛选上,必须能够快速激发多巴胺,且价格带需要性价比足够从而避免用户思考; 爆款内容模版要足够有冲击力、足够简单且可复制,这样才能最大程度减少素人参与带货的阻力... 基于以上原则快速测试了好几轮品,爆浆系列蛋糕是我们第一个在抖音本地上做起并引发了整个行业的模仿。 4、外部红利环境是加速器。 蹭了一波抖音外卖首发的红利,但其实最大的红利是被先验预判的来自于达人生态的变更。 22年底大部分美团点评达人已经抛弃原有平台,转战抖音本地寻求商业化,抖音为本地达人建立的生存土壤已经成熟。 外加上组织内利益协调的完成、内容生产模式的搭建以及内外部合作伙伴业务模式的调整,最终迎来了这么一大波红利。 即使在被认为最卷的抖音赛道,真正的高效率打法还是潜藏于水下。 有些玩家只看到了卷低价的恶劣生态,有些玩家已经开始扫描品类和行业,成建制的对低效率领域发起战斗,商业竞争贴身肉搏朴实无华。
0
0
0
奕谌
2年前
Kelly.soul: 最近在思考和研究的web+AI叙事⬇️ 正好今晚读到一篇以太坊研究员Davide Crapis在3/11号写的。 有几周没做搬运了,今晚先出个上篇。过几天再出下篇。
0
0
0
奕谌
2年前
M
Szhans: ⛰️ AI 洞察:a16z推出最新商业报告,全球AIGC生态中消费端100强有哪些玩家? 六个月前,知名硅谷投资机构a16z对网络流量数据进行了一次深入调查和研究,以便区分信号与噪音,推出了当时非常有分量的榜单。 [1] 虽然有几家早期的「赢家」引起了广泛关注,但每月都有新的人工智能原生公司出现,市场空前活跃,也充斥着竞争。 现在这份重量级榜单再次更新,其中一个令人惊讶之处:与之前2023年9月发布的报告相比, 40%是新上榜的公司。 🔢 Top 50的AIGC网页服务和 Top 50的 App分别是谁? (以月活为基准的排名) - 如图1所示,网页侧前10名是ChatGPT、Gemini、Character.ai、Liner、Quillbot、Poe、Perplexity、Janitor AI、civitai、Claude; - 如图2所示,移动端10名的是ChatGPT、Edge 浏览器、photomath、Bing、Remini、Brainly、Nova、Chat&Ask 、Facemoji、Epik; - 如图3所示,有22家公司新晋榜单,称为新秀,Liner、Claude、Janitor AI、 ideogram、Eighfy等,其中AI 伴侣数量激增, 在下文中深入展开。 🚀 ChatGPT 领先,百家争鸣 - 在六个月前,它已经是访问量最大的网站之一, 当时排名No 24; - 现在它每月访问量20亿次,是第二名Gemini的5倍 - 移动端方面, 它的月活是第二名Edge 和第三名 Photomath的2.5倍。 - 另外一个和六个月前的区别, 之前榜单中是大批 GPT 驱动的创新,新秀开始呈现进一步去中心化的趋势。 - 图 3,展示了新品类生产力共有7家,包括Linner、Eighify、Phind、MaxAI、Blackbox AI、Otter.ai和ChatPDF。 (这个品类在去年9月份还不存在 [1] ) 🎵 两个涌现的新品类,九个Discord的重要 AI服务 - 6个月前, LLM通用助手占据网络流量的主体,现在分析发现有两个新品类。 - 音乐和生产力(研究、编程和文档摘要等) - Sono 是目前唯一上榜的音乐公司, 通过文本生成原创歌曲和歌词。 它是12月才推出的独立网站和Copilot扩展的。 - 图4 展示了9个Discord 服务进入Top100的玩家:Midjourney为首,还有DomoAI、Pika、Suno等。 💙AI 伴侣正在成为主流 - 6个月前, 只有两家AI 伴侣公司入选,此次更新报告中网页端8家、移动端2家。 - Character.ai 在网页排名第3, 移动榜单第16。 - 根据 SensorTower 的数据,Character.ai 每个用户每月平均298个会话, Poly.ai 则74个。 - 除了男女朋友, 更广泛的伴侣涌现, 包括友谊、娱乐、顾问和医疗等。 早期研究表明, AI在诊断准确性和临床态度都胜过真人医生。[2] (Hans 表示感同身受 ) - 在《Nature》杂志最新的一项研究中, Replika聊天机器人减少了3%的自杀倾向。 💻 移动 vs. 网页,场景应用大不同 - 网页端一般支持更复杂、多步骤的内容生成和编辑工作流, 例如语音生成的Eleven Labs和AI绘画的Leonardo,还有PPT 利器 Gamma等, 它们都在Top 20之内。 - 移动端偏向于通用助理, 大多模仿ChatGPT, 甚至超过10家名称相似。 (这是抓住App Store 的SEO 优化空间,还有一些羊毛软件, 以类似标题和标识来欺骗用户) - 移动侧还有一些符合移动特性的AI 应用。 Facemoji 第9,Bobble 第31和Genie 第37都是专用键盘,在AI帮助下发短信;而Photomath 是手机扫描作业,而Elsa是语言学习。 🌍 AI 是一个全球风潮 - 硅谷可能是AI的中心, 但全世界都在制造受欢迎的产品。 - 榜单上 30%源自湾区,也只有1/3 移动应用源自美国。 - 图6展示了开发者的地理分布:北美除美国外,还有加拿大的多伦多、蒙特利尔;亚洲的北京、香港、首尔、伊斯坦堡、新加坡和河内等;欧洲、中东和大洋洲都广泛分布。 - 一些移动开发者多次创下佳绩:位于伊斯坦布尔的工作室 Codeway开发了Face Dance、Wonder和Chat & Ask AI,都持续在顶级的应用程序榜单上。 土耳其的HubX 开发了Nova、DaVinci和PhotoApp增强器等。 这份报告侧面证明了 AIGC 生态蓬勃发展,新一代 AI 产品将迎来进一步的腾飞。 It’s time to build~ 📖 注释和参考: [1] AI 洞察:除了ChatGPT,新世界还涌现了哪些重磅玩家? 2023.9 https://m.okjike.com/originalPosts/65078e2a15391e4bc75bc7f6 [2] Hans 的GPT Store 随机漫步:陪伴篇https://m.okjike.com/originalPosts/65efd14da922aa28d09c5df5 [3] a16z 官方报告网址:https://a16z.com/100-gen-ai-apps/
0
0
0
奕谌
2年前
歸藏: [整理]基于Sora是否真的像Open AI说的一样是个世界模型,又吵起来了。 基本上就是两派一派类似杨立昆的论点,模型必须理解底层理论从底层理论推导出来物理现象才能叫世界模型。 另一派的意思是只要他表现出来相当程度的物理世界的表现,那就有继续优化的机会,就有可能变成完整的世界模型。 ◆Gary Marcus和Jeroen Baert就表示: Open AI演示的多视角的例子清楚地显示出在不同视角下,细节或物体并没有实现匹配对齐。这些图像仅仅是基于同一指令独立生成的。模型并不是通过移动一个或若干虚拟摄像机来“构建”一个三维空间的。 什么类型的物理引擎会在同一场景中产生不一致的视角效果呢(当然,复杂的遮挡等因素除外)?一般来说,标准的做法是先建立一个三维空间的模型,然后从特定的视角对其进行渲染。 大大削弱了JimFan和 OpenAI 把 Sora 当作传统物理模拟器的论点。 ◆JimFan的回复是: 这是一个合理的批评。关于这个问题,有两种可能的解释:(1)模型会出现这样的错误,可能是因为它根本没有学习物理规律,只是简单地将像素混合在一起;(2)模型内部可能实现了一个物理引擎,但这个引擎的性能还不够成熟。比如,Unreal Engine的第一版在处理流体和可变形物体等方面的表现,与第五版相比就差很多。第一版的渲染效果也更差,且在物理上不够精确。 我更倾向于第二种解释,但如果能有更多实验和系统性研究来验证这一点,那将会非常有帮助。 ◆同时他转了一个支持他论点的老哥Nando de Freitas的解释: 生命,以其惊人的结构,实际上是在不断增长的宇宙无序中创造出秩序的过程。例如,您可以参考这篇简明的介绍文章:https://newscientist.com/article/2323820-is-life-the-result-of-the-laws-of-entropy/。就像细胞一样,神经网络在训练过程中也需要消耗能量以减少无序,从而更好地进行预测和泛化。实际上,我们甚至将这种损失称为负熵。像生命一样,网络也是更大环境的一部分,它从环境中获取数据和反馈。同样,这个过程也会给宇宙带来大量无序(比如TPU和GPU产生的热量)。总的来说,我们具备了智能(生命的一种涌现属性)的所有要素,包括对物理的理解。如果有人能把这个论点表述得更清晰一些,我会非常感激。 一个有限尺寸的神经网络要想预测任何情况下将会发生的事情,唯一的办法就是通过学习内部模型来实现这种预测,包括对物理规律的直观理解。 基于这种直觉,我找不到任何反对 JimFan 的理由。 随着我们获取更多高质量的数据、电力、反馈(也就是微调、基础化),以及能够高效吸收数据以降低熵的并行神经网络模型的发展,我们很可能会有能够比人类更好地推理物理的机器,并且有望教会我们一些新的东西。 顺便一提,我们也是神经网络的环境,我们消耗能量来创造秩序(例如提高用于神经网络训练的数据集的质量)。 这些都是源自波尔兹曼、薛定谔等人的古老思想。它们奠定了理论基础。现在,关键是要构建代码、进行实验,并且必须负责任和安全地进行,因为这些技术非常强大。 ◆Gary Marcus的回复: 一个使用了较大“n”值的ngram模型可以通过预测人们描述世界时使用的句子来合理地表达对世界的看法,但这并不意味着ngram模型真的拥有一个关于世界的模型。事实上,它并没有。 这个观点过于泛泛,不足以作为判断的依据。 可能让情况看起来有些混乱的是,这种像素混合的处理很可能是在大量由游戏引擎生成的帧序列上进行训练的。 但这并不意味着在其内部真的有一个游戏引擎。 ◆ASM的观点比较理性: 我也倾向于支持(2)这一观点。Sora可能正通过某种初步的归纳过程来“学习”物理原理,这有点像幼儿通过观察物体掉落来学习重力的原理。举个例子,在“咖啡中的船只”这个视频里,我们看到波浪在中央区域是湍流的,而在边缘则相对平静。我认为在训练素材中应该没有类似的视频。 然后Gary Marcus说跟LLM他是有幻觉的而且模型无法自我纠正,ASM回复确实,这些都是目前人工智能领域面临的重要挑战。但考虑到人工智能技术的快速发展,你真的认为找出减少错误生成和加强事实核验的方法是不可能的吗?我们目前所处的阶段,只是这一历史性的、强大技术发展过程的起步阶段。 来源:https://x.com/GaryMarcus/status/1759292076204924991?s=20
0
0
0
奕谌
2年前
何其狂: 最近无意发现了这篇《腾讯会议用户增长方法》,在阅读完后,简直如数家珍,我后期又反复花了2周时间来学习和研读。 强烈推荐各位产品去读下这篇干货,不仅详尽地阐述了腾讯会议在疫情之后如何实现用户量的几倍的增长,而且提供了一套系统化的用户增长方法论,讲述如何把方法论利用到实践,最后得出结论做对了那些事情。 首先讲述了腾讯会议用户量激增的几个成功动作: 1.确定了以月用户参会用户数为指标(MAU),以留存老主持人为第一优先动作; 2.去掉之前C端产品的增长方法,例如短信推送,裂变活动、用户分享得奖励等方法拉新,确定以产品设计增长思路,非运营增长思路的设计; 3.找到老师为杠杆增长目标人群,强化提升老师人群的留存率就可以做到几何倍的用户增长; 4.确定掉老师在“1个月内主持N次会议”,“至少使用M个功能”,“至少开Y场不同会议场景的会议”就可以提升留存率; 5.将产品能力开放出来,通过API等形式与给高校信息化部门,高校教学系统服务商合作,并拓展培训、招聘等行业用户新增,贡献千万级别的用户增长; 6.围绕着点名,线上测试,云录制为核心功能来为老师服务,通过支持老师用会议时长兑换腾讯视频VIP等福利,实现正向的留存策略; 来看看腾讯会议具体是如何利用科学的方法找到需要实践的动作: 1.确定用户增长的核心指标 找到一个核心指标,作为团队核心关心的指标,需要每时每刻都盯着的那种; a.体现活跃规模而不是注册规模: ·不要去关注注册数据,容易被广告买量冲淡成果,体现用户增长更应该看活跃用户; b.和产品的价值建立关联,体现有效价值用户规模: ·活跃用户应该是注册且操作过产品的用户,仅仅只登录的用户不应该被过度关注; c.考虑用户的活跃频率,合理设计统计周期: ·看看活跃用户体验核心功能功能的周期,日周月里面选一个周期为核心确定; 总结:因为在线会议不是一个高频需求,腾讯会议选择了以月参会指数(MAU)来做核心指标; 2.认清合适的用户增长驱动模式 用户开不开会,是需求决定的,无需创造需求来做增长,用户并不会为了领取个奖励或参加个运营活动就跑来开会; 总结:腾讯会议是一个工具产品,更适合产品功能驱动产品; 3.确认用户增长的核心杠杆 核心杠杆,就是指性价比最高,资源投入相对更小,却能带来超大回报的增长策略,需要清楚产品增长的关键指标、用户角色、增长来源、目标用户或者使用场景; a.定义你的产品的用户增长公式,把关键用户角色放到增长公式中; ·MAU=发起者规模 x 平均一个发起者能带来的用户量;(腾讯会议的增长公式:MAU=会议主持人MAU x 平均增长系数) b.增长公式下钻拆解,确认拉新、留存、回流的优先级,以及关键目标人群和使用场景; ·新增,留存,回流三个用户增长的重点,确认优先级;(通常留住一个老用户,比获取一个新用户简单,所以一般对于已经有一定规模用户的产品,腾讯会议优先先把留存提升起来) ·找到核心杠杆用户人群 核心用户人群参透率=目标人群MAU/大盘整体用户MAU,代表的是该目标人群的规模价值; 核心用户人群次月留存率=连续两个月都使用核心功能用户/上个月核心用户数,代表的是改目标人群留存率; 计算后,会发现两个结论, 高渗透低留存人群:想办法提升留存率;(腾讯会议的高渗透低留存人群是老师群体) 低渗透高留存人群:想办法提升用户规模;(腾讯会议的低渗透高留存人群是销售,HR等群体) ·找到核心裂变场景 平均增长系数就是找到核心杠杆用户的使用场景做拆解; 用户场景渗透率=用户场景数量/大盘整体场景数量(腾讯会议的在线授课的会议场景裂变系数可能可以达到四五十人,企业培训的场景裂变系数可以达到二三十人,而面试场景的裂变系数通常为2人,因为大部分面试多为1V1面试,只需要找到核心裂变的用户场景,就找到平均增长系数) c.通过ICE评分体系,结合影响力、评估信心、简易性确定用户增长核心杠杆; 给每个产生的指标进行打分评估,这样就能快速确定优先级; 总结:腾讯会议做了三步确定了用户的杠杆人群和杠杆场景; 第一步:定义用户增长公式为 MAU=主持人MAUx平均裂变系数,确认主持人是关键用户角色; 第二步:基于用户生命周期拆解的结论是留存>新增>回流,基于目标人群拆解的结论是提升老师群体留存率,新增老师和HR规模,基于会议场景对裂变系数的拆解的结论是提升在线授课和企业培训场景的渗透率; 第三步:通过ICE评分体系确定核心增长杠杆是提升老师群体留存、新增老师群体规模、并提升在线授课和企业培训场景的渗透率。 4寻找可执行的用户增长的魔法数字; a.用户调研,问问用户为啥使用该产品,为啥后面不用你的产品了 b.确定掉用户的使用频率,使用功能数量,使用场景,使用特定功能:例如只要老师连续使用这几个功能腾讯会议,ta就会有更高的概率留存下来; c.看看确定掉用户的使用频率、使用功能数量、使用场景数量三者是否和留存率呈现正相关,是否存在线性回归关系;例如1个月内主持N次会议就能提升留存率; 总结:腾讯会议找到提升留存率的魔法数字是老师们在“1个月内主持N次会议”,“至少使用M个功能”,“至少开Y场不同会议场景的会议” 5.基于魔法数字,设计用户增长策略; 根据魔法数字来优化体验场景中的问题,一个个点优化掉; a.增强有效的触发点:精准并相对多频的触达用户,让用户记住你并产生使用的冲动,这里的触发物包括站内的触达推送、新媒体触达渠道、线上线下广告等等; b.设计阶段奖励:比如很多产品当注册流程比较长的时候,会在注册路径上提示类似“恭喜你xx成功”之类的提示; c.增加奖励刺激:奖励用户的使用和付出,让那个用户获得满足感,这里的奖励包括实物奖励,也包括精神奖励,比如他人的认可或互动; d.积累资产,提高替换成本:在产品设计上,想办法让用户沉淀一些资产在你的产品中,比如存储文件、统计数据、社交关系等等,或者想办法让用户付出一些成本,包括付费充值,或者用户花费时间填写信息等; 总结:通过优化体验场景,腾讯会议通过增强触发、引导行动、设计奖励、累积资产提升了老师留存; ·在增强触发方面,通过搞定学校、和高校服务商合作的方式增强对老师的触达; ·在引导行动方面,会议前提醒,收藏会议,绑定日历,美颜摄像头,学生签到,用户不登录入会,微信链接入会等功能,刺激用户体验产品; ·在增加奖励刺激方面,通过会议时长兑换奖励的方式激励用户; ·在增加投入上,让老师多使用云录制等功能,持续沉淀用户资产; 6.AB实验验证增长策略; 在设计完成上述的优化点后,还需要进行AB测试的实验来验证上述的策略是否为正向效果; a.合理的计算实验的最小样本量,避免犯样本量不足的错误; b.尽量严格控制实验变量,避免犯实验变量不单一错误; c.实验人群分包确保足够均匀和随即,避免犯实验组和对照组人群不同质错误; d.科学的判断数据提升的显著性,避免犯统计结论错误; 总结:通过AB测试发现将API等方式将视频会议的能力开放给国内教育服务商,从而提升老师用户使用频次和留存是正向的策略;支持老师群体将参会时长用于兑换腾讯视频会员、QQ音乐会员等福利也是正向的策略; 以上就是腾讯会议如何着手去做增长,如何找到科学方法论去验证猜想的策略,最后真正的实现了用户增长,希望产品朋友们去阅读原文里面有详细的信息,更容易理解;后面可以利用里面的方法来设计自己产品的用户增长方法。
0
0
0
奕谌
2年前
深思圈: 讲得太好了,每一点都很契合我目前正在合作出海公司的现状。@High寧 @JKtheSeeker 跟用户交流迭代产品是一个一把手工程
0
0
0
奕谌
2年前
yusen: 看了OpenAI dev day之后的一些想法,抛砖引玉一下: 看了OpenAI Dev Day,觉得OpenAI现在比较像PC时代Intel+Microsoft两家的结合,提供了芯片和操作系统以及最核心的几个杀手应用,通过技术升级+大Capex投入的规模效应来形成壁垒,同时做操作系统、应用商店和超级应用。 在芯片行业直接对标Intel的第二名还有机会,操作系统的第二名机会就很少了。大Capex投入形成的规模效应还是有被挑战的可能的,操作系统形成的网络效应和非常高的迁移成本,基本上非常难以挑战,并且更加赢家通吃。Dev Day之后很多人哀嚎OpenAI干掉了很多startup,本质上还是因为这些startup在做计算器写字板浏览器这样要么很简单没门槛,要么操作系统肯定会做的事情。 简单粗暴类比下历史,面对Intel+Microsoft,赢家有几种情况,第一种情况就是得像Character这样训自己的模型,在情感陪伴领域有很好的表现以及很低的推理成本,在一个细分市场里面有机会大幅超过openAI,类似于NVDA做GPU或者ARM做低功耗的芯片,然后再围绕独特的模型能力打造独特的产品和生态。 第二种情况是在Windows上构造类似Adobe这样和业务结合非常紧密,迁移成本非常高的软件,让微软自己做不出来。这会考验AI能力是否真的能和业务场景深度结合带来增量价值。 第三种情况是基于Windows提供的浏览器能力,做社交网络,电商等。核心还是用户数据和用户关系的沉淀。这里的关键会是AI的新能力如何形成之前无法产生的连接,以及这样的连接如何能够沉淀形成网络效应。移动互联网早期第一个把滤镜做到极致的不是instagram,而是Hipstamatic,当时红极一时,2010年还拿到了Apple App of the Year的荣誉,然而Hipstamatic的滤镜虽然做到了极致,但并不具备网络效应,现在估计都没几个人记得这个应用了。而Instagram虽然号称也是创始人Kevin从学摄影的经历得到灵感,但其实它的前身是一个叫Burbn的社交应用,做的是类似Foursquare的签到分享应用,这天生具备网络效应的设定,后来才改名为Instagram专攻照片拍摄和分享火起来的。第一波AI创业公司也必然会诞生很多Hipstamatic这样的产品。 同时Dev Day发布的Stateful API很重要,不只是因为降低开发者成本,更重要的是意味着用户在OpenAI模型上的时间投入开始产生了迁移成本。之前的GPT等于还是一个滴滴司机,和用户服务完没有留下记忆,下次见面需要用户重新把prompt和上传的文件再说一遍。现在真正变成了能记得住历史的助理,用户沟通的时间越长,积累的stateful数据越多,就越无法离开。目前看这个stateful的数据还没办法迁移,是和同一个OpenAI账号绑定的,类似这个助理还没办法跳槽去别的助理公司。 GPT4 API的定价大幅下降也是很关键的。用半导体产业类比的话,台积电创始人张忠谋在德州仪器工作的时候,针对半导体行业芯片一开始成本高,良率低,需要起量才能够提高良率降低成本的特点,颠覆了原来业界习惯性新芯片定高价的定价模型,提出了Learning Curve Pricing的概念,也就是行业领先者可以一开始就大幅度低于成本定价,使得先进芯片更快普及,倒逼产能升级,同时打压竞争对手。这一点和OpenAI现在面临的情况是很像的,模型成本还很高,但是需要更多开发者去帮助模型迭代,所以需要激进地补贴降低成本,而不是因为模型训练贵所以急于回本。
0
0
0
奕谌
2年前
公众号、播客、即刻三重粉丝跪求写篇公众号分享一下
莫妮卡同学: 🍽️ 莫妮卡同学的湾区的第N个干货饭局,ML Infra/tooling 又是个硬核话题。有 👉Llama, Apple 直接的 LLM infra builders, 👉 Niantic, Google, Zoom, Moveworks 聊如何应用 LLM, 👉Scale AI, Startree, Alluxio 聊infra/tooling, 👉YC startup 的创业公司视角。 🙌大佬云集,又是近3小时聊到关门都不愿意结束(不得不感慨Uber mafia 在infra的势力太惊人 )! PS 过完生日,就发现花开了,是不是好兆头!
0
0
0