即刻App年轻人的同好社区
下载
App内打开
LunarCrest
13关注1被关注0夸夸
LunarCrest
11天前
投放商不傻,看点赞评论比,还有粉丝画像、播放量曲线是能看出来是不是真粉丝的。
而且多数时候不会只看粉丝量,会看铁粉量,铁粉量没办法造假(或者说造假成本比收益高) //@PeeeeeeeeeeeeeeerHui: 为什么精准客群不能是买来的假粉?

风小海: 2026年自媒体:百万粉丝无法变现,2000粉丝赚的盆满钵满。 大人,时代变了。现在的自媒体规则不一样了,老一套玩法已经行不通了。 我认识的酒店博主。 账号粉丝数:2000人。 每月商单收入:3000到4000元,雷打不动。 你可能觉得这没什么了不起。 但我再告诉你另一面。 我见过很多抖音粉丝二三十万的泛娱乐账号,一年都接不到2个商单,连转转、闲鱼的单子都没。 还有那些B站里曾经风光无限的百万粉丝大号更惨,要么停更了,要么卖号了,因为完全不赚钱,2022年开始泛娱乐账号就很难接到商单了。 现在做自媒体,并不是粉丝越多来钱越快。 这个逻辑在2016年之前是对的。那个年代,流量就是一切,粉丝数就是你的身价证明。平台需要你帮它填满内容池,需要你帮它留住用户,所以会给你分成,给你流量扶持,给你变现通道。 那叫平台的婴儿期。婴儿需要奶水,所以对喂奶的人特别好。 但现在,微信公众号沉淀了十多年,抖音的日活已经稳定,小红书完成了从种草社区到广告平台的蜕变。 平台长大了。 长大的孩子,不再需要你来喂奶。他需要的,是能给他赚钱的精准流量。 这个逻辑一变,游戏规则就彻底不同了。 你辛辛苦苦养了一百万粉,但这一百万人是谁?是刷短视频刷进来的猎奇流量,是被一个段子吸引来的路人,是看完就走从未消费过的过客。 这一百万人,和品牌主要找的客户,没有任何关系。 你的粉丝池,是一片看起来壮观、实则寸草不生的死海。 现在但凡有点规模的品牌,投放团队看一个账号,根本不看粉丝总数。 他们看的是:互动率、粉丝画像、评论区质量、历史带货转化数据。 有个词叫"僵尸粉",还有个词叫"泛粉"。前者是买来的假粉,后者是真实存在但毫无消费意愿的人群。 在品牌主眼里,这两种粉丝没有任何区别。 都是无效的、没用的。 反观那个做酒店的2000粉博主,他粉丝是谁? 是真实在搜索"上海五星酒店推荐"、"情侣出行攻略"的人。是有出行需求、有消费能力、正在做决策的精准客群。 她发一篇笔记,底下的评论是需求。 品牌主要要的是转化,曝光无所谓的。 2000个高净值精准用户的转化率,吊打20万泛娱乐粉丝的转化率,这在商业逻辑里再正常不过了。 也许平台也在故意杀死泛流量账号 想想看,平台最怕什么? 最怕头部大号绑架自己。 当一个博主有了一千万粉丝,他说一句话能影响舆论,他要提高报价平台不敢轻易动他,他的存在本身就是对平台权力的一种制衡。 这是平台绝对不能容忍的。 所以你看这几年发生了什么, 算法越来越向新号、小号、垂直号倾斜。 流量分发逻辑从"订阅推送"转向"内容质量推荐"。 大号失去了天然的流量护城河,必须和所有人在同一赛道竞争。 与此同时,平台大力推广蒲公英、星图这样的官方商单撮合平台。 注意,这意味着所有的商业交易都要经过平台这道关口,平台从中抽成,掌握数据,控制定价权。 大号太强势?削弱他。 小号更听话?扶持他。 垂直账号依赖平台更深?完美,正是平台想要的生态。 早期的很多百万大号的集体哑火,某种程度上,是平台精心设计的结果。 当然,我没有证据。这只是一个耐人寻味的推断。 想变现的话,实际上粉丝量没那么重要,只需要你有解决问题的能力,你能为他人解决什么问题,你就能变现。1个粉丝也能变现 你的每一篇文章都在回答一个真实用户的真实问题,你的每一个读者都是正在做消费决策的精准客群。 哪怕5000人,也比50万泛粉丝值钱一百倍。 我总结出来的几点做自媒体一定要弄明白的事情, 你越精准,越会失去不相关的人,但留下的,都是真爱粉和潜在客户。 粉丝要沉淀到私域,微信群也好,社群也好,你需要一个不受算法控制的阵地。 你的内容,从第一天起就要对准一个清晰的变现路径。 长期主义是在第一天就能变现。

01
LunarCrest
8月前
看得出来,大伙对GPT-5挺失望的
10
LunarCrest
9月前
Qwen3-235B-A22B-2507 thinking的输出就很没有品质感
在这里,引用了几句完全不存在的话,附带几条略有相关的链接,其中还有超过三分之一的链接打不开
这种东西本来是可以通过一系列通过规则合成RLHF的素材来规避的,但是出现了这种问题。
从这个角度考虑,Qwen 235 thinking其实不如豆包 1.6 thinking
不过如果是精准定义的问题,可能还是比豆包1.6要强的
00
LunarCrest
10月前
豆包 1.5 thinking pro在今年高考数学得分是145分 //@头像真是我前女友: ai做数学高考卷子都才60分及不了格
原动态已删除
00
LunarCrest
1年前
如果燕窝换成姜汁效果会更好,因为姜辣素喝姜黄素都可以起到类似布洛芬的效果。
不过反过来说,如果自己觉得有效,很可能是安慰剂效应,因为在一个研究姜黄素的效果的工作中,安慰剂实验中也有53.3%的个体报告痛经减轻🥶doi:10.1002/ptr.7314

元宝妹: 分享一个方子,很补气血。喝了大姨妈不痛,安然入睡。 睡前喝牛奶+醪糟+燕窝,真的好补,补到气血上脸,坏处是不能多喝,容易胖 但我会觉得,这个肉长得刚刚好

00
LunarCrest
1年前
跟命中缓存关系不大吧。KV缓存只保存了context,而且是一个决定论的东西,同一个context就只能生成同样的KV缓存。既然是重试,那么context必然一样。GPT是一个词向量的拟合外推机器。既然已有的数据是一样的,那外推出来的数据也应该近似的。
一些壳的重试功能默认就是会将之前的输出也放到context里面让模型重试。这种重试方式就不会出现这个问题。
后一个问题我认为是过度微调的结果,小的模型如果是面向普通用户微调的,指令遵循本身就不会非常好。很多小模型都会有这样的现象,比如GLM-9B、GPT4o mini。降本增效的代价。用能力更强的比如Claude 3.5 sonnet就行。另外一些面向专业用户微调的LLM比如Qwen 32B coder、Gemini 1.5 falsh 002,指令遵循在同类小模型里面就强得多。

云中江树: AI 命中缓存这个事儿,一直命中垃圾结果的时候真的要死 某些AI 产品在研发的时候能不能考虑一下: 我点你这个重试按钮不是点着好玩,不是我喜欢这个酷炫的生成效果要你给我再展示一遍垃圾制造过程! 而是我真的希望给你一次重新把活儿干好的机会,然后给我有用的结果,而不是一遍一遍的给我返回垃圾。 某些 AI 产品真的,底层逻辑不知道怎么设计的,怎么改提示词,怎么点重试,都返回一模一样的垃圾结果。 面对这种情况完全无解,最好的方法就是弃用! 弃用!

00
LunarCrest
1年前
放弃用微信读书,在anna 档案上下载盗版😂

桃幺幺: 求 问: 微信读书 哪里能买到便宜的会员

00