即刻App
年轻人的同好社区
下载
App内打开
行小招
75
关注
13
被关注
0
夸夸
Nasdaq上市公司|增长技术负责人
ex阿里P8
探索AI应用在企业的落地场景
记录关于大模型的一切闪念、想法、洞察
行小招
5天前
过去市场上80%的声音都是噪音,现在 AI 加持,可能99%的都是了,作为实际的个体,大概率要被淹没在信息的浪潮中!
但是 信息≠知识,更谈不上洞察、智慧,
冷静下来,聚焦在实际问题上,解决真实痛点,不断提升个人效率 1000x,可能对当下的每个个人更有意义。
1
0
0
行小招
12天前
体感对比下两者的不同,grok3 的 Deep Search 和 Genspark 的 Deep Research,
grok3耗时大概2分钟,回答质量比普通的AI搜索质量要高的多,形式上差不都(如图2)。
Genspark耗时大概15分钟,阅读379个来源,189500到303200总字数,生成一篇比较详细、高质量的报告。
图1+图2是 grok3的Deep Search,剩下的都是 Genspark。
1
0
0
行小招
17天前
Monica 订阅的原因能帮忙说说么,这两天订阅了两年的ChatGPT plus账号被封了,正在寻找各种替代品,目前感觉莫妮卡这款产品看起来有点符合我的诉求,想听听你的建议
汉松: 2025.02 我的AI工具使用情况 付费 1. Monica 年费订阅,无限量用 Claude,日常小问题用它解决,此外 ChatPDF 也很好用,主要用来读原文,有时候英文不太确定意思就一键翻译对照。评价:万金油,功能很全,但每一项都不太精。 2. Grok(拟订阅),Deepsearch 很强,能节省我的时间,think 还不支持附件,暂时没法评测读论文效果。评价:ChatGPT 的强力竞争者,让 perplexity 变成小丑 免费 1. ai studio:高强度使用 Gemini thinking 读论文,不太出名的推理王者,正是它阻止我订阅 ChatGPT 会员(现在又多了一个 Grok)。评价:谷歌大慈善家,免费提供 o1 级别的推理模型。 2. Trae:免费的 Cursor 平替,现在我写 Python 基本都用它。评价:就像请了个实习生,我提需求和反馈,能体验当老板的感觉。 3. Deepseek R1:文科生,帮我分析给文章起标题,给我写作建议。评价:我的写作教练。
0
1
1
行小招
20天前
OpenAI账号被“降智”问题,才解决了小一周,今天起来,账号被封禁了!
我是真没违反内容,看样子风控是越来越严格了,使用的那个美国家庭静态IP估计质量也不足够高!
已经发邮件,跟 OpenAI support team沟通了,估计够呛!
大家有人遇到过这类问题吗,求分享经验。
3
8
0
行小招
20天前
另一个视角看 AI Agent 的“记忆”能力,短期+长期记忆,短期记忆粗略理解就是最近的几次会话,
长期记忆包括历史所有会话、以及从会话中提炼出来的模型能“记住”的关于你的偏好信息,RAG的知识库也可以看做是长期记忆的一部分。
这些“记忆”,最终都会在接口调用的,prompt 中组装、拼接,作为context的一部分,让大模型更好的理解。
2
2
0
行小招
22天前
经过最近一段时间的“斗智斗勇”,OpenAI的“降智”总结如下,终极解决方案,使用美国住宅静态IP,完美解决,这两天就非常稳定了。
成本又增加了4刀/月。
1
4
0
行小招
23天前
国内第一家对标OpenAI GPT-4o全模态的模型出现了,阿里通义Omini,支持文字、图片、语音 双混合聊条,体验形式上应该跟ChatGPT的GPT-4o的感觉一致。
还没有正式发布,还不能调用,等发布消息,不知道能力如何。
1
0
0
行小招
27天前
DeepSeek 官网不稳定,大家可以尝试自己本机,使用 Cherry-studio ,加字节火山云 apikey ,本地搭建 联网搜索版本的 DeepSeek-R1 671B 满血版。
自己充值,花点费用,输出非常稳定,速度也可以。 搭建过程可以参考
@orange.ai
这个,非常给力:
mp.weixin.qq.com
0
0
0
行小招
27天前
上午跟同事们聊,怎么学习 DeepSeek?
先理解原理,大致DeepSeek做了哪些技术架构上面的优化,reasoning model 和 gpt model 的区别。
然后,把 DeepSeek 使用到日常工作、生活中的方方面面, 用的多了,就会有体感,模型能力和局限性,怎么和 DeepSeek 配合,完成最终任务。
人做哪一部分, DeepSeek 做哪一部分。
超高频的使用起来,越来越有感觉
0
0
0
行小招
27天前
没时间看 paper,推荐看看张俊林的这一篇:
zhuanlan.zhihu.com
行小招: 从技术架构的角度看,看普通对话模型(OpenAI GPT-4o)、推理模型(OpenAI O1/DeepSeek-R1)这两类大模型的区别: GPT-4o 类是两阶段范式 , 预训练+后训练(RLHF),而DeepSeek-R1类则是三阶段范式(同OpenAI O1),预训练+后训练(RL)+推理(COT+RL),如下图1 当然,DeepSeek-R1 真实的训练过程要复杂点,通过两轮训练,每轮都包括监督微调(SFT)+ 强化学习(RL)(不是外面那些自媒体吹的纯强化学习,没有人工参与)第一轮是为了生产更好的数据,第二轮叠加了v3-base post-training的非推理类数据。 里面的RL算法是 R1-zero 那个模型验证的, R1-zero 是纯强化学习,但是这个模型是用来验证RL算法的,而不是R1的训练过程,这都是外网上面宣传不对的。 真实的原理看论文,论文都有。
0
0
0