即刻App年轻人的同好社区
下载
App内打开
boris包包
438关注1k被关注0夸夸
@Pleisto
程序员&设计师 中医黑 INFP-AH
阿德勒门下走狗
ENS: ding.ee
置顶
boris包包
12月前
作为一个闷骚型的I人,我一直觉得自我营销是个蛮有羞耻感的事情。但或许是时候从认真写一篇自我介绍开始逐步走出舒适圈了:

我算是一个过气型连续创业者,18岁开始退学创业,如今已过十二载。上古时期做过Infra和程序化广告投流。后来研究过一段时间如何在一级市场做量化,在华兴内部创业做了逐鹿,由帮红杉中国从0到1组建了数据科学团队。19年出来创业做SaaS——一款类似Notion但同时具有低代码能力、旨在打破软件和文档之间边界的产品,但由于过于超前,交了学费、成了先烈。目前在做一些AI出海方面的事情。

骨子里觉得自己是一个设计师和程序员,享受创造带来的愉悦感。从画交互稿、做用研和动效,到前端和iOS开发,再到手搓微服务框架和数据湖都有蛮丰富的实操经验。作为白帽子也帮一些大厂挖过0day漏洞。 AI方面的话,写过Agent开发框架Flappy,也从0训过基座LLM和文生图模型,还做过一些多模态和SFT方面的开源工作。

是侯世达和阿德勒的脑残粉,审美取向上偏好包豪斯。技术乐观主义者&悲观的理想主义者&中医黑。休谟式的不可知有神论者。

最大的特点是极度地广度优于深度,常被朋友们戏称为人肉维基。对一切事物都有强烈的好奇心,从黑暗料理、科技修仙到自体心理学均有一定的涉猎。副作用是浅尝则止,续航不太持久。(不过我自己还蛮享受「浅尝仄止」和「不断变化」的。)
10
boris包包
2月前
意外触发防空系统
00:09
00
boris包包
2月前
猜猜是哪个即友
00
boris包包
4月前
一篇蛮有意义的工作,证明了ICL实质上等价于对LLM的MLP层权重的低秩更新。进一步地,在支持大context window的llm中用足够长的System Prompt配合KV Cache替代Finetuning(包括用引用资料代替CPT,用few shot的ICL代替SFT)感觉是个值得尝试的方向。

https://arxiv.org/html/2507.16003v1

01
boris包包
8月前
绵延是过往的记忆、当下的状态、未来的期许的「混合图层」,且持续在改变着永不停歇。 因为每一刻都包含过去的记忆和尚未成为记忆的当下,所以我们才能感知到时间的存在。 时间是相对于参考坐标系的,而不是人脑本身的一种表征。 而所谓自由意识,则是尚未成为记忆的当下,让我们拥有了一种不同于记忆的、我能做选择的主观感觉。

过去和当下不是加法的关系,而是像画画时候的调色盘的关系。 两个颜色相加最后显示出来的第三个颜色。这个第三个颜色持续在变,就像对记忆里的同件事在人生的不同的时候会有不同的叙述角度和看法。

另作者似乎因为没有cs背景,对深度神经网络有点误解。我倒是觉得ai同样存在绵延。

微信文章

00
boris包包
8月前
考虑到物理世界是一个「模拟」而非「数字」的环境,信息传达过程中的压缩很难做到「无损」。 因此容忍「不精准」是必要的。
00
boris包包
8月前
暴论一下,「模型层」没有银弹。与其重温 《The Bitter Lesson》,倒不如重温《A Better Lesson》

the last seventy years of AI research IS NOT at all that we should just use more computation and that always wins. Rather I think a better lesson to be learned is that we have to take into account the total cost of any solution, and that so far they have all required substantial amounts of human ingenuity.

A Better Lesson – Rodney Brooks

00
boris包包
9月前
论文拆解:强化学习如何帮助小参数量LLM

参考文献
Dang, Quy-Anh, and Chris Ngo. *Reinforcement Learning for Reasoning in Small LLMs: What Works and What Doesn't.* 2025. arXiv preprint arXiv:2503.16219.
00
boris包包
10月前
特别的情人节
00
boris包包
11月前
「对齐税」的最好例证

(图片来源:weibo)
73