即刻App
年轻人的同好社区
下载
App内打开
杏仁可颂杀手
206
关注
796
被关注
0
夸夸
nlp engineer, researcher, hunter
置顶
杏仁可颂杀手
3年前
庐山烟雨浙江潮,未到千般恨不消。到的换来无别事,庐山烟雨浙江潮。
22
2
0
杏仁可颂杀手
7天前
刚才边运动边胡思乱想,突然发现最近几年感觉惊才艳艳的人都是学纯数的。
3
0
0
杏仁可颂杀手
9天前
2026你好
10
0
0
杏仁可颂杀手
3月前
学术圈跨学科蹭ai热度找投射的小把戏。。。。翻译成数据训练顺序要从学术数据训起再训日常化娱乐化数据,以及数据里不要掺意味不明的重复性娱乐数据,是不是听起来就是两年前训练的共识了。
木遥: 本日最好笑研究: 在训练 AI 的时候,如果强迫 AI 大量阅读社交媒体,会对 AI 造成不可逆的脑损伤。 与在高质量数据上训练的对照组相比,持续投喂垃圾数据(确切来说是让它拼命刷推)的 LLM 在推理、长上下文理解和安全性能上均表现出明显的衰退。模型在性格测试中表现出精神病态和自恋等特质的得分显著提高。错误分析显示,模型的主要病变是思维跳跃,即越来越倾向于截断或跳过解决问题所需的关键推理链条。 研究者比较了什么样的帖子最有「毒性」,发现最好的相关性指标是参与度,也就是一条贴文有多火。最容易病毒式传播的内容也最容易导致脑损伤。 这种认知衰退具有持久性。在模型出现脑损伤后,再用高质量的干净数据对其进行指令调整和继续预训练,也只能观察到部分但不完全的治愈。模型的表征漂移仍然存在。 你很难不怀疑这个研究是在指桑骂槐。 论文地址:https://llm-brain-rot.github.io/
4
0
0
杏仁可颂杀手
3月前
用了这么多笔记管理软件,有一阵还回归纸制,发现最好用的还是自己在discord开一个server。 我和话唠朋友各自有自己的server还在对方server下开channel。
1
0
0
杏仁可颂杀手
8月前
I rather be soulless without you
2
0
0
杏仁可颂杀手
8月前
说实话我很喜欢看phi系列的论文,虽然这个系列的模型adoption rate 就那样,但是论文的概括业界目前的技术共识和操作细节都写的很坦诚,属于面向不追求特别novel的研究者拉齐一流技术共识的文章风格。
6
0
0
杏仁可颂杀手
9月前
坐在忍野八海的樱吹雪里
10
1
0
杏仁可颂杀手
9月前
恋爱世纪
7
3
0
杏仁可颂杀手
9月前
🚄🗼🚦🌉🌃
5
0
0
杏仁可颂杀手
9月前
flawless
1
0
0