即刻App年轻人的同好社区
下载
App内打开
pimgeek
329关注2k被关注13夸夸
📜数字草稿纸 专注笔记术📝
🥐思考面包屑 创意脚手架🪜
🤓 期待交流 🤝🏻 微信同名 💬
置顶
pimgeek
2年前
每隔一段时间就想重新做一次自我介绍,突出近期的个人兴趣侧重点 🤭

简单概括,pimgeek 是 PIM 和 Geek 两个词的组合,其中 PIM 是个人信息管理的英文词组首字母缩写,Geek 指对某些小众爱好保持极端兴趣的人。

就个人而言,我的长期兴趣始终是这个:『弄清大脑/思维/意识活动背后的复杂系统工作原理。』🧠

为了随时随地都有条件抛开手头一切杂事去开展相关研究,很明显我需要一份比较特殊的工作。迄今为止,我尚未发现一种合适的工作职位能够平衡个人生计与这种强烈的研究兴趣,所以我逐渐变成了一位自由职业者。

在即刻社区,我专门购买了🍌黄即年费会员并订阅了 “自由职业、自由工作、远程办公、远程工作、Freelancer、Remote” 等话题关键词,只要有人反复谈论这个话题,都会被我关注到。如果看到喜欢的内容,我还会转发推荐给更多人(背后的理念是:只有自由职业者多起来,才可能有更多人关注我正在做的研究和主营业务)🤠

另一方面,因为我的研究兴趣经常涉及自身思维过程的观察、记录、回溯、反思等,所以我迷上了个人笔记/信息管理工具。通过与别人交流这些工具的使用心得,我逐渐认识了很多硬核的玩家和软件工具开发者。其中有一类输入法工具,专门用于以中文记录思考过程,我对这种记录工具有着超高的要求,所以到后来干脆开发了自己专用的音形码输入方案——🦩🐯鹤虎盲打输入法。

有了顺手的思考过程输入工具,很自然地就会考虑如何尽可能长期稳定可靠地存储、整理自己的思考记录。在这个问题上,我选择了以卡片笔记作为原子记录单元,目前重点关注德国社会学家尼古拉斯·卢曼(Niklas Luhmann)的卡片盒笔记管理方法,正在选配必要的工具和流程去磨合、实践(自研流程的成熟度和实用度已接近 80%)。在未来,此方法的展示、分享、教学和周边软/硬件开发很可能成为我的重要业务与收入来源。📈💴

如果你看了上面的介绍之后,对我的个人经历、研究主题或个人信息管理相关经验产生兴趣,欢迎通过评论或私信与我联系 📔💬🤓

✪ 🦩🐯鹤虎盲打输入方案 - m.okjike.com
✪ 第一次兴趣总结 - m.okjike.com
✪ 第二次兴趣总结 - m.okjike.com
✪ 第三次兴趣总结 - m.okjike.com
1313
pimgeek
2天前
杨明哲:『本文的目的并非赞颂或是唱衰什么。在新技术浪潮下,人们很容易根据对待新技术的态度分成不同阵营。只要有辩论,就会有正反双方,而且双方都有充足的理由。

但局外人与实践者是截然不同的两个身份。比如我对更加火爆的OpenClaw便是负面评价多于正面的,但对于愿意花时间和金钱去尝试养龙虾的实践者,我更多还是敬佩和欣赏的。…( 详见正文 )』🤔

浅思录|悲观者永远正确,乐观者永远成功

00
pimgeek
6天前
科学家首次成功恢复冷冻鼠脑的活动by Solidot

Edwards发表于2026-03-11 22:56

科幻小说的常见情景是:时间旅行者被冷冻保存,身体处于休眠状态,然后在十年或一个世纪后解冻苏醒,所有机能都完好。

研究人员尝试过对人类等动物脑组织进行冷冻和解冻,结果显示神经组织能在细胞层面存活,在解冻后恢复一定程度的功能,但完全恢复功能仍然是不可能的。

根据发表在 PNAS 期刊上的一项研究,德国研究团队演示了一种冷冻保存和解冻小鼠大脑的方法。大脑难以从冷冻状态完全恢复的主要原因是冰晶形成所造成的损伤。冰晶会破坏或刺穿组织脆弱的纳米结构,从而扰乱关键的细胞过程。

为保存大脑功能,研究人员转向了名为玻璃化冷冻(vitrification)的无冰冷冻保存法。玻璃化冷冻能快速冷却液体,使分子在形成冰晶前就被捕获在无序的玻璃状状态。

他们在厚度为 350 微米的小鼠脑切片上进行了测试。脑切片首先用含有冷冻保存物质的溶液进行预处理,然后用液氮快速冷却至 -196℃。脑片随后置于 -150℃ 的冷冻箱中,保持玻璃状,保存时间从 10 分钟到 7 天。

在温液解冻脑片后,研究团队分析了组织,以观察其是否保留任何功能活性。显微镜观察显示,神经元膜和突触膜均完整无损,线粒体活性检测未发现代谢损伤。神经元电生理记录显示,尽管与对照组细胞相比存在一定程度偏差,但神经元对电刺激的反应接近正常。由于脑片会自然降解,观察时间仅限于几个小时。

🔸研究报道来源 www.nature.com
🔸参考图片来源 mp.weixin.qq.com
00
pimgeek
6天前
嗯嗯,明白了。借用概率的概念,“它的关联提问是否接地气”?😄 //@歪思先森: 看模型的回复。比如我在菜市场拍了一张图问:两种茄子有什么不一样?看能不能推理出我其实还想问:我该买哪一种?(不知道对不对)

pimgeek: 使用 AI 大模型有点像“解压缩” 📦➠📂🤔 最近偶尔和别人探讨如何用 AI 大语言模型(简称LLM = Large Language Model)实现盈利业务,我对这个话题很感兴趣,也提出了一些解释思路,但还非常粗糙。 大语言模型的核心是“语言(Language)”——即把一种已经存在的“语言表述”快速翻译成另外一种形式的“语言表述”,比如说文字变语音,文字变图片,文字变视频等,反之亦然。♻️ 把图片、语音和视频也说成是“语言表述”合适吗?这需要稍微结合一点技术常识,比如图片是对“像素排列方式的表述”,视频则是把一系列有微小差异的图片有序排列起来,声音是对“振动的表述”,而程序代码本身就是逻辑化的语言。🔠 所以,无论大模型能做到多么神奇的事,至少在现阶段,它们的工作效果本质上都是“改变语言表述方式”,回到用 AI 大模型做业务的主题上来——如果有些东西用原先的“语言表述”不好卖甚至无人问津,换成另外一种“语言表述”更受欢迎甚至能促成销售,那么这个转变显然很有价值。💎 对于现在很火爆的龙虾🦞机器人(OpenClaw),它的特点是让这种“语言表述的变换”更为自动化,减少中间阶段人工干预,有时会带来很好的效果,但也有时效果不佳,但是因为缺少人工干预,使用者很可能不知道该如何优化效果。我正是因为存在这个担忧,目前不想花时间跟进。🤷🏻‍♂️ 还有人问,大模型是一种“放大镜”一样的工具吗?对此我的想法是:它更像是一种“解压缩”的操作,大模型开发公司把世界上现存的几乎所有公开资料用很复杂的技术制成了一个硕大无比的“压缩包”(即深度神经网络模型),“压缩包”里包含同对一种事物或现象的数不胜数的多种“语言表述”形式。使用者只要知道或想到任何其中的一种,就能与大模型互动,把其它种类的表述形式提取出来。📦➠📂 但这个想法还很粗糙,用它来解释大模型的推理和深度思考行为,显得不够直观,甚至有点牵强附会。 关于这一点,我认为在自己的日常生活中,无论推理还是反思,语言都在扮演至关重要的作用。可以说自己的思考过程在很大程度上也是在借助语言进行“解压缩”操作,提取过去的记忆和关于外部世界的解释模型。🧑🏻‍🏫🧠 但是本能、直觉、自我意识、切身体验等因素在推理中扮演的角色也不容忽视。有些事情,如果没有本能和直觉🧡,几乎无法带来决策和执行,只能停留在貌似自成体系的语言牢笼中。⛓🔒

00
pimgeek
8天前
授课者:『一,学习是一生之事,急什么急?日积月累,时时回顾,是正道。

二,初学者,甚至还在门槛上的小朋友,都有资格写下自己的思考过程。跟思考过程相比,标准答案又算什么?( 详见正文 )』😄

谁说我只给天才小朋友讲阅读?

00
pimgeek
8天前
刷短视频获得快感还需要许多外部自媒体作者去“揣摩用户心理”,“制造热点话题”,“提供情绪价值”… AI 智能体就简单多了,人们自己心甘情愿地分享一切私密笔记+系统权限,然后自发地提需求,得到近乎即时的、充满心理按摩效用的生成式内容,还有什么玩法比这更“抖音”?🤡
10
pimgeek
9天前
也可以说是再演绎,因为这只是一个非常粗糙的解释角度。只不过训练数据中没有的“世界解释模型的核心要点”,用概率演绎的方式或很难凭空生成。🤔

数学定理证明可能是特例,具体原因我还说不清楚,大概思路是:数学领域的研究成果可以与“现实解释”无关。😄

🔸可以参考这篇文章 m.okjike.com 『我们在这里想强调:“这个 LLM 压缩机可以压缩无限多的文本”是一个幻觉,它其实只能对与它的训练文本具有相似分布的数据进行有效压缩…( ➠ 详见正文 )』😄 //@南山必胜德基: 个人认为不是解压缩,而是再演绎

pimgeek: 使用 AI 大模型有点像“解压缩” 📦➠📂🤔 最近偶尔和别人探讨如何用 AI 大语言模型(简称LLM = Large Language Model)实现盈利业务,我对这个话题很感兴趣,也提出了一些解释思路,但还非常粗糙。 大语言模型的核心是“语言(Language)”——即把一种已经存在的“语言表述”快速翻译成另外一种形式的“语言表述”,比如说文字变语音,文字变图片,文字变视频等,反之亦然。♻️ 把图片、语音和视频也说成是“语言表述”合适吗?这需要稍微结合一点技术常识,比如图片是对“像素排列方式的表述”,视频则是把一系列有微小差异的图片有序排列起来,声音是对“振动的表述”,而程序代码本身就是逻辑化的语言。🔠 所以,无论大模型能做到多么神奇的事,至少在现阶段,它们的工作效果本质上都是“改变语言表述方式”,回到用 AI 大模型做业务的主题上来——如果有些东西用原先的“语言表述”不好卖甚至无人问津,换成另外一种“语言表述”更受欢迎甚至能促成销售,那么这个转变显然很有价值。💎 对于现在很火爆的龙虾🦞机器人(OpenClaw),它的特点是让这种“语言表述的变换”更为自动化,减少中间阶段人工干预,有时会带来很好的效果,但也有时效果不佳,但是因为缺少人工干预,使用者很可能不知道该如何优化效果。我正是因为存在这个担忧,目前不想花时间跟进。🤷🏻‍♂️ 还有人问,大模型是一种“放大镜”一样的工具吗?对此我的想法是:它更像是一种“解压缩”的操作,大模型开发公司把世界上现存的几乎所有公开资料用很复杂的技术制成了一个硕大无比的“压缩包”(即深度神经网络模型),“压缩包”里包含同对一种事物或现象的数不胜数的多种“语言表述”形式。使用者只要知道或想到任何其中的一种,就能与大模型互动,把其它种类的表述形式提取出来。📦➠📂 但这个想法还很粗糙,用它来解释大模型的推理和深度思考行为,显得不够直观,甚至有点牵强附会。 关于这一点,我认为在自己的日常生活中,无论推理还是反思,语言都在扮演至关重要的作用。可以说自己的思考过程在很大程度上也是在借助语言进行“解压缩”操作,提取过去的记忆和关于外部世界的解释模型。🧑🏻‍🏫🧠 但是本能、直觉、自我意识、切身体验等因素在推理中扮演的角色也不容忽视。有些事情,如果没有本能和直觉🧡,几乎无法带来决策和执行,只能停留在貌似自成体系的语言牢笼中。⛓🔒

01
pimgeek
9天前
👍🏻💡😄 //@Million_Y: 我记得我以前看《硅谷》的时候就在考虑主角团队的神奇压缩算法是啥,然后想到一个可行性方案就是有损压缩。本地部署一个解压环境,压缩文件通过这个环境直接有损解压,对于音视频类的文件来说,只要人类的感官无法识别就可以了。类似于受精卵发育过程,受先天和后天环境的控制,最终可以发育成成熟个体。

pimgeek: 使用 AI 大模型有点像“解压缩” 📦➠📂🤔 最近偶尔和别人探讨如何用 AI 大语言模型(简称LLM = Large Language Model)实现盈利业务,我对这个话题很感兴趣,也提出了一些解释思路,但还非常粗糙。 大语言模型的核心是“语言(Language)”——即把一种已经存在的“语言表述”快速翻译成另外一种形式的“语言表述”,比如说文字变语音,文字变图片,文字变视频等,反之亦然。♻️ 把图片、语音和视频也说成是“语言表述”合适吗?这需要稍微结合一点技术常识,比如图片是对“像素排列方式的表述”,视频则是把一系列有微小差异的图片有序排列起来,声音是对“振动的表述”,而程序代码本身就是逻辑化的语言。🔠 所以,无论大模型能做到多么神奇的事,至少在现阶段,它们的工作效果本质上都是“改变语言表述方式”,回到用 AI 大模型做业务的主题上来——如果有些东西用原先的“语言表述”不好卖甚至无人问津,换成另外一种“语言表述”更受欢迎甚至能促成销售,那么这个转变显然很有价值。💎 对于现在很火爆的龙虾🦞机器人(OpenClaw),它的特点是让这种“语言表述的变换”更为自动化,减少中间阶段人工干预,有时会带来很好的效果,但也有时效果不佳,但是因为缺少人工干预,使用者很可能不知道该如何优化效果。我正是因为存在这个担忧,目前不想花时间跟进。🤷🏻‍♂️ 还有人问,大模型是一种“放大镜”一样的工具吗?对此我的想法是:它更像是一种“解压缩”的操作,大模型开发公司把世界上现存的几乎所有公开资料用很复杂的技术制成了一个硕大无比的“压缩包”(即深度神经网络模型),“压缩包”里包含同对一种事物或现象的数不胜数的多种“语言表述”形式。使用者只要知道或想到任何其中的一种,就能与大模型互动,把其它种类的表述形式提取出来。📦➠📂 但这个想法还很粗糙,用它来解释大模型的推理和深度思考行为,显得不够直观,甚至有点牵强附会。 关于这一点,我认为在自己的日常生活中,无论推理还是反思,语言都在扮演至关重要的作用。可以说自己的思考过程在很大程度上也是在借助语言进行“解压缩”操作,提取过去的记忆和关于外部世界的解释模型。🧑🏻‍🏫🧠 但是本能、直觉、自我意识、切身体验等因素在推理中扮演的角色也不容忽视。有些事情,如果没有本能和直觉🧡,几乎无法带来决策和执行,只能停留在貌似自成体系的语言牢笼中。⛓🔒

00
pimgeek
9天前
有网友留言:“有在shell里执行任务的权限以后llm已经成铁牛马了,一句话发出去直接让它尝试几十条没有足够清晰文档的技术路线,找出一条能稳定跑通的,省大事了”

我的回复:『有收保护的自留地和产权清晰的牛马,才好稳定创造财富,这方面我更多依赖本地模型。另外,到底是种庄稼还是经济作物,销路是否畅通,也要充分考虑,不然仍然是赔钱的生意。』🤭

pimgeek: 使用 AI 大模型有点像“解压缩” 📦➠📂🤔 最近偶尔和别人探讨如何用 AI 大语言模型(简称LLM = Large Language Model)实现盈利业务,我对这个话题很感兴趣,也提出了一些解释思路,但还非常粗糙。 大语言模型的核心是“语言(Language)”——即把一种已经存在的“语言表述”快速翻译成另外一种形式的“语言表述”,比如说文字变语音,文字变图片,文字变视频等,反之亦然。♻️ 把图片、语音和视频也说成是“语言表述”合适吗?这需要稍微结合一点技术常识,比如图片是对“像素排列方式的表述”,视频则是把一系列有微小差异的图片有序排列起来,声音是对“振动的表述”,而程序代码本身就是逻辑化的语言。🔠 所以,无论大模型能做到多么神奇的事,至少在现阶段,它们的工作效果本质上都是“改变语言表述方式”,回到用 AI 大模型做业务的主题上来——如果有些东西用原先的“语言表述”不好卖甚至无人问津,换成另外一种“语言表述”更受欢迎甚至能促成销售,那么这个转变显然很有价值。💎 对于现在很火爆的龙虾🦞机器人(OpenClaw),它的特点是让这种“语言表述的变换”更为自动化,减少中间阶段人工干预,有时会带来很好的效果,但也有时效果不佳,但是因为缺少人工干预,使用者很可能不知道该如何优化效果。我正是因为存在这个担忧,目前不想花时间跟进。🤷🏻‍♂️ 还有人问,大模型是一种“放大镜”一样的工具吗?对此我的想法是:它更像是一种“解压缩”的操作,大模型开发公司把世界上现存的几乎所有公开资料用很复杂的技术制成了一个硕大无比的“压缩包”(即深度神经网络模型),“压缩包”里包含同对一种事物或现象的数不胜数的多种“语言表述”形式。使用者只要知道或想到任何其中的一种,就能与大模型互动,把其它种类的表述形式提取出来。📦➠📂 但这个想法还很粗糙,用它来解释大模型的推理和深度思考行为,显得不够直观,甚至有点牵强附会。 关于这一点,我认为在自己的日常生活中,无论推理还是反思,语言都在扮演至关重要的作用。可以说自己的思考过程在很大程度上也是在借助语言进行“解压缩”操作,提取过去的记忆和关于外部世界的解释模型。🧑🏻‍🏫🧠 但是本能、直觉、自我意识、切身体验等因素在推理中扮演的角色也不容忽视。有些事情,如果没有本能和直觉🧡,几乎无法带来决策和执行,只能停留在貌似自成体系的语言牢笼中。⛓🔒

00
pimgeek
9天前
感谢反馈 🤝🏻😄,也欢迎多谈一些你的观察和想法 💡 //@Arielle_Gao: 解压缩这个观点很好👍

pimgeek: 使用 AI 大模型有点像“解压缩” 📦➠📂🤔 最近偶尔和别人探讨如何用 AI 大语言模型(简称LLM = Large Language Model)实现盈利业务,我对这个话题很感兴趣,也提出了一些解释思路,但还非常粗糙。 大语言模型的核心是“语言(Language)”——即把一种已经存在的“语言表述”快速翻译成另外一种形式的“语言表述”,比如说文字变语音,文字变图片,文字变视频等,反之亦然。♻️ 把图片、语音和视频也说成是“语言表述”合适吗?这需要稍微结合一点技术常识,比如图片是对“像素排列方式的表述”,视频则是把一系列有微小差异的图片有序排列起来,声音是对“振动的表述”,而程序代码本身就是逻辑化的语言。🔠 所以,无论大模型能做到多么神奇的事,至少在现阶段,它们的工作效果本质上都是“改变语言表述方式”,回到用 AI 大模型做业务的主题上来——如果有些东西用原先的“语言表述”不好卖甚至无人问津,换成另外一种“语言表述”更受欢迎甚至能促成销售,那么这个转变显然很有价值。💎 对于现在很火爆的龙虾🦞机器人(OpenClaw),它的特点是让这种“语言表述的变换”更为自动化,减少中间阶段人工干预,有时会带来很好的效果,但也有时效果不佳,但是因为缺少人工干预,使用者很可能不知道该如何优化效果。我正是因为存在这个担忧,目前不想花时间跟进。🤷🏻‍♂️ 还有人问,大模型是一种“放大镜”一样的工具吗?对此我的想法是:它更像是一种“解压缩”的操作,大模型开发公司把世界上现存的几乎所有公开资料用很复杂的技术制成了一个硕大无比的“压缩包”(即深度神经网络模型),“压缩包”里包含同对一种事物或现象的数不胜数的多种“语言表述”形式。使用者只要知道或想到任何其中的一种,就能与大模型互动,把其它种类的表述形式提取出来。📦➠📂 但这个想法还很粗糙,用它来解释大模型的推理和深度思考行为,显得不够直观,甚至有点牵强附会。 关于这一点,我认为在自己的日常生活中,无论推理还是反思,语言都在扮演至关重要的作用。可以说自己的思考过程在很大程度上也是在借助语言进行“解压缩”操作,提取过去的记忆和关于外部世界的解释模型。🧑🏻‍🏫🧠 但是本能、直觉、自我意识、切身体验等因素在推理中扮演的角色也不容忽视。有些事情,如果没有本能和直觉🧡,几乎无法带来决策和执行,只能停留在貌似自成体系的语言牢笼中。⛓🔒

00
pimgeek
9天前
使用 AI 大模型有点像“解压缩” 📦➠📂🤔

最近偶尔和别人探讨如何用 AI 大语言模型(简称LLM = Large Language Model)实现盈利业务,我对这个话题很感兴趣,也提出了一些解释思路,但还非常粗糙。

大语言模型的核心是“语言(Language)”——即把一种已经存在的“语言表述”快速翻译成另外一种形式的“语言表述”,比如说文字变语音,文字变图片,文字变视频等,反之亦然。♻️

把图片、语音和视频也说成是“语言表述”合适吗?这需要稍微结合一点技术常识,比如图片是对“像素排列方式的表述”,视频则是把一系列有微小差异的图片有序排列起来,声音是对“振动的表述”,而程序代码本身就是逻辑化的语言。🔠

所以,无论大模型能做到多么神奇的事,至少在现阶段,它们的工作效果本质上都是“改变语言表述方式”,回到用 AI 大模型做业务的主题上来——如果有些东西用原先的“语言表述”不好卖甚至无人问津,换成另外一种“语言表述”更受欢迎甚至能促成销售,那么这个转变显然很有价值。💎

对于现在很火爆的龙虾🦞机器人(OpenClaw),它的特点是让这种“语言表述的变换”更为自动化,减少中间阶段人工干预,有时会带来很好的效果,但也有时效果不佳,但是因为缺少人工干预,使用者很可能不知道该如何优化效果。我正是因为存在这个担忧,目前不想花时间跟进。🤷🏻‍♂️

还有人问,大模型是一种“放大镜”一样的工具吗?对此我的想法是:它更像是一种“解压缩”的操作,大模型开发公司把世界上现存的几乎所有公开资料用很复杂的技术制成了一个硕大无比的“压缩包”(即深度神经网络模型),“压缩包”里包含同对一种事物或现象的数不胜数的多种“语言表述”形式。使用者只要知道或想到任何其中的一种,就能与大模型互动,把其它种类的表述形式提取出来。📦➠📂

但这个想法还很粗糙,用它来解释大模型的推理和深度思考行为,显得不够直观,甚至有点牵强附会。

关于这一点,我认为在自己的日常生活中,无论推理还是反思,语言都在扮演至关重要的作用。可以说自己的思考过程在很大程度上也是在借助语言进行“解压缩”操作,提取过去的记忆和关于外部世界的解释模型。🧑🏻‍🏫🧠

但是本能、直觉、自我意识、切身体验等因素在推理中扮演的角色也不容忽视。有些事情,如果没有本能和直觉🧡,几乎无法带来决策和执行,只能停留在貌似自成体系的语言牢笼中。⛓🔒
139