即刻App年轻人的同好社区
下载
App内打开
李惠子Huizi
1k关注3k被关注1夸夸
AI/科技投资人
前AI大模型投资人高管|AI硬件联创|CVC科技领域负责人
思考技术伦理的哲学家|知行合一 创造未来
一朵活力满满的奇葩
置顶
李惠子Huizi
2年前
英伟达创始人黄仁勋:无论如何都要保持着奔跑

2023年毕业的同学们,你们即将进入一个正在经历巨大变革的世界,就像我毕业时遇到个人电脑和晶片革命时一样,你们正处于AI的起跑线上。

每个行业都将被革命、重生,为新思想做好准备。

在40年的时间裡,我们创造了个人电脑、网路、移动设备、云端技术。

现在的AI时代,你们将创造什么?

无论是什么,像我们一样全力以赴去追求它,跑吧!不要慢慢走。

不论是为了食物而奔跑,或不被他人当做食物而奔跑。

你往往无法知道自己正处在哪一种情况,但无论如何,都要保持奔跑。

在你的旅程中,带上一些我犯过的错、有过的经验。

希望你们能谦卑的面对失败,承认错误并寻求帮助。

你们将承受实现梦想所需的痛苦和苦难,并做出牺牲,致力于有意义的生活,冲刺你们人生的事业。
117
李惠子Huizi
00:57
把你的AI焦虑无损地传递给Claude opus 4.6
00
李惠子Huizi
1天前
Agent 原生计算机感觉确实是个不错的方向。
mp.weixin.qq.com
00
李惠子Huizi
1天前
今日最佳:
某同学A:“现在用AI做不出来工作的得反思自己的问题,主要是还不会用。”“理论上你可以无限复制自己。”“工作就像打游戏,上瘾,停不下来。”“煞笔用AI只会无限浪费token。”最后说“为humanity忧虑,人类大众文明的巅峰,可能就是我们这个时代。”“我没有想到我的一生,可以从没有电脑,到人手一个手机,到人工智能普及,到共产主义。”
同学B“我最近探索方向是人性复兴这一块。人当电池太久会忘记这件事。”
我:“刚review了一下世界大战的近况。”
00
李惠子Huizi
2天前
笑死了,人设只会影响学霸的发挥,毕竟演戏比思考更不会😂

@量子位: "你是xx专家"这句话,会让AI变笨

之前给AI写prompt,一直喜欢用"你是一个XXX专家"。

以为这样能让它发挥得更好,现在看来……反而弄错了。

南加州大学的研究团队最近做了一个实验,给AI模型分别加上数学家、程序员、文学家等各种专家人设,然后测表现。
结果挺出乎意料。

在看重语气、格式的任务上,加了人设之后确实变好了。写邮件更正式,表达更流畅,排版也更整齐。

但遇到一些硬核知识类的题目,比如MMLU测试、数学解题、代码分析,加了专家人设的AI,竟然全面输给了没有任何人设的路人AI。

为什么?

论文的解释是:人设指令占用了模型的注意力,让它从"检索知识"模式切换到了"模仿表演"模式。一边忙着演专家,一边又在仔细思考问题。

就像让一个学霸表现得优雅,结果他光想着措辞,把公式忘了。

文章提醒道,让AI帮你写文案、打草稿、润色表达,这时候给它加个"资深编辑"人设确实有用,能让输出更有质感。

而要AI帮你算账、排查bug、做逻辑分析这种稍微复杂一点的问题,就直接说问题本身,不用加专家人设。
23
李惠子Huizi
2天前
中东需要一个李光耀…”许多第三世界领导人,成功推翻了旧秩序,却未能建立新秩序。因为建立新秩序需要不同且更复杂的能力。在经济领域做出决策以实现最高回报,资本收益,并非他们的强项。他们可以鼓舞追随者继续战斗,但他们将情况过度简化了。在殖民者交出权力之后。”
以及to特朗普,致富之路没有捷径…😂

李惠子Huizi: 查理芒格:为什么投资者应该研究李光耀? 芒格认为,投资者必须深入研究李光耀的决策模型,因为他凭借极端的理性、坚定的长期主义以及极高的“资本”配置效率,在毫无天然优势的恶劣开局下创造了成功奇迹。“如果你研究李光耀的生活和工作,你会发现人类历史上最有趣、最有启发性的政治故事之一。这比雅典好,这是一段令人难以置信的历史。你会学到很多对生活有用的东西。” 芒格评价李光耀是地球历史上存在可能存在的最好的国家建设者,并力推李光耀的座右铭:永远搞清楚什么是有效的,然后去做。不管其他人是想要取悦别人或者想要做些啥,你要独立思考并搞清楚什么是有效的,找到有效的方法,然后去做。 芒格曾在多个场合公开表示:“如果世界上有一个人我愿意效仿,那一定是李光耀。” 在芒格眼中,真正的投资,从来不只是买卖股票,而是对人性、制度、时间与风险的深刻理解。而李光耀治理新加坡的实践,恰恰是一场长达半个世纪的“国家级价值投资”。 推荐:李光耀论国家治理,秒杀欧美 巅峰洞察 成就一代传奇https://www.youtube.com/watch?v=MrZBwgsDiUA

00
李惠子Huizi
2天前
Lex Fridman与NVIDIA首席执行官黄仁勋(Jensen Huang)的深度访谈。作为当今推动AI革命的核心人物,黄仁勋分享了NVIDIA的底层战略、他对人工智能未来的预测、工程哲学以及个人的领导力和抗压经验。
黄仁勋认为,领导力的本质不是突发地下达指令或发布宣言,而是通过日常持续不断地分享信息与逻辑推理,去塑造员工、董事会乃至整个行业的“信念体系”,从而在宣布重大决策时,能够水到渠成地获得所有人的完全认同与支持。他坦言自己周围全都是在各个领域智力碾压自己的天才,但他依然能统帅全局。他认为“智力(Intelligence)”只是一种解决问题的功能,未来会被AI商品化;而真正让你变得强大的是“人性(Humanity)”——你的坚韧、同理心、抗挫折能力以及领导力,这些才是超能力。
作为肩负全美甚至全球科技走向的CEO,黄仁勋缓解焦虑的方式是“将问题拆解”。他会立刻把担忧的问题分享给能够解决它的人,绝不一个人死扛。他同时认为,持续前进的关键是要学会“遗忘”那些曾经的失败与难堪。
黄仁勋指出,推理阶段的计算力需求还会因为“智能体(Agentic systems)”的出现而呈现指数级增长。在未来的推理过程中(即用户给出一个任务后),AI不再只是单线运算,一个强大的智能体会:自己去访问数据库寻找基础事实(Ground truth)。使用人类的各种工具(如软件、计算器、网页浏览器)。进行自主调研。最关键的是:它会动态地衍生出(Spawn off)一整个“子智能体团队(Sub-agents)”来协助处理不同维度的任务。这种“智能体扩展定律”将极大地消耗计算资源。
为了应对这种“推理即思考”的未来,NVIDIA的系统架构已经发生了根本性的改变:从LLM优化到智能体优化:黄仁勋提到,上一代的 Grace Blackwell 架构主要是为了处理大型语言模型(LLM)设计的;而最新推出的 Vera Rubin 机架(包含存储加速器、Vera CPU 和专门的 Gro 机架)则是完全为了“运行智能体、并让智能体去敲击使用各种工具”而设计的。推理市场的爆发:他甚至亲自飞往供应链合作伙伴那里,要求他们投入数十亿美元进行资本扩充,并明确告诉他们:“推理的市场拐点已经到来,这将是一个无比巨大的市场。” 黄仁勋认为推理才是检验AI真正智能的核心战场。它不是简单的数据输出,而是高强度的逻辑推演和工具调用。未来为了让AI“想得更深、做得更全”,推理阶段消耗的算力将远超人们过去的想象。
www.youtube.com
01
李惠子Huizi
2天前
推荐一下:PQQ(供能线粒体、保护神经网)搭配辅酶Q10。
推荐撸铁/快走,不推荐快跑/马拉松。

李惠子Huizi: 被种草了新的养生黑科技:PQQ(供能线粒体、保护神经网),这个搭配辅酶Q10 卷王们都能随手掏出一盒药😂

11
李惠子Huizi
2天前
Mark

i陆三金: 今天才有时间看完 Andrej Karpathy 在 No Priors 播客上的访谈,聊点感受。 这种播客还是建议人肉去听,不建议看 AI 总结版,我发内容也只是记录自己的视角,不是给大家总结。 Andrej 在心态上还是有点焦虑的。 - 担心自己不在行业最前沿 - 担心自己的订阅 token 没花完 - 担心自己是瓶颈 他现在游离于前沿实验室之外,算是个 AI 独立探索者,他有着自己的取舍。 Andrej 认为在前沿实验室,人无法做到独立自主,你无法自由说话,不能想说什么说什么,同时很多话在那个语境下你又得被迫说,而且在那个环境中,你也无法真正说了算。总之,少了点自主。 但坏处是自己离一线远了,无法真正了解到在发生什么,也不能很好预测未来。 所以,他倒是希望和前沿实验室有一些合作。未来也不排除再进入前沿 AI 实验室。 另外一层的焦虑,可能是 Agent 现在这个阶段带来的。 Andrej 讲了他自己玩 coding agent 时的状态,跟很多人可能很像。 不再手写,给定框架,让 agent 完成,自己再来验证,但自己又不能完全跳脱这个循环,所以在这种循环下,人是瓶颈,有一种无形压力。 我有个形象的例子,不一定恰当:这就像一台有发动机的车,但是没有轮子,轮子是你的腿,AI 推着你向前,你被迫跑步来适应巨大的推力。 他这次观点里最广为流传的应该就是关于软件和 agent 的看法了。 我们其实不需要这么多特制的 app,例如智能家居 app,为什么不直接提供几个 api,让 agent 直接来处理呢? 我们生产了太多不需要的 app,agent 正在将他们揉碎,他们只需要暴露 api,agent 重新粘合一切。 他用 OpenClaw 控制智能家居的例子来说明这些观点,像这些产品,不应该由软件来管理,应该由 agent 来管理。 他也讲了 OpenClaw 为什么会那么火? 因为 OpenClaw 满足了人们的期待,人们一直对 LLM 有着不切实际的幻想,实际上它本身稍显粗糙,并不能直接满足人类幻想,但 OpenClaw 通过人格、记忆等系统满足了人类的幻想,让它成为一个契合人类幻想的产品。 他又再次提及模型的锯齿状智能,这是大模型公司决定的。他们如何训练模型,如何使用数据,如何进行 RL。 例如 ChatGPT 不会讲笑话,是因为这是在 RL 之外,没有经过 RL 优化。而模型现在做 agent loop 的能力很强,是因为模型被这样训练。 他也不赞成一个能在 coding 上实现通用能力的模型是全方位的 AGI(有一些模型公司认为 coding agi 就是 agi)。 讲到 vibe coding,Andrej 认为 vibe coding 是有门槛的,是属于少数人的游戏,可能不会普及。 他自己的 autoresearch 项目, 则是希望构建一个循环,人不在环,人只需要启动,系统完全自动化。他甚至设想通过这种完全自动化,让模型训练的模型,超越前沿模型。 开源和闭源,他支持开源,认为目前这种 6-8 个月的差距也挺好,简单用例用开源模型,复杂用例用闭源模型,防止了垄断。 访谈也讲了机器人与自动驾驶,还是那个说法,物理世界 AI 更慢,但市场前景更大。 这场访谈主要还是围绕 agent,可以说是一节面对 agent 时代的思维转变课。 Andrej Karpathy 访谈给我两个启示: - agent 现在这个阶段,并不能完全自主,不能端到端地实现我们的任务,人要在环,所以,人会很累,因为你的转速是无法匹配 ai 的。Andrej 做过自动驾驶,他知道 L4 是人类不在环的,他在 agent 上的观点也更倾向于以后会有更高级别的自动化。所以,其实不用太焦虑,真的是学的慢,就不用学了,因为 ai 完全可以自己办到了。 - - 现在这个阶段,重要的是要做转变思维,以前你做的产品是面向人的,以后你做的产品、内容是面向 agent 的,要让 agent 可以理解、执行,才算是完成工作。 不要问 agent 能为你做什么,先看看你能为 agent 做什么。

00
李惠子Huizi
2天前
大道的心灵鸡汤,
具体而言他在讨论腾讯/英伟达。
30