即刻App年轻人的同好社区
下载
App内打开
技术人说
193关注1k被关注1夸夸
技术人说
1天前
**大型语言模型(LLMs)究竟在多大程度上提升了现实世界程序员的生产力?**

基于LLM的代码辅助工具已经面世大约两年了。许多开发人员报告说,这显著提高了他们的生产力,甚至达到了5倍/10倍。
至少,很明显,这种倍增效应并非在整个领域普遍存在。毕竟,并没有相应的产出增长。
这是有道理的。如果你在做任何非平凡的事情(即,除了向你的代码库添加次要的样板功能之外的任何事情),LLM工具都很麻烦。开箱即用的解决方案并不能为此目的“即插即用”。你需要显著调整你的工作流程才能使用它们,如果这甚至可能的话。大多数程序员不知道如何做到这一点/也不愿意费心。
因此,假设存在5倍/10倍的更大产出是合理的,这种产出是不均衡的,主要影响高级用户/特别擅长使用LLM的人。
从经验上看,我们似乎也没有生活在一个整个软件行业突然变得比以往生产力高5-10倍的世界里。这种情况已经持续了1-2年,至少我个人感觉几乎没有受到任何影响。我没有看到我使用的软件中出现5-10倍更有用的功能,或者出现5-10倍对我来说有用的软件,或者我正在使用的软件突然变得比以往好5-10倍,等等。
然而,我也很难在其他任何地方看到所谓的5-10倍的提升。如果高级用户正在经历如此大的改进,那么是什么项目实现了这一点?
以前,我假设我不知道,只是因为我“与世隔绝”。所以我试图让Deep Research为我获取一个概述,但它……也难以找到任何具体的东西。请自行判断:一,二。COBOL重构算数,但仅此而已。(也许我不擅长提示?)
即使是AGI实验室面向客户的产品,也没有提供大量以复杂方式与他们的LLM交互的丰富功能——即使你认为那里会有大量的高级用户。你只有一个对话框,可以向其中上传PDF,仅此而已。你不能让LLM与不断增长的任意软件和数据类型列表交互,没有可以按需打开/关闭的无尽的QoL功能列表,等等。[1]
因此,我现在向LW提问:现实世界的影响是什么?现在存在哪些没有LLM就不会存在的项目/进步?如果这些都没有公开归因于LLM,那么哪些项目出现得异常迅速,经过冷静分析,它们不可能在黑暗的LLM时代之前如此迅速地启动?如果有的话,编程生态系统的哪个部分正在经历10倍的增长?
如果我们假设这种情况将会扩散,所有程序员都将获得与早期采用者现在所经历的相同的生产力提升,那么现实世界的影响会是什么?
为了澄清,我**不**要求的是:

* 充满关于生产力提高10倍的模糊炒作的报告,没有明确说明这种10倍的生产力实现了什么项目。(Twitter上充斥着这些,但实际交付有用的东西很少。)
* 表明生产力提高了X%的抽象经济指标。(这可能意味着任何事情,包括基于LLM的泡沫。)
* “此分析显示上个季度产生的代码增加了Y%”的抽象指标。(这可能只是表明人工智能产生了代码垃圾/膨胀。)
* 表明Z%的开发人员被解雇/初级开发人员找不到工作的抽象经济指标。(这可能主要是恢复到新冠疫情前的正常趋势。)
* 像“我使用ChatGPT生成了第1000个Snake克隆/这个网站的克隆!”这样的无用玩具示例。
* 作为LLM包装器的新工具/功能,而不是通过LLM帮助创建的。(我不是在寻找LLM即服务,我是在寻找由于LLM帮助而更快/更好地产生的“平凡”输出。)

也就是说:我想要具体的、重要的现实生活后果。

从我目前为止没有观察到任何这些事实,以及本着坎宁安定律的精神,这里有一个试探性的阴谋论:LLM实际上并没有净提升程序员的生产力。相反:

* 程序员通过LLM生成代码节省的N小时,然后被重新浪费在修复/解开这些代码上。
* 在宏观层面上,这有时会导致“爬上你下不来的地方”,你使用LLM生成一个庞大的代码库,然后一旦超过大小/复杂性阈值,它就会变得混乱,然后你必须从头开始,因为LLM做出了可怕/陌生的架构决策。这同样会破坏(几乎?)所有明显的生产力提升。
* 在LLM实际上导致人们创建新软件的范围内,它主要是没人最终使用且不需要存在的临时小玩意/概念验证。但它仍然“感觉”你的生产力已经飙升。
* 在LLM实际上增加了进入有用应用程序的代码量的范围内,它主要最终用于创建不需要存在的膨胀软件/服务。也就是说,它实际上使交付的软件变得更糟,因为它编写得更懒惰。
* 体验到LLM改善其工作流程的人们大多被以自然语言要求LLM做某事,然后立即得到有点可用的代码的魔法效果所迷惑。他们没有跟踪他们花费了多少时间来集成和修复这些代码,以及/或这些代码实际使用了多少。

我并不完全相信这个阴谋论,感觉它不可能成真。但它突然变得非常有说服力。
我预计LLM肯定对编写次要功能或让编程/特定库/特定代码库经验不足的人更容易上手和学习更快很有用。它们在这些方面对我很有用。但它可能就像10-30%的整体提升,加上在新领域入门和一些罕见的临时项目(如“进行简单的重构”)的固定成本降低。
除非AGI实验室真正破解了长期代理/创新,否则这种情况基本上会保持不变;也就是说,基本上直到真正的AGI出现。
00
技术人说
2月前
41岁DeepMind天才科学家Felix Hill生前写的一篇Blog:200Bn Weights of Responsibility,讲述了从事AI的工作压力[蜡烛]

2000亿参数背后的压力:AI研究者的真实心声

AI技术飞速发展,ChatGPT、Gemini等大模型成为社会焦点。然而,AI领域的热潮也给从业者带来了前所未有的压力。DeepMind研究员Felix Hill在他的博文中分享了自己在AI领域工作的挑战和挣扎。

主要压力点:
1. 无处逃避: 在社交场合、广告、甚至新闻中,AI话题无处不在,难以放松。
2. 隐形竞争: 大公司之间的“模型战争”让AI研究者如同身处无形的战场。
3. 商业化压力: 研究成果的短期影响可能牵动数十亿美元的市场估值。
4. 科学的迷茫: 大模型的“规模为王”趋势,让基础科学研究显得无足轻重。
5. 论文困境: 商业机密与学术出版之间难以平衡,研究者常感失去对自己创意的控制权。

心理挑战:
Felix坦言,自己因压力一度陷入心理危机,但通过支持网络和反思,他逐渐走出阴影。他强调:“知道自己并不孤单,是我在最黑暗时刻的一束希望。”

📌 Felix的建议:
- 善待自己: 重视心理健康,寻找生活中的支持
- 与人分享: 开诚布公地讨论工作中的压力,共同创造一个更具同理心的AI社区。

#AI工作流
00
技术人说
2月前
想用Cursor提升编程效率?这份来自开发者的深度实战指南值得收藏:

1. 项目起步要做足功课
先用ChatGPT设计PRD、数据库、配色方案和整体架构,全部存成.md文件,为后续开发打好基础。

2. 打好坚实基础
善用V0等工具生成初始UI代码,再用Cursor优化。这种组合拳既保准确度又省返工。

3. 用好cursor.directory
这是个宝藏工具库——根据你的技术栈定制提示词,效果立竿见影。

4. 文档随手可取
把Next.js、Supabase等官方文档同步到Cursor,需要时用 @ LibraryName 快速调用,也可用 @ Docs 添加私人知识库。

5. 智能联网助手
@ Web 指令让Cursor帮你实时搜索最新资料,解答疑难杂症。

6-8. 效率提升三板斧
- 把优质代码存成.md文件留作后用
- @ Codebase 指令快速检索项目代码
- 学会用 ⌘K 快捷键编辑代码

9-11. 进阶技巧包
- UI调试靠截图更直观
- 让AI解释代码助你理解编程模式
- 从Vercel模板库起步,常用功能不用重造轮子

核心要诀:给Cursor清晰详细的指令,前期多投入准备工作,就能事半功倍。

#人工智能##AI创造营#
031
技术人说
2月前
2025 年AI工程师阅读清单
www.latent.space/p/2025-papers
Latent.Space总结了选择了 50 篇/模型/博客,涵盖 AI 领域的 10 个方向:LLMs、基准、提示、RAG、代理、CodeGen、视觉、语音、扩散、微调。每篇文章的选择都是基于其对人工智能工程师职业发展的重要性和对未来技术趋势的预测。
之前转过一次了,今天看到Jim Fan也在推荐这个阅读清单,单独再发一次。
014
技术人说
6月前
3.17亿粉丝 全球第一网红,MRBEAST公司内部培训手册

教你如何制造爆款内容

MrBeast 是 Youtube 订阅者最多的作者,截止2024年9月,他拥有3.17亿粉丝。

这份36页的 PDF 《MRBEAST 成功指南》文件,为 MrBeast 的员工培训手册, 由Jimmy(MrBeast)本人亲自撰写。

虽然 MrBeast 的节目制作成本往往让普通人望尘莫及(单单有的节目奖金就高达50万美金),但是这本手册还是有很多非常通用的借鉴意义。

我完整的看完了,内容真诚丰富详实的描述了他制作爆款视频的一些技巧和心得,以及教授员工如何来学习制作爆款内容和完成复杂艰巨的工作。

非常值得借鉴!

在第一页,MrBeast 要求员工熟读这本手册的每一句话,读完以后还要考试,通过者可以得到1000美元。

在手册结尾 Jimmy写着:要求所有人重复再看一遍:“因为我保证你第一次没有记住足够的内容。”

完整手册内容翻译 及 PDF下载:t.cn
01
技术人说
6月前
cursor+v0+reweb=中高级全栈AI程序员,这套组合基本上可以替代中低级全栈程序员,不需要写代码即可完成前后端

等于是重构了程序员的工作模式,不用这些ai工具的程序员是封建社会的码农,用这些工具的就是现代社会码农,哈😄

cursor:t.cn
v0:t.cn
reweb:t.cn

使用教程:t.cn
#A
012
技术人说
6月前
斯坦福新鲜出炉的硬核LLM课程,1小时45分↓#ai##程序员#

Stanford CS229 I Machine Learning I Building
Large Language Models (LLMs)

视频介绍了训练ChatGPT一样的大模型的基本知识,包括pre-training和post-training合阶段。

访问:youtu.be/9vM4p9NN0Ts

#ChatGPT[超话]#
01
技术人说
6月前
#提示工程师# 谷歌一位自学成才的工程师分享的8门免费编程课程。
刚看到Business Insider发了一篇文章,感觉蛮有价值。是谷歌软件工程师萨希尔-加巴(Sahil Gaba)分享的免费谷歌编程课程。
这个哥们有点传奇,在成为谷歌软件工程师前,他是一名完全自学成才的计算机工程师,之前学的是机械工程。

国外许多像 Gaba 一样的程序员新手,学习方法是两种:要么会通过免费 YouTube 视频学习,或者上价格昂贵的培训班。然而,这两种方法都有问题。YouTube 视频没有互动,培训班就是贵了。

而Gaba 在25 岁才开始学编程,说“当时完全懵了”。后来Gaba发现,其实免费的网络课程就很好,尤其是谷歌制作的。这些课程收费的就49美元,但可以免费试听(不拿证书的话),免费就是0元购了。

然后Gaba旁听了几门课程几个月后,就在一家小型金融科技初创公司找到了第一份编程工作,之后于2019年转到亚马逊,2021年又转到谷歌。

看完他介绍的这些资源,一方面觉得他应该是有点天赋,然后就是感觉现在学习资料真太丰富了,学习知识缺的也不会是钱,而是时间。不过,但是就算没有天赋的人,学完这八门,应该也是相当有知识厚度了。

以下就是他建议每位程序员学习的八门重要课程,都可以免费获取(介绍是大致翻译的)。
***
1.Python 速成班:t.cn
Python 是最受初学者和专家欢迎的编程语言之一。"它专注于实际开始构建所需的核心技能,而不会让您陷入不必要的细节中,"加巴说。

这门 32 小时的课程包括阅读、测验和最后的项目,您可以将自己的技能应用到实际问题中,从而获得全面的学习体验。Gaba 表示,这门课程对于数据科学、Web 开发、自动化甚至某些后端框架领域的人员特别有用。

2.行业工具 - Linux 和 SQL:t.cn
加巴说,他很后悔在职业生涯早期没有学习 Linux,并建议人们不要重蹈覆辙。"Linux是一种广泛分布的操作系统,以其稳定性和安全性著称,实际上可以运行互联网上的大多数机器。作为一名开发人员,你必须经常使用它的命令行界面 Shell"。

结构化查询语言(SQL)是处理关系数据库的标准语言,加巴建议程序员也尽快学习它。"这不是什么复杂的东西,但它是能够交付应用程序不可或缺的一部分。"

Tools of the Trade - Linux and SQL 是一门帮助用户为这两种工具打下坚实基础的课程。

3.掌握数据结构和算法:t.cn
数据结构和算法是软件工程中解决问题的基本构件,也是大技术编码面试的重要组成部分。加巴坚持认为,了解掌握数据结构和算法是面试准备的基石。

本课程不是创建新的内容,而是为您提供一个数据库,其中包含所有有关面试准备的现有最佳资源。

"他们并不是要重新发明轮子,他们实际上是在使用一些好的资源,并将其作为一个结构化的学习路径提供给你"。如果你要学习这份清单上的任何课程,这是加巴的首要建议。

4.Git 和 GitHub 简介:t.cn
加巴说,编写代码只是编程的第一步;一名高效的程序员还应该掌握 Git 和 Github,以便管理代码、与他人协作并跟踪随时间发生的变化。

《Git 和 GitHub 简介》是一门 27 小时的课程,将引导您了解这两种工具。

"课程结束后,您将掌握高效管理代码和为开源项目做贡献的技能,"加巴说。"您将了解如何创建和管理版本库、处理合并冲突以及有效使用拉取请求。

5.故障排除和调试技术:t.cn
许多新程序员都会陷入这样一个陷阱:他们花在调试代码上的时间比实际编写代码的时间还多。加巴解释说,有效调试是一项技能,它可以决定程序员的可靠性和效率。

Google 的调试课程教授程序员如何重现问题、找到问题的根本原因并系统地调试代码。

6.机器学习速成班:t.cn
机器学习,或在不提供直接指令的情况下教会机器做出决策,是科技界最热门的话题之一,正在席卷几乎所有行业。

加巴推荐谷歌的机器学习速成班,认为这是涉足机器学习的绝佳途径,而且不会被各种算法所淹没。他最喜欢的部分是 Colab 上的交互式可视化和实践。

7.生成式人工智能:t.cn(第一课)
谷歌的 "生成式人工智能入门"课程快速介绍了生成式人工智能的基本原理,但并不深入。"它会告诉您什么是大型语言模型或 LLMs,以及它们如何与我们经常听到的 Gemini 和 ChatGPT 等事物联系在一起,"Gaba 解释道。

掌握这一新兴概念可以帮助新程序员为将来使用这些技术做好更充分的准备,而这只需要一个小时。

8.网络安全基础:t.cn
在我们日益数字化的世界里,数据泄露似乎已成为一种常态。加巴说,了解网络安全的基本知识不再是可有可无的,而是必要的。

网络安全基础介绍常见的网络威胁、基本的安全实践以及如何将它们整合到开发流程中。

加巴承认,这门课程不会把新程序员变成网络安全专家,但它确实能让你更好地掌握公司内部使用的安全实践。"它旨在帮助你了解网络安全的基础知识,这样你就可以编写不会暴露任何数据的代码"。这是一门初级课程,预计需要大约 14 个小时才能完成。

加巴从这些课程中获得的最大收获之一就是学习方式。你可以将概念付诸实践,而不仅仅是死记硬背。
29
技术人说
7月前
全世界最好的中文大语言模型资源汇总 持续更新

这个开源项目汇集了中文 LLM 各个方面的资料,非常用心的整理和维护,推荐关注!

- 数据 Data
数据提取和增强的方面的项目,包括
@OpenDataLab_AI
的 LabelLLM、MinerU、PDF-Extract-Kit,
@refuelai
的 autolabel 等。
- 微调 Fine-Tuning
模型微调的框架和方案等,包括
@llamafactory_ai
LLaMA-Factory,
@unslothai
unsloth,
@intern_lm
xtuner 等。
- 推理 Inference
LLM 推理平台和框架等,包括
@ollama

@llama_index

@LangChainAI
等等,这部分内容非常丰富。
- 评估 Evaluation
LLM 响应结果评估框架等,包括
@AiEleuther
lm-evaluation-harness、
@OpenCompassX
OpenCompass 等。
- 体验 Usage
LLM 各种应用的线上体验,包括
@lmsysorg
LMSYS Chatbot Arena、HuggingFace Spaces 等。
- RAG
基于 LLM 的检索增强生成,包括
@dify_ai
、GraphRAG、
@AnythingLLM

@quivr_brain

@weaviate_io
Verba 等,大家平时关注的 RAG 项目基本都在列。
- Agents
聚集了很多优秀的 Agent 框架和项目,包括
@crewAIInc

@pyautogen

@OpenBMB
XAgent、
@CamelAIOrg
CAMEL 等等。
- 搜索 Search
AI 搜索类开源项目,包括
@supermemoryai
opensearch-ai、
@intern_lm
MindSearch、nanoPerplexityAI 等。
- 书籍 Book
关于 LLM 和 Agent 等方向的书籍。
- 课程 Course
关于生成式 AI、LLM、Agent、RAG 等方向的课程,建议收藏学习。
- 教程 Tutorial
图文和视频类教程,很有主题性。
- 论文 Paper
LLM 技术报告等论文,侧重中文 LLM 方向。
- Tips
What We Learned from a Year of Building with LLMs 等著名经验总结类文章。

项目地址:github.com
11
技术人说
7月前
有点好笑,曾经担任谷歌CEO长达10年之久的Eric Schmidt前几天去斯坦福大学受邀计算机学院的会议,他的演讲全程各种放飞自我,中途语重心长的告诉台下学生,这场会议是保密的,自己说的那些话千万不要外传。

然而,主办方对Eric Schmidt说,这场会议有摄像头正在全程直播……他的表情就凝固了。虽然斯坦福大学后来把视频从YouTube撤了下去,但已经有很多人都做了存档,Github上也有全文备份:transcripts
/Stanford_ECON295⧸CS323_I_2024_I_The_Age_of_AI,_Eric_Schmidt.txt

照例给大家划划重点:

- 现在的谷歌为什么在AI领域输得一塌糊涂?因为谷歌觉得让员工尽早回家和平衡工作比赢得竞争更加重要。如果你的员工每个星期只来公司上一天班,你怎么可能比得过OpenAI或是Anthropic?

- 看看马斯克,看看台积电,这些公司之所以成功,就是因为能够卷员工,你必须要把员工逼得够紧才能获胜,台积电会让物理学博士第一年下工厂干活,你们能想象美国的博士生去流水线吗?

- 自己犯过很多错误,比如曾经觉得英伟达的CUDA是很蠢的编程语言,但现在CUDA是英伟达最牛逼的护城河,所有的大模型都要在CUDA上运行,而只有英伟达的GPU支持CUDA,这是其他芯片撼动不了的组合。

- 还有微软跟OpenAI合作时自己也觉得难以置信,微软怎么能把最重要的AI业务外包给那种小公司啊,结果再次看走了眼,再瞧瞧苹果在AI上的温吞,大公司真的都官僚化了,奋斗逼都在创业。

- TikTok给美国人上了一课,在座各位年轻人以后如果创业,能偷音乐什么的就赶紧去做——似乎是在黑TikTok早期纵容盗版BMG——如果你做成了,就有钱雇佣最顶级的律师帮你擦屁股,如果你没做成,那就没人会起诉你。

- OpenAI的星际之门在宣传时说需要1000亿美金,实际上可能3000亿都打不住,能源缺口太大了,给白宫提过建议,美国以后要么跟加拿大打好关系,水电资源丰富,劳动力便宜,而且够近,要么去和阿拉伯国家套近乎,让他们来做主权投资。

- 欧洲已经没戏了,布鲁塞尔(欧盟总部所在地)一直都在摧毁科技创新的机会,可能法国还有点希望,德国不行,其他欧洲国家就更不用提了,印度是美国盟友里最重要的摇摆州,以及美国已经失去了中国。

- 开源很好,谷歌历史上的大部分基础设施也都受益于开源,但是说实话,AI行业的成本太高了,开源负担不起,自己投资的法国大模型Mistral将会转为闭源路线了,不是所有公司都愿意且有能力像Meta一样当冤大头。

- AI会让富者愈富、穷人恒穷,国家也是,这是一场强国之间的游戏,没有技术资源的国家需要拿到加入强国供应链的门票,否则也将错过盛宴。

- AI芯片属于高端制造业,产值很高,但不太可能拉动就业,你们可能没几个人去过芯片制造厂,里面全是机械化生产,不需要人,人又笨又脏,所以不要指望制造业复兴,苹果把MacBook的产线迁回德州不是因为德州工资低,因为根本不用再大规模雇人了。

- 历史上,电力在引入工厂之后并不比蒸汽机创造了更多的生产力,是过了大概30年左右,分布式电源改造了车间布局,推动组装系统的出现,再才开始了生产力的飞跃。现在的AI和当初的电力一样,有价值,但还需要组织创新,才能真正拿到巨大的回报,目前大家都还只是在摘取「低垂的果实」。
12