即刻App年轻人的同好社区
下载
App内打开
汪源
56关注416被关注0夸夸
创业中@杭州久痕科技,让知识工作更轻松高效
前网易集团副总裁,杭州研究院执行院长
汪源
10月前
经过大半年紧锣密鼓的开发,我们的AI知识助手产品—remio—今天正式开启内测,有兴趣的朋友们请移步官网(remio.ai)申请加入waitlist。请朋友们方便的话帮忙转发[Salute][Salute]

remio.ai官网上线,开放内测

14
汪源
1年前
智能编程可以成为新的JIT编译。

JIT编译把性能较差的解释执行变成高性能的机器码执行,同理,智能编程可以把比较慢的LLM推理执行变成高性能的程序执行。

这个过程可以自适应完成,当某些指令的执行次数超过一定的阈值,就可以尝试对应的生成程序代码,还是返回LLM推理的结果,但同时执行程序并用LLM来判断输出的正确性,通过充分测试后就可以正式转成只执行程序。

测试是不是充分,可以看测试的次数和测试的全面性评估(可以让LLM自动评估)。

这样,就可以大规模的用自然语言编程,但又可以很大程度上享受到编程语言的性能。
00
汪源
1年前
一时兴起做了个关于AI经济规模的快速计算:
1、全球每年会议时长1.17万亿小时(GPT-4o根据全球16.5亿人平均每周开14.8小时会计算)
2、这些会语音识别后产生的文本token数:14.04×10^15
3、调用GPT-3.5 API对这些文本都一下总结的成本:30.9万亿美金

30万亿啊,OpenAI现在一年30亿,空间巨大。。。。。。
20
汪源
1年前
接上条。

智能大模型的复用能力与之前的手段有根本的不同。之前的手段都需要预先设计,例如将已有的功能封装成符合某种特定要求的控件、组件或微服务,甚至建设业务中台。而智能大模型可以针对软件开发过程中所生产的所有资产(包括文档和代码)进行复用。通过智能大模型的针对性训练,所有软件相关资产成为组织知识,并在需要的情况下实现复用。这种复用的级别是字符级别的。理论上来说,智能大模型的复用颗粒度能够达到极致。

综合来看,相比现有的手段,智能大模型的复用能力具有以下优点:
1、不需要特别的设计,没有额外的成本;
2、所有的资产(文档、代码)都可以实现复用;
3、细粒度, 可以做到字符级的复用;
4、能够实现自适应的复用,不是简单的拷贝粘贴,而是先将资产沉淀成知识,再根据需求进行针对性的生成。
00
汪源
1年前
经常看到智能编程一键生成某某应用的宣传,之前老觉得没啥大用,因为演示都基本都是用来做做贪吃蛇这种常见的东西,这些东西在代码库里很多,一键生成说是生成,还不如说是抄。

今天看到两个例子,改变了我的想法。

一个是一键做个计算器,想起2000年的时候给浙大做在线教育系统时用JavaScript手撸计算器撸了好久;第二个是一键做个音乐播放器,我想类似的视频播放器应该也没啥问题吧。

这两个例子让我认为,智能编程大模型可以成为一个巨大且灵活的组件库,而且这个组件库和之前所有的组件库的使用方式都不一样,灵活的多。

之前都是用组件,没法改。要定制组件的行为,只能通过配置、参数等有限的方法。组件为了支持更多使用场景,往往做的越来越抽象,易用性也越来越差。

现在的用法变成copy-and-modify,我们不再需要把组件设计的那么抽象和难用。

这是一个软件复用机制的paradigm-shift。

当然,这样的机制有利有弊,我知道不少人(尤其是老程序员)对这种到处拷代码的方式嗤之以鼻,但我觉得,多一条路是好的。
10
汪源
1年前
Paul Graham 发了一篇文章说未来大部分人都不会写作,个人觉得老Paul最近的文章有点太剑走偏锋。

之前他写创始人模式,我就觉得,凭几个观察就能把数十年的管理学打翻在地?

这次这篇关于写作的观点也不敢苟同。我认为我们现在大部分写作是在码字而不是思考,将来码字的这部分AI肯定基本取代,人应该会用更多的时间思考。将来不会思考只会码字的人都找不到工作。

如果说将来敲键盘码字的速度下降,我觉得大有可能,但如老Paul所说的大部分人不会思考,不敢苟同。
00
汪源
1年前
碎片化阅读有一个很大的好处,它逼迫你把读和思考交替进行。

俗话说学而不思则罔,死而不学则怠。碎片化阅读刚好做到学和思相结合。

我感觉我大部分好的想法是受碎片化的阅读启发,而不是沉浸式阅读启发的。

沉浸式阅读往往读着读着就变成纯读,纯享受,懒得思考了。

以上为碎片化阅读正名。

当然前提是得得空就思考。
22
汪源
1年前
有人讨论到,要少创新,多模仿,模仿比创新更稀缺。
我的评论:创新只需要理解自己,模仿你得理解别人,你说哪个更难?
10