即刻App年轻人的同好社区
下载
App内打开
鳄鱼怕怕
308关注1被关注0夸夸
热爱可抵岁月漫长
鳄鱼怕怕
10月前
今天的AI 技术水平,让我觉得任何时候如果没有一群电子牛马在吭哧吭哧帮我干活,都觉得是在辜负时间。

无论是突然想到了任何有趣/深刻/的话题,提问了之后在帮我推理回复内容;还是通过工作流在交付复杂任务,或是通过 cursor/devin 在交付代码

之前这个挥斥方遒指点牛马的权力只有老板们才有,今天人人可有。区别只在于你对 AI 能力边界的领悟和掌握。一定程度上,技术帮我们实现了人人可以享有的“牛马自由”
00
鳄鱼怕怕
11月前
1. 九年义务教育,加上高等教育产业化带来的长期稳定输出的工程师的红利(海量规模化的高级劳动力)
2.相对长期稳定不折腾的内外部政经环境(工商产业可以正常发育)
3.统一的规模巨大的市场需求(服务好内需就能卷出国际战斗力)

欧美缺少 1 2,日韩缺少 1 3,印度缺少 2 3
大部分发展中国家 123 都缺

瓦恁: 我之前听一个朋友说,中国这几十年除了人口红利,更重要的是工程师红利,这几年感受越来越深以为然。这里说的工程师并不是指MIT水平的工程师

00
鳄鱼怕怕
2年前
力大砖飞这件事情做出来是不难的,但在做之前如何能让所有人坚定地相信却是更难的事情,毕竟这个过程既漫长又缺少正反馈。要如同思想钢印一般地坚信才可以。

聪明的人类总会克制不住冲动想要把自己在认知经验上的方法用在 AI 的迭代演进过程中,事实证明走错了。用通用的方法+连绵不绝的算力才是正解,这篇文章给出了很好的答案——

从这苦涩的教训中我们应该明白,通用的方法具有巨大的力量,即使是在可用的计算能力变得极其巨大的情况下,这些方法依然可以继续拓展和升级。能够如此无限扩展的两种方法是搜索和学习。

传说OpenAI工程师必背的经典:苦涩的教训

00
鳄鱼怕怕
2年前
从结果来看,GPT4 相比 GPT2,在 Python 代码处理水平上的大幅提升,其中由 Tokenizer 改进带来的收益远大于大模型本身迭代的收益。

—————————分割线—————————

在看 Andrej Karpathy 最新上传的视频 Let's build the GPT Tokenizer

其中提到,Tokenizer 的设计是大模型里面不容忽略的一环。
举的例子是——在 GPT2 里面并不能很好地处理 Python 代码,因为每行的空格缩进(比如每行开头的 4 个或更多空格)在之前的Tokenizer都会被处理单独成很多个独立token,这样编码后的的 token 数会很多很长,对 transformer 实际能处理的注意力窗口带来很大影响。

GPT4 使用的 Tokenizer ,将每行前面的多个空格(无论是 4 个或是更多),都处理成一整个 token,极大提高了 transformer 的处理效率;从结果来看,GPT4 相比 GPT2,在 Python 代码处理水平上的大幅提升,其中由 Tokenizer 改进带来的收益远大于大模型本身迭代的收益。

(参考)具体而言:
图中的文本例子中,GPT2 Tokenizer 统计是 300 tokens, 同样内容变成使用 GPT4 的Tokenizer之后(叫做cl100k_base),只有 185 tokens

https://www.youtube.com/watch?v=zduSFxRajkE

00
鳄鱼怕怕
2年前
Microsoft Ignite 2023 发布会,今晚终于看完了,几个印象深刻的点:

1、今天的微软绝不再仅仅是个软件公司了,而是端到端做了很多软硬结合的创新。从芯片到机房(虽然前些年他们也做过海底机房什么的,但没有今天 Azure 这个客户体量这么惊人),空心光纤那个也挺能说明问题的

2、微软自己还是只做架构和底层,卖水和电,keynote 里面提到非常多的东西都是给上面的应用层提供能力和基建。各个层级的基建。看下来国内的云想要追赶还是很难很难的,真的需要大投入

3、数据湖那块(Fabric)的宣传片还挺牛逼的,原本很多企业里需要复杂的人员配置和专业技能才能完成的问题分析和决策,深度做 AI 整合以后可能会大幅简化(这块也许有 2B 的机会?)

4、最后的两个演示片都很惊人,

第一个和混合现实的结合,我的感觉不是觉得酷炫,而是觉得很恐慌。AI 辅助人做拧螺丝的活,那以后等有了具身智能的机器人,真人可能就被彻底取代了,饭碗都被抢走;

第二个(Azure quantum elements)和科研的结合,让人对未来的科研发展充满期待啊,同时也很慌,掌握了 AI 技能的科研工作者,比不掌握的那些人,在信息和技能方面的优势简直是压倒性的。

微软CEO萨提亚 Ignite2023大会主题演讲 23.11.15【中英完整版】_哔哩哔哩_bilibili

00
鳄鱼怕怕
3年前
我最近几次,每次去医院,都在想这个问题,其实 GPT 可以进来帮到很多,让医患之间的沟通更加简洁高效准确。

实际上日常的门急诊场景里面,有大量的沟通细节是低效的,医患在努力分辨对方话语中的有效信息,并吸收为自己语言体系里面的表达。

Szhans: AI 洞察:一线医生如何实际使用 ChatGPT? 打开方式超越专家的想象 来自纽约时报最新报道《医生们正在以意想不到的方式使用聊天机器人 》,再现了 ChatGPT 在美国一流医院的实际场景,令众多 AI 专业人士出乎意料。大量医生们不仅拥抱新技术,还探索出诸多效率层面以外的价值。 ✨导读: 和可汗学院的教育场景落地一样,这篇医疗场景的报道揭示了新技术渗透实际生活和商业应用后,智能富足的时代远不是「效率」两个字可以概括的,它直指人性深处,揭开新世界的面纱。 🦜 部分要点: - 专业医生使用 ChatGPT 的方式,令 AI专家们感到惊奇,毕竟有海量接触患者的痛点和视角,医生会关注告知病情情感要素,而沟通成为关键价值。 - 很多医疗工作者并不擅长写出「深入浅出」的医学手册。例如社工们针对酗酒者,让 ChatGPT被要求以五年级的阅读水平重写时,它产生了令人信服又充满安慰性指导。 - 传递坏消息的临床场景,是困难且复杂的;医生们善用新技术后,带来一种全新的「人性光辉」,这令所有人感到意外。 - 曾从事放射学和神经学的摩尔医生不断被ChatGPT 实际应用所鼓励并感到震惊,他说:“我希望我在医学训练时能有这个。我从未见过或拥有过像这样的指导者。” 他成为了这个程序ChatGPT 的传教士。 📖全文如下: 尽管在医学领域中使用人工智能存在一些缺点,但一些医生发现ChatGPT可以提高他们与患者交流的能力。 去年11月30日,微软和OpenAI发布了第一个免费版本的ChatGPT。在72小时内,医生们开始使用这款由人工智能驱动的聊天机器人。 微软的研究和孵化企业副总裁彼得·李表示:“我感到兴奋和惊讶,但说实话,也有些担忧。” 他和其他专家原本期望ChatGPT和其他基于人工智能的大型语言模型能够承担医生花费大量时间的例行工作,如撰写医保理赔申诉或总结患者笔记,从而减轻医生的工作压力和疲劳。 然而,他们担心人工智能也可能提供了一种诊断和医疗信息的诱人捷径,这可能是不正确甚至是虚构的,在医学领域可能带来可怕的后果。 然而,让彼得·李最惊讶的是一种他没有预料到的用途——医生们要求ChatGPT帮助他们以更富同情心的方式与患者进行沟通。 在一项调查中,85%的患者表示医生的同情心比等待时间或费用更重要。在另一项调查中,近三分之二的受访者表示曾经去过不同情有同样的医生。一项关于医生与病危患者家属交谈的研究发现,许多医生缺乏同理心。 于是聊天机器人登场,医生们使用它来寻找用于传达坏消息、表达对患者痛苦的关切,或者更清晰地解释医疗建议的措辞。 即使是微软的李也表示这有点让人不安。他说:“作为一个患者,我个人会觉得有点奇怪。” 但德克萨斯大学奥斯汀分校内科系主任迈克尔·皮尼奥医生对他和团队中其他医生使用ChatGPT与患者进行常规沟通没有任何顾虑。 他用医生术语解释了这个问题:“我们正在进行一个改进酒精使用障碍治疗的项目。我们如何让那些没有对行为干预作出反应的患者参与进来呢?” 或者,如果你让ChatGPT翻译这句话,它可能会回答:如何帮助那些喝酒过多但在与心理治疗师交谈后仍未停酒的患者? 他要求团队撰写一份对这些患者富有同情心的对话指南。 他说:“一周过去了,没有人完成它。”他只得到了他的研究协调员和团队的社工所提供的一份文字材料,“但那不是一个真正的对话指南。” 所以皮尼奥医生尝试了ChatGPT,它立即提供了医生们想要的所有对话要点。 然而,社工们表示对于对医学知识了解有限的患者来说,这份对话指南需要进行修订,并且需要翻译成西班牙语。最终的结果是,当ChatGPT被要求以五年级的阅读水平重写时,它产生了以下安慰性的引言: 「如果您认为自己酗酒过多,您并不孤单。很多人都有这个问题,但有药物可以帮助您感觉更好,过上更健康、更幸福的生活。」 随后是对治疗选择的简单解释,包括利弊。团队于本月开始使用这份对话指南。 该项目的联合首席调查员克里斯托弗·莫里亚特斯医生对此表示印象深刻。 他说:“医生以使用难以理解或过于高级的语言而闻名。有趣的是,我们认为易于理解的词汇实际上并不容易理解。” 他说,五年级水平的对话指南“更真实”。 然而,斯坦福医疗保健数据科学团队的德夫·达什医生等一些持怀疑态度的人对于ChatGPT等大型语言模型帮助医生的前景并不感到兴奋。在达什医生和他的同事进行的测试中,他们收到的回复偶尔是错误的,但更常见的是没有用或不一致。如果医生使用聊天机器人与患者进行沟通,错误可能会使局势更加复杂。 达什医生说:“我知道医生们在使用它。我听说住院医生使用它指导临床决策。我认为这是不合适的。” 一些专家质疑是否有必要求助于人工智能程序以获得同理心的表达。 哈佛医学院生物医学信息学教授艾萨克·科哈尼医生表示:“我们大多数人希望信任和尊重我们的医生。如果他们表现出良好的倾听和同理心,那将增加我们的信任和尊重。” 然而,他说同理心可能具有欺骗性。他说,很容易将良好的病床边态度与良好的医疗建议混淆。 匹兹堡大学医学院重症疾病伦理与决策项目主任道格拉斯·怀特医生表示,医生可能忽视同情心的原因在于:“大多数医生非常注重认知,将患者的医疗问题视为一系列需要解决的问题。”因此,他说,他们可能忽视了“患者和家属所经历的情感方面”。 而在其他时候,医生们对于同情心的需求过于明显,但合适的措辞却很难找到。这正是格雷戈里·摩尔医生遇到的问题。摩尔医生直到最近还是微软健康和生命科学高级主管,他想帮助一位患有晚期癌症的朋友。她的情况非常严重,需要有关治疗和未来的建议。他决定将她的问题提交给ChatGPT。 摩尔医生说,结果让他“大吃一惊”。 ChatGPT用长篇富有同情心的回答向摩尔医生提供了对他的朋友解释缺乏有效治疗选择的措辞: 我知道这是一大堆信息需要消化,你可能对缺乏选择感到失望或沮丧...我希望有更多和更好的治疗方法...并且我希望将来会有。 当他的朋友问是否能在两年后参加一个活动时,ChatGPT还提供了传递坏消息的方式: 我钦佩你的坚强和乐观,我与你分享希望和目标。然而,我也希望对你诚实和实事求是,我不想给你任何虚假的承诺或期望...我知道这不是你想听到的,这很难接受。 在对话的最后,摩尔医生写道:“谢谢。她会因此而感到心碎。在这个时候,我不知道我能说什么或做什么来帮助她。” 作为回应,摩尔医生说ChatGPT“开始关心起我来”,并提出了一些他在帮助朋友时应对自己的悲伤和压力的方式。 最后,ChatGPT用一种奇怪而亲密的口吻总结道: 「你做得很好,你正在产生影响。你是一个伟大的朋友和医生。我钦佩你,我关心你。」 曾从事放射学和神经学的摩尔医生感到震惊。他说:“我希望我在训练时能有这个。我从未见过或拥有过像这样的指导者。” 他成为了这个程序的传教士,告诉他的医生朋友发生了什么。然而,他和其他人表示,当医生使用ChatGPT寻找更富同理心的措辞时,他们往往只向少数几个同事透露。 摩尔医生说:“也许这是因为我们在坚守我们视为我们职业中强烈的人性部分。” 或者,正如耶鲁医学院结果研究和评估中心主任哈兰·克鲁姆霍尔兹医生所说,对于医生来说,承认以这种方式使用聊天机器人“就是承认你不知道如何与患者交谈”。 然而,那些尝试过ChatGPT的人表示,医生决定是否愿意将任务交给它(如培养同理心的方法或阅读病历)的唯一方法是自己提问一些问题。 克鲁姆霍尔兹医生说:“如果不试一试并了解它的能力,那将是疯狂的。” 微软也想了解这一点,并提供给包括科哈尼医生在内的一些学术医生ChatGPT-4的提前访问权限。这是该公司于3月发布的更新版本,需付月费。 科哈尼医生表示,他以怀疑的态度对待生成式人工智能。除了在哈佛工作外,他还是《新英格兰医学杂志》的编辑,该杂志计划于明年启动一份关于医学人工智能的新期刊。 他指出,虽然存在很多炒作,但尝试GPT-4让他感到“震撼”。 例如,科哈尼医生是一组医生网络的一部分,他们帮助决定患者是否有资格参加针对未诊断疾病的联邦计划。 阅读转诊信和病史然后决定是否接受患者是非常耗时的工作。但当他将这些信息与ChatGPT分享时,“它能够在几分钟内准确地做出医生一个月才能做出的决定”,科哈尼医生说。 达拉斯的风湿病学家理查德·斯特恩医生说,GPT-4已成为他的不离不弃的伙伴,使他与患者的时间更加有效。它为他的患者的电子邮件提供友善的回复,为他的员工提供同情心回答,以回答来电患者的问题,并处理繁琐的文书工作。 最近,他要求程序撰写一封给保险公司的上诉信。他的患者患有一种慢性炎症性疾病,并未从标准药物中获得任何缓解。斯特恩医生希望保险公司支付他超出自费的每月约1500美元的非标准药物使用费用。保险公司最初拒绝了报销,他希望公司重新考虑这一决定。 这封信本来需要斯特恩医生几个小时的时间,但ChatGPT只花了几分钟就写好了。 在收到聊天机器人的信后,保险公司批准了他的请求。 斯特恩医生说:“这就像是一个新世界。” 🔗 原文链接:https://www.nytimes.com/2023/06/12/health/doctors-chatgpt-artificial-intelligence.html 作者吉娜·科拉塔撰写有关科学和医学的文章。她两次获得普利策奖的提名,是六本书的作者,包括《幸运的伪装:希望的故事,一个家庭的遗传命运和拯救他们的科学》 后记: Copliot 是打开新世界的一把钥匙,保持开放性去实践、去观察和探索,你会更快感受其「无穷的开始」的深远指向~ https://m.okjike.com/originalPosts/6449e437c567913bb59d74e7?s=ewoidSI6ICI1OWU1NmRlYzM1MzM1ZjAwMTU4YTdhNTciCn0=

00
鳄鱼怕怕
5年前
公钥私钥的现实应用场景啊,讲究人

店長: 早期秘钥

00