即刻App年轻人的同好社区
下载
App内打开
闲云野鹤579
134关注0被关注0夸夸
闲云野鹤579
1年前

歸藏: Runway CEO 把组织分成了两部分,知识寻求型(KSO)和优化寻求型组织(OSO)。 在特定行业(OSO)这种组织形式是必须的,比如一些低利润行业,有明确的流程和分工,相对固化。 但是在发展迅速、行业早期(KSO)组织会取得相对好的结果,这也是为什么 AI 领域大厂手握那么多资源,但取得的结果却跟自己的资源不匹配的原因。 他关于这两者的定义: KSO 具有涌现性质 (emergent properties),这种性质使其难以被完全编码化。它们的规则是从人与人之间的互动中逐渐演化而来的,没有任何单一因素占据主导地位。 就像神经网络一样,组织中的人(以及整个组织)会随着新信息的到来调整他们的"权重 (weights)",不断从外部世界中学习。 这些组织类似于非参数模型 (non-parametric models),能够根据新数据灵活调整其复杂度。 OSO 致力于优化已知流程以提高效率。它们运作依赖于固定的规则和强烈的归纳偏好,就像一个具有强先验信息的模型。这类组织在成熟市场和答案明确的产品领域表现出色。 根据具体需求,这两种类型的组织都有其存在的必要性。KSO 通常倾向于培养分布式领导 (distributed leadership),并重视学习相关的指标。而 OSO 则倾向于层级化的结构,更注重效率指标。 组织要么在答案明确、解决方案可预测的环境中蓬勃发展,要么通过允许系统特性从各部分的相互作用中自然涌现,从而追求创新和突破。 来源:x.com/c_valenzuelab/status/1846252923208323298

00
闲云野鹤579
2年前

雅芳af: 未来大模型架构是否还会继续变?为何现在国内还没有爆发特别多的LLM toc应用?今天有朋友问我,我梳理了几点我知道的,如果有不同看法,也欢迎评论区一起唠唠~ 1、未来模型架构的变化是否会给toc应用带来影响?这个答案是会的。角度是模型能力在不断的提升,能力的提升会给应用带来更好的用户体验。 2、关于模型架构是否会改变,这个我不太能判断,原因是现在一些能够落地的大模型,大多是闭源模型,像是ChatGPT、长文本kimichat、文心一言,他们的模型架构、采用的技术具体不清楚。 现在还没有一款开源模型能够做出追赶GPT4能力的,有开源模型追赶GPT4的,现在大多数都是被众多开发者诟病的“刷榜”出来的; 再来预训练阶段的高质量数据也是模型能力出色的一大原因,这也是壁垒,需要投入非常高的人力成本跟资金。 这里我再分闭源跟开源模型的架构来讲我知道的一些: •关于闭源模型架构已知的是,大多数采用的是Transformer架构,基于NTP模式,而关键在于找到高效缩放的方式,也就是scaling law的应用,这个不管是开源或者是闭源模型都是。 •关于开源模型的架构,现在一些效果比较好的开源模型,很多都跟Llama的架构差不多,后续国内在做的一些模型,除了ChatGLM等,大多也跟Llama架构很像,因为效果好的架构最重要,沿袭这样的架构是开源界在做的,比如开复老师团队的yi,但yi是真的被挺多人夸赞的,这个模型效果好是他们团队有懂应用scaling law的人。 3、为什么还没有大规模爆发原生应用,我的想法是,一个是模型的能力,这个还需要再继续迭代。再来缺AI时代的产品经理,大模型带来的是体验跟效率的提升,但toc应用需要非常懂人性+技术的产品。 关于2024年开源模型、闭源模型、AI原生应用的趋势,之前@Barret李靖 分享的拾象报告推荐大家阅读 https://m.okjike.com/originalPosts/65967c61c7c69d5a9f84fa71?s=eyJ1IjoiNWY2YjZjMjMxZmVhMjcwMDE3NGYxZmU5In0%3D 基于这份报告,我还找了一份访谈版的报告也一起分享出来 https://www.fxbaogao.com/view?id=4089507&query=%7B%22keywords%22%3A%22%E6%8B%BE%E8%B1%A1%E5%A4%A7%E6%A8%A1%E5%9E%8B%E8%A7%82%E5%AF%9F%E6%80%9D%E8%80%83%20-%E6%9C%80%E6%96%B0%E5%88%A4%E6%96%AD%E7%8C%9C%E6%83%B3%22%7D&index=0&pid=29&xid=

00
闲云野鹤579
2年前

进击的盖茨比: 文科生,面对海量AI信息,如何不焦虑,快速做点什么甚至赚钱? 作为1个政治学出身、过去消费金融从业的大龄文科生,这成为我在2-7月最痛苦的事情。 半年后,我可以比较熟练地掌握MJ,GPT4插件,写Prompt定制,一口气给中小企业主讲4小时的AI科普实操课了。 也用AI+低代码做了第一个小程序,自己的小公司,也基于AI-bot来思考,能AI化就AI化。 实践下来,我把即刻+B站+Twitter+YouTube作为无围墙的大学,建立适合的信息跟进系统。 这个思路可能适合与我一样,相对不聪明、但对AI感兴趣的文科生朋友。 艾特了很多即友表示感谢,2024让我们确保AI创造,在即刻发生。以下是长文思路: 一、筛选优质信源 总体上是一个先做加法,再做减法的过程。 1)论文-即友-Twitter 原则是尽可能贴近一手信息。论文最佳(虽然一般消化不了) 可先读几篇公认的论文(比如Attention is all you need),没能力,就读中文版。 然后关注即刻AI大牛,可以自己逐步分类(这里只是我的主观定位,不一定是KOL的想法哈,不分排名) 如AI绘画:@海辛Hyacinth @刘飞Lufy @歸藏 @莱森LysonOber @炼丹师忠忠 @Simon阿文 偏工作流:@杨昌 @壁花少年. @泛函 @葬花达人鲁智深 偏产品工程:@奥古斯书 @杰森梁 @白宦成 @即友_AV4DII @吕立青_JimmyLv @Frank.Lin 偏出海:@哥飞 @深思圈 @赖嘉伟Gary 偏模型:@阿法兔 @罗X 偏资本&商业:@yusen @莫妮卡同学 @henu王凯 偏提示词:@李继刚 @陈财猫 @小七姐 还有一些实操有作品的大牛,如@刘驴 @数字生命卡兹克 @AUDI_GUZZ @VION_WILLIAMS 非常多优秀即友,恕我不一一列举。 再者,Twitter有最佳AI信源,但我英文不好,果断放弃。 后来遇到了“沉浸式翻译”,感谢@OwenYoung 的作品,学习效率直线上升。 可以关注的X大佬有:宝玉@Greg Brockman@Gorden Sun@Andrew Ng等等 2) 媒体-KOL社群 主流AI新媒体,如机器之心、量子位等,都有微信群,都加上。 然后全部改微信群备注,按照属性分类。 如1群-侧重商业化-机器之心 加入一些KOL的群,比如@哥飞 @大咕咕咕咕驴 @数字生命卡兹克 等 付费加入了优质AI社群,如“AI破局圈”知识星球。 参与少数线下活动,如参加深圳奇绩论坛,加群。加其中的“大模型日报”。这样,一个手动版的RSS就建立好了。 二、将摄入的信息做分类 1.在心理上,将所有信息分为6类道、法、术、器、势、志。 道(AI向善/社会结构/人文/科幻等务虚话题)比如刘慈欣的《终产者》,很多科幻、人文讨论等。 法(合规/法律/地方政策/资本动向等宏观信息)如《生成式人工智能服务管理办法》意见稿、备案《AI生成图片著作权侵权第一案判决书出炉》VC大佬朱啸虎和创业明星傅盛争吵也属于此类。 术 (模型/架构/Prompt/开源协议等) 器 (器(应用/工具/工作流/自动化等) 势 (自己有什么真正优势,如何切PMF) 志(自己有什么,要什么,放弃什么) 这一步,我认为挺关键的。有意识地给信息打标签,才能让你我清醒,避免摄入过多不重要的东西。 2.用微信单独建群 上述6类,单独分群。打开微信右上角的“面对面建群”,看到对应的信息,发自己的群,给自己或者相关朋友看。 “会读”APP出来后,我就把看不完的扔“会读”处理了,参考了@范冰 的流程。 不同的是,悬浮窗我总会留10篇左右一次看不懂的文章,确保自己第二天再读一遍。 3.策展类+导航站 会快速浏览@Szhans 每期的AI策展,@阿扶frits 的信息流也是。 导航站推荐:futurepedia.io(科学上网)ai-bot.cn(国内可用) Huggingface和GitHub偶然上去看看点赞高的。 B站也有非常多好的UP主,但我只是看了@李沐和@吴恩达的公开课。SD的课,看@Nenlyonis 的视频就够了。 4.记下常见的100个概念,说一遍学习新知识,先看100个重复词汇。 比如LLM,Lora,RLHF等,列出来,然后自己都看下是否知道。飞书有一个行业缩写文库,有人工智能的,是一个不错的工具。 5.学大厂公开课,考证 推荐微软领英全球第一个AIGC公开课,Google生成AI公开课,讯飞AI课。 把3个证都考了。 三、找个最贴近场景的上手练习 在玩了100多个AI工具后,我发现自己犯了@王建硕 老师说的,过于关心“AI新闻”,而不是研究AI。 即,器/术的部分浅尝辄止,用到工作流里的还是少。所以把和生产力相关的AI做成库,就不再理会。 开始专注GPT Prompt本身,以及Midjourney +SD 的商业化应用。 后来发现,提示词或许都不是最重要的,工作流更重要,转向RPA,初阶AI-Agent。 现在只看和自己想要解决的问题有关的AI技术,比如RAG。 只思考“势”和“志”的部分,指引自己行动。AI是追不完的,搞不定就果断放弃。 普通人不要太苛责自己。 四、输出带输入 每周试着写一点相关的信息,把自己画的图发到即刻或者朋友圈。然后开源自己的学习记录。Learn in public,蹭点赞。 打开OpenAI的Playground,每天试着写几段Prompt,直接生成GPTs开始玩。 不过,我真正感受到完整的“AI赋能感”,是在自己用ZIon低代码工具做了一个小程序,全程用GPT-4做代码辅助跑通后,才对工程化、数据库、前端、后端等AI提效的环节有体感。 而当我们带着这些认知,去和企业家、小老板们真正接触,在一遍又一遍地落地气馁后,对于AI能做什么,不能做什么的感受,才愈发真实起来。 现在的我,回到原有的领域,试着磕金融AI办公的场景,欢迎大家和我交流。 最后大家看到,这是个笨拙/冗长的框架。我并不是一个很聪明的人,很羡慕大家能快速学习并拿到结果。我只能依赖结构性的笨办法,一点点做。 如果看到这里,我已经很爱你了。相信我,哪怕是文科生,笨一点,慢一点,也不会错过这波AI的浪潮。 2024年,让我们确保AI创造,即刻发生。

00