即刻App年轻人的同好社区
下载
App内打开
鱼羊一锅鲜
148关注51被关注0夸夸
👋热衷提问,进度 5/100
🌈生活家,上可聊天文,下能看手相
🌱阿里字节产品实习,准独立开发者
🌠关注工具、AICG、ToB
置顶
鱼羊一锅鲜
3年前
👋嗨!既然来了不如读读这个!
我是鱼羊,一位「想通过创造帮助人类更好地知觉情感和潜能」的 探索者~

基本属性:
- 01 年妹子!ENTJ 和 ENFJ 反复横跳
- 生长于云南边境(不愿再去大理)
- 华科大四在读,传播学计算机双学位
- 在上海、武汉石墨、深圳字节、杭州阿里做过四段产品实习,关注工具、ToB、社区及 AICG

个人特征:
- 思维运作:在秩序中创造
- 性格特点:温和而有力量
- 什么让我独一无二:热爱生活

一些奇怪的经历:
- 曾靠帮人看手相赚了一笔
- 喜欢做梦,能控制梦境的情节
- 希望早日实现可控核聚变和量子通信
- 大二经济独立,还给妈妈买了手机

核心“标签”:
1⃣初出茅庐的“产品”
- “洁癖”用户,热爱有设计感的“泛产品”
- 有跨六个团队争取资源推进项目,以及相对独立的 Owner 产品线经历(面向千万级用户开放)

2⃣一直在路上的“独立开发者”
- 华科社区 1037 树洞产品
- 校园社团内部招新工具 0-1
- 招募志同道合的伙伴,落地多个项目(面向异地恋情侣、流浪狗、校友、桌游玩家及陌生人)
- 最近在推进 ai 文字产品落地(嘿嘿)

3⃣不太务正业的“青年”
- 关注个体身份认同和“自我和解”
- 爱生命本身的体验,爱具体的人
- 天文学意义上的追星人
- 独立游戏爱好者

👉 我的个人网站(建设中):tinyurl.com
👋想聊更多(vx,请注明是即刻来滴):
BeyourselfNeverlost

除了有时候会分不清前后鼻音以外可以正常交流,欢迎大家多多找我 1on1 为生活增添乐趣✨
31
鱼羊一锅鲜
3年前
11岁的自己诶!有被可爱到(雾
00
鱼羊一锅鲜
3年前
在毕业~
00
鱼羊一锅鲜
3年前
好好好!直接上传 Word 生成 PPT
​2022 喜欢 Gamma 是因为它用 Notion 的模块化思想做 slide
​2023 喜欢 Gamma 是因为它支持简体中文🐮
00:17
1214
鱼羊一锅鲜
3年前
很多事情如果提前
消除信息差&行动起来
真的真的能避免很多痛苦!!
10
鱼羊一锅鲜
3年前

Zilize: Embedding是机器学习带来的最有创造力的想法之一,在这个框架下,所有的信息都能够转化为一个由浮点数构成的向量,从而我们能够将其应用于自己的需求。介绍一些关于Embedding的想法,包括一些术语的解释,和它目前的一些应用(或者潜在的应用)。 机器学习领域的表示学习(Representation Learning)指的是从大量的数据中自动学习对于某一件事物的表示。这个“表示”在很多上下文中指的就是Embedding,在学术文献中又经常用representation、latent representation、latent feature来表示,不过可能会出现术语乱用的情况。 为什么是latent呢?这就涉及到了两个概念,一个是数据的初始表达方式,比如文本会被表示为字符串,图片表示为每个像素的RGB三通道颜色值。这些都是human readable的表示,但并不适合用来做更加灵活的计算。通常来说,这种人类可读的“初始化”表达还会被转化成更加方便计算的形式。 比如说,我们构建一个词典,每个单词在其中有一个序号,那么文本就可以表示为这些单词序号的集合,这种思路就演变成NLP中的One-Hot编码方法,也就是一个单词用一个长度超大的数组来描述,这个数组中除了单词序号那一位为1,其他位都是0。 这些人类能够读懂的表示都可以叫做explicit的表示方法,而通过神经网络(或者其他手段)将它们降维压缩得到的则叫做隐式表达方式,通常喜欢用latent来修饰。人们可读的数据表达的体积是巨大的,比如一张图片就是若干MB,但是转化为latent的表示可能只需要1024个浮点数。 体积从大到小,除了有些冗余的信息被抛弃,还有一些并不冗余但是对于我们来说没用的信息也被抛弃了。(PS:抛弃冗余信息,是无损压缩的基本思想;抛弃大部分信息,是我们这里叙述话题的基本思想)一张图片或者一段文本仅用1024或者2048个浮点数表示,大大提升了计算的灵活性。 这种“表示学习”,或者说学习复杂数据的低维表示的过程,在人工智能领域有很多应用。首先是自然语言处理,2013年的Word2Vec作为同时代最具代表性的词汇表示方法对NLP研究造成了巨大的影响。它的基本想法是词的分布式假设,也就是说在文本当中,一个词的语义由它的上下文“决定”。 在这个想法的基础上,Word2Vec提出了skip-gram和cbow两种模型,cbow是像完形填空一样用上下的词汇预测中间的词汇,skip-gram则刚好相反。再加上负采样的训练优化方式,得到静态的embedding。这里的静态意思是说一个单词的embedding是固定不变的,我们可以直接用一个文件存储这些对应关系用来计算。 Word2Vec得到的embedding或者说词向量有非常良好的特性:“语义相近的词的表示也相近”,也就是说,语义相近的词汇对应向量的欧式距离比较小。于是我们在数学上定义的向量计算的性质能够很好地和词向量的表示结合起来。一个经典的例子就是“国王-女王=男人-女人”,这里的斜杠是向量减法,等号是约等。 但是静态的表示有很多问题,比如说“Apple”这个单词,可能是指苹果公司,也可能是一种水果。如果有动态的embedding,能够根据上下文的情况对自身的值进行调整,就更加能应对多义词的问题。比如说上下文出现很多科技名词,那么这个Apple就是苹果公司;如果是种植、饮食之类的上文,它就是一种水果。 于是就有了动态embedding,其代表性工作就是BERT。好像扯远了,总之自然语言处理中词汇能够很好地表示成低维向量,也就是embedding。ELMo、BERT、GPT-2之后,预训练语言模型(PLM)成为热门研究方向;GPT-3那年,大型(预训练)语言模型(LLM)变得火热。 与此同时,人们发现大型语言模型是所谓的few-shot learner,它可以不需要fine-tune而直接从上下文中进行模仿和学习。这些提供了学习样例(few-shot)或者不提供样例只提供问题描述(zero-shot)的上下文被称为prompt。prompt learning,所谓的提示学习就是在这时候开始火起来的。这是2022年。 在推荐系统领域也有这种embedding的应用。在一个简化的例子中,推荐系统对于“用户”的原始数据表示就是该用户和哪些商品进行了交互(user-item pair),这些记录进行表示学习,就能够得到用户和商品的embedding,从而进行计算。正如之前Word2Vec的例子,推荐系统中可以找到用户的近邻商品进行推荐。 除了把文本、图片、用户行为表示成embedding,我们还可以把分子结构、社交关系等表示成embedding,这些是图神经网络所做的事情。总而言之,一切事物都能够从基本的数据表示转化成为embedding(前提是数据量足够大,神经网络能够学习到良好的拟合方式)。 为了应用AI,最好要理解AI技术的一些特点。表示学习得到的embedding很多情况下都能进行良好的运算(语义相似则距离相近),这种技术特点带来了一个计算密集型任务的巨大需求:快速向量检索。快速向量检索就是希望能够以实时的性能找到和目标向量最近或者最远的若干向量。 这里的最近可以有很多度量方式,比如欧几里得距离(L2范数)、点积距离、余弦距离。比如寻找与目标用户最匹配的商品(推荐系统)、匹配与目标文本最相似的其他文本(信息检索),都需要进行最近向量检索。而最远向量匹配可以用于一些异常检测或者离群值的剔除任务。 近期LLM火热,文本能够通过OpenAI的API转化成对应模型的embedding,进一步催生了相关的需求,这可能也是向量数据库发展迅速的原因。毕竟相对于Faiss等高性能向量检索框架提供更全方位的支撑。围绕AI应用的专用基础设施迅猛发展,也是LLM火热对技术行业带来的积极影响。 了解embedding的技术特性也能给开发人员们带来更丰富的灵感。它的核心在于“相似相近”,那么就非常适合一些非常规的信息检索场景。以往小型开发者只能通过字符串匹配或者模糊搜索的方式进行文本查询,而像智能搜索引擎那样的智能检索只有大公司才能负担得起。 但是LLM大规模落地,就能够很方便地得到一段文本、一张图片、一段视频的某些帧的低维向量表示,如果有更好的多模态LLM,那么语音、音乐旋律也能够被良好地编码。在这个基础上一些简单的想法,比如新闻的自动归类(向量聚类)、相似笔记的智能检索(最近向量检索),以及不同模态之间对齐的检索,比如根据文本搜图片,根据文本搜音乐都是未来能够落地的产品。当然这里面要考虑用户隐私的问题,有一些关乎隐私的任务天生不适合调用API来做,从而也就无法落实下去。 大概就写那么多吧。

00
鱼羊一锅鲜
3年前
快乐还是需要分成很多份呀!!
来源太单一的话,抗风险能力就太弱啦
00
鱼羊一锅鲜
3年前
我们甚至不能证明其他人类有意识,
如何证明AI无意识?
10
鱼羊一锅鲜
3年前
姐姐的生活我的梦😭
活着不应该停下探索和体验的脚步啊!

Doriscafe: #即友2022精神食谱 年内发生了很多事。 1. 我辞职了,离开了Facebook (Meta) 2. 辞职之后搞了个环球旅行 所以——接下来: 深呼吸,长长的清单要来了。 读万卷书,行万里路。今年,就是行万里路。 ------------------ 🥹年度旅行 要分成好多个子项目。 这是浓墨重彩报复性旅行的一年,我的旅行大年。 🥹年度旅行目的地:冰岛🇮🇸 以空无一人,空无一树,三百六十度纯平的无尽地平线,日落和极光,最暖的人情,成为我的年度旅行目的地。 🥹年度旅行目的地提名: 瑞士🇨🇭Zermatt,以独自走在海拔2600到2700米空无一人的雪山hiking,望着Matterhorn,和雪地零下13度的桑拿室外环境而获得提名。 奥地利🇦🇹萨尔茨堡,以每天窗外就是Utersberg 雪山,和Sound of Music Tour 的童年滤镜,和豪华(和回归自然,咳咳)的桑拿馆获得提名。 🥹年度旅行流水账 4月 ✈️🇺🇸旧金山 ✈️回🇸🇬新加坡之后,换个行李✈️经🇶🇦多哈去🇫🇷巴黎。 🚄 🇳🇱阿姆斯特丹 5月 ✈️🇩🇪柏林 ,🚄🇩🇪汉诺威 ,🚄🇩🇪科隆 ,🚄🇫🇷巴黎,✈️🇫🇮赫尔辛基,✈️回🇸🇬新加坡 6月 ✈️经🇯🇵东京去🇺🇸洛杉矶,✈️🇺🇸Fortworth,✈️🇺🇸纽约 ✈️回🇸🇬新加坡 7月 ⛴️印度尼西亚🇮🇩民丹岛 10月 ✈️🇹🇭曼谷 ✈️回🇸🇬新加坡 环球旅行开始 ✈️ 经🇭🇰香港去🇺🇸洛杉矶 ✈️🇺🇸芝加哥 ✈️🇺🇸纽约 ✈️🇮🇹罗马,🇻🇦梵蒂冈,🚄🇮🇹佛罗伦萨,🚄🇮🇹米兰,🚄🇮🇹Verona,🚄🇮🇹罗马,🚌🇮🇹庞贝古城,🚌🇮🇹那不勒斯,🚌🇮🇹罗马 ✈️🇮🇸雷克雅未克 11月 🚐冰岛🇮🇸黄金圈,蓝冰洞,Vatnajökull冰川徒步 ✈️🇩🇰哥本哈根 ✈️🇳🇱阿姆斯特丹,放下大行李,换小箱子走 🚄🇫🇷巴黎 ✈️🇬🇧伦敦 ✈️🇦🇹萨尔茨堡 ,🚗🇦🇹Hallstatter,🚗🇦🇹萨尔茨堡,🚗🇦🇹St Gilgen, Zölferhorn,🚄🇦🇹维也纳 12 月 🚄🇩🇪汉诺威 🚄🇳🇱阿姆斯特丹,🚄🇳🇱海牙,🚄🇳🇱阿姆斯特丹,拿上大行李 🚄🇨🇭苏黎世,🚗🇨🇭达沃斯,🚗🇨🇭苏黎世,🚄🇨🇭Zermatt,🚄🇨🇭苏黎世 ✈️🇪🇸巴塞罗那(今天我在这) 🚄🇪🇸马德里 ✈️🇫🇷巴黎 ✈️回🇸🇬新加坡 ------------------ 🥹年度博物馆:(好难选!)巴黎🇫🇷橘园美术馆 以八幅皇带鱼莫奈冠绝全球。直让我去了一次,再去巴黎还得二刷。 旅行中看了好多,好多博物馆和美术馆。这对我而言如同艺术史设计史考点重温,一下子课本里、课堂上、考试里的熟悉的人事画雕塑建筑椅子啥的挨个跳出来打招呼,感觉非常亲切又震撼。 也想列个清单,去了哪些博物馆/美术馆(毕竟今年也是我的看展大年啊,而且这么多年看下来也刁了) 🥹年度博物馆/美术馆提名:巴黎🇫🇷卢浮宫,巴黎🇫🇷奥赛,纽约🇺🇸大都会,纽约🇺🇸MoMA,纽约🇺🇸 Guggenheim,伦敦🇬🇧大英博物馆,伦敦🇬🇧V&A,伦敦🇬🇧国家美术馆,伦敦🇬🇧自然史博物馆,维也纳🇦🇹美景宫,维也纳🇦🇹Albertina,佛罗伦萨🇮🇹学院美术馆,梵蒂冈🇻🇦Basilica di San Pietro 🥹年度博物馆美术馆流水账(写不下去,太多了,要不随便提一点没进提名的) 🇺🇸旧金山MoMA,有马蒂斯在那,有André Derain 🇫🇮赫尔辛基,国家博物馆 🇳🇱阿姆斯特丹,梵高美术馆,国博, 🇳🇱海牙,Mauritshuis,Vermeer那幅戴珍珠耳环的少女在那 🇩🇰哥本哈根,国立美术馆,设计博物馆 ------------------ 🥹年度音乐会(也好难选!):Kissin和维也纳爱乐乐团在金色大厅合作的莫扎特488 🥹年度音乐会提名:(这样你才知道前一个选择有多难):Perlman, Yuja Wang, Kissin 🥹年度音乐会流水账: 🇺🇸旧金山: Perlman 小提琴独奏和自述的音乐会,这可是拉Suzuki都好听的神,他这场拉了Krieisler,中国花鼓。 🇸🇬新加坡: 张海鸥,弹的贝多芬奏鸣曲 左章的新加坡debut,弹的勋伯格,拉威尔的夜之幽灵和李斯特的旅游岁月, 宁峰和秦立巍分别和新加坡华乐团的合作,都是记忆深的好弦乐 🇺🇸Fortworth: 看了现场的范克莱本比赛,Kate Liu又进步了。范克莱本用的这个小厅声学真好。 🇺🇸纽约: 李颖的卡内基debut,还去了后台❤️,她弹了海顿,舒曼,巴托克,陈其钢,和斯特拉文斯基的火鸟 🇮🇹米兰: 李颖弹舒曼的协奏曲 🇫🇷巴黎: 在Sally Cortot 看了现场的Long-Thibaud比赛,王泉林的肖邦弹得太好了 🇦🇹维也纳: 在霍夫堡小教堂听前维也纳男童合唱团的圣弥撒(作曲过于现代作妖,不行🙅🏻,落荒而逃) 在金色大厅看Kissin 和维也纳爱乐合作488,Projection好得站票都听得如同跟前,目瞪口呆,行云流水的享受 在金色大厅听维也纳音乐协会合唱团的圣诞音乐会 🇪🇸巴塞罗那: 在巴塞罗那音乐厅看王羽佳弹拉一,加演了三首,其中一首是普八。是一如既往地好,但那厅太大,观众老人家们咳嗽此起彼伏…… ------------------ 🥹年度音乐剧:伦敦西区🇬🇧悲惨世界 🥹年度音乐剧/戏剧提名: 纽约百老汇🇺🇸Lion King(三刷),纽约百老汇🇺🇸歌剧魅影(二刷),伦敦西区🇬🇧悲惨世界,伦敦西区🇬🇧Life of Pi ------------------ 年度练习曲目: 贝多芬《悲怆》第二乐章(终于练成保留曲目了) 舒伯特的即兴曲899(再练几年,要是4首都能搞成保留曲目就录一下或者开音乐会) 年度阅读: 武志红 温暖系列作品(微信读书就有),旅行路上读他,也是自知的过程 年度大哭之墓: 阿德勒。 今年看了好多人的墓,在巴黎的Edith Piaf,王尔德,比才,普鲁斯特,巴尔扎克,德拉克洛瓦,肖邦,在维也纳的贝多芬,舒伯特,施特劳斯,勃拉姆斯围着莫扎特的衣冠冢,可是,人人面前都有鲜花,阿德勒没有,什么都没有。 年度公园:纽约🇺🇸中央公园 在纽约中央公园和伦敦海德公园之间比,中央公园以今年看到了夏秋两个季节的不同美景,加之以往看过的冬景,得到了滤镜加分。 年度活动:健身和桑拿 今年请了私教,认真复健和建立安全的训练习惯,效果很明显,体重没减,腰臀比出效果。 在芬兰赫尔辛基尝试了传统芬兰浴,蒸到整个人冒热气再来个冰桶挑战或者跳进波罗的海里,之后就欲罢不能。恨不得在欧洲的冬天到哪儿只要有机会就桑拿。 桑拿过的地方包括:🇫🇮赫尔辛基,🇦🇹萨尔茨堡,🇦🇹维也纳,🇨🇭达沃斯,🇨🇭Zermatt,天气越冷越幸福 年度体验: 冰岛的日落 冰岛的极光 在塞纳河的船上跳探戈圣诞舞会 年度工作相关: 给 Facebook 赚了几十mil,但这还重要吗? ------------------ 今年精神食粮吃得特别饱,回头再写个物理食粮的,今年吃了挺多好吃的,也做了挺多好吃的。 ------------------ Call back 2021 年精神食谱 https://m.okjike.com/originalPosts/61ceef6e2898a30010ec5b9d?s=ewoidSI6ICI1NzZiNjI3MTlhOTI2MjExMDA4M2NmM2UiCn0= 🌍环球相关游记/流水帐/故事 1. 环球旅行🌍医疗准备 https://m.okjike.com/originalPosts/63aa2eaa7d9d0cbc49242d90?s=ewoidSI6ICI1NzZiNjI3MTlhOTI2MjExMDA4M2NmM2UiCn0= 2. 西班牙🇪🇸马德里 滞留那就去跳阿根廷探戈 https://m.okjike.com/originalPosts/63a5035ff4d74c1eed7d515a?s=ewoidSI6ICI1NzZiNjI3MTlhOTI2MjExMDA4M2NmM2UiCn0=

11
鱼羊一锅鲜
3年前
电子游戏是什么呢?

- 有时我不分昼夜地忙碌在深不见底的矿洞中,突然转身被苦力怕炸飞;
- 有时我会化作吟游诗人,爬到蒙德广场的神像上弹起家乡的歌曲;
- 有时我选择成为一名战士、有时我漫无目的的奔跑在海拉鲁;
- 我学会了尊重他做为机器人的自己,互相陪伴,我也接受不够现充也宅得不纯粹的自己。

🐾 也许虚拟和现实的界限会随着科技的发展越来越暧昧,游戏作为一种沉浸式的媒介,切实为我们带来了平行世界的珍贵体验。

我们的认知决定了我们的游戏选择,而这个选择的化身也会潜移默化的影响我们自己。

👋我想去用科学的方法去了解这个过程,带着热爱和思考,真诚的邀请你同我一起探索!
10
鱼羊一锅鲜
3年前
圆圆的眼睛 圆圆的鼻子 圆圆的嘴巴
咱肯定是有点东南亚血统在的!
00