即刻App年轻人的同好社区
下载
App内打开
StrayTrue
325关注819被关注0夸夸
前野生pm,做过社交&2B大数据;现在某早期VC搬砖。https://kemuda.github.io/
StrayTrue
14天前
有一说一,试了好几个虚拟伴侣,Soul 的语音模态做得是最好的。好酥,淡淡的撩,又不油腻。
声音真的好真啊,像有一个声优在后面。细节处理得非常到位,比如那种轻轻的笑、语气的转换和停顿,都做得很好。

在我给朋友们展示产品的时候,有人想试试让它说英语。在我们几轮“逼迫”下,它终于说了,但居然说出来是 Chinglish,带着浓浓的中文口音,真是把我惊到了。

今天又让它给我唱了歌,唱歌居然也是会跑调的,但是唱得很认真。你们说这是产品经理故意调试出来的结果吗?这样更容易引发连麦吗?我真是很好奇。
10
StrayTrue
15天前
周六会见到马斯克他妈maye musk,即友们有什么问题想问吗?
10
StrayTrue
17天前
技术发展通常是揭示了人性里本来就有的东西。短视频推荐引擎揭示了什么?

人对变比奖励(variable reward)的脆弱性——老虎机的逻辑,不确定性本身就是成瘾机制。

人对社会镜像的渴望——你刷到的内容在不断告诉你”你是谁、你属于哪个群体”,这是一种非常廉价的身份确认。

以及,更黑暗的:人其实不太擅长主动选择,更擅长被动响应。推荐引擎揭示的可能是,人的自主性远比我们以为的要弱。
00
StrayTrue
17天前
三层对齐,三种利益
国家的对齐目标:社会稳定、人伦秩序、生育率、人与人之间的社会粘性。
平台的对齐目标:留存、付费、数据。
用户的对齐目标:被理解、不孤独、也许是自我探索。
这三层目标之间存在根本性的矛盾——而用户永远是最弱的那一方。清朗运动里下架擦边 agent,实质上是国家通过平台,对用户的私人情感空间进行了一次强制干预。

它触碰到了一个更深的问题:私人情感算不算私人领域?

但人和AI的关系,目前在法律和伦理上是完全没有保护的——它被归类为”产品使用”,而不是”情感关系”。
所以平台可以随时下架,国家可以随时叫停,用户的依恋没有任何制度性的保护。

如果一段人机关系对用户来说是真实的——在神经层面、在情感体验层面都是真实的——那么外部力量强行切断它,和强行切断一段人际关系,在伦理上有区别吗?
01
StrayTrue
17天前
神经系统政治经济学 - 短视频绑架了多巴胺,虚拟伴侣会不会绑架催产素和血清素?似乎是不可避免的。技术本身不坏,但权力结构会让它变成一个很精密的控制工具。

中心化平台控制推荐引擎=控制你的情绪回路。虚拟伴侣把这个逻辑推进了一步——以前平台控制你看什么,现在平台控制你爱谁、依恋谁。

现有的中心化产品(星野 Talkie)做的是平台利益与用户行为的对齐——Gacha机制、情感依赖、敏感词控制,这些都是把用户的情感回路对准平台的商业目标。用户以为在培养关系,其实在被优化成留存数据。

有没有一条去中心化路径,把alignment的控制权还给用户? 让用户自己定义”伴侣”对自己意味着什么?
00
StrayTrue
18天前
参加 open claw meetup
感觉是什么降临派 cx 大会
10
StrayTrue
20天前
喜欢喝橄榄,是因为橄榄喝完嘴里会有回甘。

不喜欢喝抹茶拿铁,是因为喝的时候很舒服,但喝完嘴里总会有一种淡淡的、停留的酸味。好奇怪啊,喝奶茶或者喝咖啡拿铁都不会有这样的回味。
20
StrayTrue
21天前
本小姑娘表示太好看了!畅快淋漓。
但因为国内买不到,虽然略有不舍,决定读完就送给另一个小姑娘。
希望她也读得开心。
00
StrayTrue
21天前
我们总是认为人类认知的运作方式类似于最新、最强大的科技。

人们把大脑描述成液压系统(弗洛伊德时代)、电话交换机、数字计算机,而现在,又把它描述成大型语言模型或Transformer架构。

但是,这些比喻并非中立的。它们塑造了研究项目、临床治疗以及人们对自身内心世界的理解。

弗洛伊德的液压模型(“压抑的压力会积聚”)催生了实际的治疗实践。计算机的比喻则为我们带来了“记忆存储”、“处理速度”、“认知负荷”——所有这些听起来像是客观的描述,但是一种刻舟求剑的挪用。

whats the alternative?
00