即刻App年轻人的同好社区
下载
App内打开
吃不胖的阿哲
15关注9被关注0夸夸
资深产品经理💻,数字孪生/AR,
杂学家,独立游戏开发,半个哲学家🤔,有个艺术梦
⚠️接纳AI,我做人类能做的!这不是《失控》的预言
吃不胖的阿哲
2天前
寻求即友们的帮助🙏🙏,我与爱人九年了,但现在遇到了坎儿。
现在,我利用suno 第一次做声音工程,做了首舞曲。
期望即友们能去这首舞曲下留言,“芦荟与宝丁再舞一曲吧!”
这将作为情人节礼物送给我的爱人,重新挽回她

Swaylight Serenade, My Aloea - 宝丁 - 单曲 - 网易云音乐

00
吃不胖的阿哲
2天前
第一次利用ai 做声音工程,送给我爱人

Swaylight Serenade, My Aloea - 宝丁/Suno.ai - 单曲 - 网易云音乐

00
吃不胖的阿哲
8天前
#AI工作流
历史唯物主义思想的我,看到生产力决定生产关系的铁律:DeepSeek的低成本训练与开源生态,正在瓦解闭源模型的壁垒。但马克思也警告“异化”——当工具不再是肢体的延伸,而成为支配思维的主人,我们需要在代码的巴别塔上,重建人的主体性。

把DeepSeek与Winsurf工具当作镜子:从AI助手之争到社会思考 – 郝哲宁的个人站——Karasu Games

03
吃不胖的阿哲
8天前
《理性的边界》最终指向一种新的理性观:真正的智慧不在于征服未知,而在于与未知共舞。这让我想起德尔斐神庙的箴言“认识你自己”——如今或许应改为“认识你的无知”。

在技术崇拜盛行的今日,AI技术值得称赞,DS R1裹挟着技术崇拜以及民族自豪冲锋向前。此书宛如一剂解毒剂。它提醒我:算法的精确与数据的洪流,永远无法替代人类在悖论前的沉思、在不确定中的抉择、在局限处的创造。

就如禅者会心一笑,真理的完整面貌,若无法心心相印,则永远不可言说,但正是这种不可言说,让我的追问成为一条永远探索的不完的道路!
00
吃不胖的阿哲
9天前
我们都是独立的人

AuroraLisky: 读弗洛姆《爱的艺术》 “爱主要不是对某个人的关系,它是一种态度。一种决定一个人对整个世界的性格倾向,而不是对某个对象的关系。” 真正健康的爱,不会让一个人变得面目可憎、精致利己,相反,它会让人对这世间的万物有一种悲悯的感觉。 爱应该有提升人格的作用。 我们常在爱里谈“给予”,给予型人格有四种: 第一种是索取型,认为付出不好,只想要索取 第二种是交易型,要求一对一同等付出 第三种是苦行僧,无限付出但有感动他人的动机 第四种是创作型,付出本身就在获得,这种获得不是对应着外在的“索取”,而是对内自我能力的肯定。 给予看似是利他,但本质上一种自我实现,是对自己能力的不断确定,不怕付出,不把付出当成感动他人,获得回报的举动。 有良性给予的人拥有更稳定的内在,他们的体内就有一套健康的心理循环系统。 爱是一种心理暗示,“我不是一个自顾不暇的弱鸡,我已经足够强大,我是可以去关心另一个生命的强者。” 一个人也只有在自身能量非常充足的时候才会去爱别人。“我没有爱你而变得卑微,而因为主动爱你而让我变得完整,u completed me.” 两个人的爱情应该是共同创造一段和谐美好的关系,彼此奉献、却不需要迁就妥协。 如果我应该始终拥有勇气和自由,那么,他也应该始终拥有。

00
吃不胖的阿哲
15天前
最终的成品

喝鹅何说说: 当AI生成3D遇上具身智能: 一个即将爆发的交汇点 最近在研究做AI、3D和具身智能结合的新东西,看过了市面上大部分AI生成3D相关的技术路线和应用,有了一些有趣的思考。 现在AI生3D的主流路径基本是从文生图/图生图再到3D生成: - 文生图/图生图:先用闭源应用midjourney,或利用comfyui接flux、stable diffusion等开源模型; - 文生3d/图生3d:再利用tripo3d、meshy、腾讯混元3d(混元也有开源模型)等闭源应用,或trellis等开源模型,进行图生3d建模(比直接文生3d的控制性更好一些); - 其他:hyper3d(rodin)特殊些,支持直接3d生3d 但我看到一个小红书博主分享的工作流特别有意思:是针对甲方已经有一张图,要基于这张图做出3d模型的业务场景,博主先用可灵AI图生视频,再手动截取三视图,之后用三视图再生成3d模型。 他特意强调没有选择用这张图直接图生3d,而是中间加了一步三视图,这样得到的3d模型效果更好。(另外,其实如果没有初始的那张图,也可以直接文生三视图,只是这样生成的三视图往往物体一致性也不能保证,三视图的角度也不够精准。) 这位博主的思路给了我一个重要启发。为什么这个路径效果更好?核心原因可能在于视频生成在物体一致性上的优势。 这让我联想到:未来最有希望做好文生3D/图生3D的,会不会是掌握海量视频数据的快手、字节,或者google (youtube)这样的公司? 更进一步思考,随着高斯溅射(Gaussian Splatting)这样的连续3D表示方法出现,从视频直接生成3D表示变得更加可行。我认为未来的技术架构很可能是在生成高质量视频的同时,直接输出3D表示。这种联合学习的方式不仅更高效,而且能够自然地保证视频和3D表示的一致性。 再进一步,这个方向还能搭上两个顺风车:一是视频生成领域在物体一致性上的突破,二是具身智能世界模型的发展带来的物理世界约束。 我最近觉得非常激动的一个点是,我们其实很快会迎来一个多方成熟的交汇点:AI生成视频 + 具身智能 + 世界模型 + 3d打印。 之后会发生什么呢? AI可以生成完整的3d场景,在3d场景中可以生成出新的3d模型,并且这些3d模型和场景彼此遵循真实的物理规律进行交互。更要命的是,这些生成的模型都是可以被以很低的成本3d打印出来的。 写到这里,我不禁深情地把玩起桌上的labubu和skullpanda lol 朋友们,just imagine that. AI generated 3D is more than AI and more than 3D.

00
吃不胖的阿哲
15天前
实践下来,存在很多问题

喝鹅何说说: 当AI生成3D遇上具身智能: 一个即将爆发的交汇点 最近在研究做AI、3D和具身智能结合的新东西,看过了市面上大部分AI生成3D相关的技术路线和应用,有了一些有趣的思考。 现在AI生3D的主流路径基本是从文生图/图生图再到3D生成: - 文生图/图生图:先用闭源应用midjourney,或利用comfyui接flux、stable diffusion等开源模型; - 文生3d/图生3d:再利用tripo3d、meshy、腾讯混元3d(混元也有开源模型)等闭源应用,或trellis等开源模型,进行图生3d建模(比直接文生3d的控制性更好一些); - 其他:hyper3d(rodin)特殊些,支持直接3d生3d 但我看到一个小红书博主分享的工作流特别有意思:是针对甲方已经有一张图,要基于这张图做出3d模型的业务场景,博主先用可灵AI图生视频,再手动截取三视图,之后用三视图再生成3d模型。 他特意强调没有选择用这张图直接图生3d,而是中间加了一步三视图,这样得到的3d模型效果更好。(另外,其实如果没有初始的那张图,也可以直接文生三视图,只是这样生成的三视图往往物体一致性也不能保证,三视图的角度也不够精准。) 这位博主的思路给了我一个重要启发。为什么这个路径效果更好?核心原因可能在于视频生成在物体一致性上的优势。 这让我联想到:未来最有希望做好文生3D/图生3D的,会不会是掌握海量视频数据的快手、字节,或者google (youtube)这样的公司? 更进一步思考,随着高斯溅射(Gaussian Splatting)这样的连续3D表示方法出现,从视频直接生成3D表示变得更加可行。我认为未来的技术架构很可能是在生成高质量视频的同时,直接输出3D表示。这种联合学习的方式不仅更高效,而且能够自然地保证视频和3D表示的一致性。 再进一步,这个方向还能搭上两个顺风车:一是视频生成领域在物体一致性上的突破,二是具身智能世界模型的发展带来的物理世界约束。 我最近觉得非常激动的一个点是,我们其实很快会迎来一个多方成熟的交汇点:AI生成视频 + 具身智能 + 世界模型 + 3d打印。 之后会发生什么呢? AI可以生成完整的3d场景,在3d场景中可以生成出新的3d模型,并且这些3d模型和场景彼此遵循真实的物理规律进行交互。更要命的是,这些生成的模型都是可以被以很低的成本3d打印出来的。 写到这里,我不禁深情地把玩起桌上的labubu和skullpanda lol 朋友们,just imagine that. AI generated 3D is more than AI and more than 3D.

00
吃不胖的阿哲
15天前
不太行,这次
00