即刻App年轻人的同好社区
下载
App内打开
歸藏
565关注25k被关注50夸夸
产品设计师、模型设计师、 不会代码的独立开发者。
关注人工智能、LLM 、 Stable Diffusion 和设计。
歸藏
2天前
Figma 和 Claude Code 现在终于能双向交互了!

Figma MCP 的最新版本,可以把你用 Claude Code 生成的网页直接转成 Figma 的格式

可以把任意网页的内容转换成 Figma 设计稿,然后发送到剪贴板,直接粘贴到 Figma 编辑器中就可以。

我在 vibe coding 的时候,经常需要一次性提交多个交互相关的改动,这时候很难让 Claude Code 理解。

但由于我是 vibe coding,所以没有设计稿,这就很难办。

现在我们可以每次让 Claude Code 写完代码以后,备份一份设计稿。

我们就可以在设计稿上进行修改,然后再告诉他,这样表达的意图会清晰很多。

运行这个命令安装 Figma MCP :
claude mcp add --transport http figma-remote-mcp mcp.figma.com
00:32
625
歸藏
2天前
Opsu 4.6 之后 Sonnet 4.6 终于上线了

Opus 4.6 一样所有领域都有提升,而且很多测评都接近 Opus 4.6 的水平。

同样有 100 万上下文的测试版本,这个应该用得起了。

定价依然与 Sonnet 4.5 保持一致,100M 3/15 美元。

这次他们强调了 Sonnet 4.6 computer use 水平提升了非常多。

Sonnet 4.6 已经上线了 Anthropic 的所有平台

API 平台上 Sonnet 4.6 支持自适应思维和扩展思维,加入了上下文压缩测试版本,类似 Claude Code 那种。

Claude 的网页搜索和获取工具可以自动编写执行代码,过滤和处理搜索结果,仅在上下文中保留相关内容
03
歸藏
2天前
CodePilot 上线了一个对小白非常友好的功能!

如果你还没有安装 Claude Code 的话,它会帮你一键安装。

搭配设置中的 API 快速设置,你可以快速配置任何模型的 Coding Plan。

与此同时,Windows 的大部分 bug 我已修复。

过年想玩玩Claude code的,可以试试codepilot 这个带ui的客户端了

详情:github.com
26
歸藏
4天前
Sam 官宣 open claw 的作者 Peter Steinberger 会加入 Open AI

open claw 将继续以开源的方式运行

期待一下 peter OpenAI 能搞出一个啥样的产品来
32
歸藏
4天前
藏师傅的 Seedance 2.0 测评和玩法来了!

​绚丽的打斗和情节可能最近大家也看多了。

藏师傅整点能变现的,能在工作中用起来的玩法,全文在这里:mp.weixin.qq.com

总结一下 13 个行业实战案例👇

======

Seedance 2.0 的三个核心能力

▸ 全能参考:支持 9 张图片+3 段视频+3 段音频+文字的任意组合输入

▸ 有智能:具备导演思维,会自己编排分镜、选镜头语言、控制叙事节奏

▸ 有知识:自带世界知识,知道兰州拉面怎么做、无印良品是什么调性、高位下拉练的是背阔肌

这三个能力意味着什么?你不需要在提示词里写分镜脚本,不需要详细描述每个动作,只需要告诉它你的意图就行。

======

案例 1:兰州拉面广告
提示词就一句话"生产一个精美高级的兰州拉面广告,注意分镜编排"。

我没写任何关于揉面、拉面、浇汤的描述,没说用慢动作拍面条,模型自己全部安排好了。它甚至选择了升格摄影来拍捞面的过程。

这就是"有知识"的体现——它知道拉面怎么做,自己安排了完整流程。

案例 2:无印良品品牌宣传片
提示词"帮我生成一个讲述无印良品这个品牌的宣传片",不提供任何品牌资料。

它自己选了极简风格画面(木质纹理特写、椅子设计、家居空间),自己写了品牌哲学口播词:"在品牌之前,是物品;在设计之前,是需求。去除多余,回归本质。"配乐选了极简钢琴。

模型完全理解了 MUJI 的品牌 DNA。以后甲方让你出 Demo 再也不怕了,改几个字几分钟一条。

案例 3:健身教学视频
提示词"帮我生成一个高位下拉健身动作的讲解视频"。

它准确识别了目标肌群(背阔肌),示范了正确姿势,还主动提醒常见错误("不要用身体的惯性借力"),自己安排了正面、背部特写、正面的多次镜头切换。

我问了我的教练,他说这个演示相当可以了。

这三个案例的提示词加起来不超过 30 个字。跟 Seedance 2.0 写提示词的核心:写意图,不写细节。

需要加分镜的话就只写"注意分镜编排",如果你不是影视行业专业人员,交给它肯定比自己写好。

======

案例 4:UI 设计稿变产品宣传片
前几天发的微软"油腻"风格产品 UI 宣传视频在推上、抖音、小红书都爆了。

核心思路:先用图像模型把朴素的 UI 截图处理成微软 Fluent 风格的 3D 质感图,再丢给 Seedance 2.0 生成宣传视频。

以前这种需要大量人力和算力 3D 渲染才能做,现在一键搞定。

而且这种风格完全不需要视频参考,文字描述就够了。"Fluent Design 亚克力玻璃质感"或"Apple Don't Blink 风格快闪",它都能理解。

涉及到产品发布、App Store 预览视频,设计稿截图丢进去几分钟出片,完全不用等动效排期,不是设计师都能干。

======

案例 5:服装换装展示
给它一张人脸照片和三件衣服的照片,让它给我一个上身效果展示。

它直接将三套服装依次展示,自动安排了中景全身、胸口标志特写、拉链特写、正面展示的镜头切换,配了动感电子音乐,剪辑卡点非常精准。

衣服的版型细节、材质细节和装饰(袖子部分)Seedance 2.0 还原的已经相当到位了。

每个 SKU 都拍得起视频了,不再只有主推款有。

======

案例 6:户型图变样板间参观视频
只用一张户型图,生成了一段沉浸式的样板间参观视频。

从玄关进入然后是 U 型厨房、干湿分离卫生间、客餐厅、主卧、次卧、观景阳台,正常的参观顺序。快速转场+多角度切换,配了温馨钢琴 BGM。

空间布局、各个区域和房间的相对位置都跟户型图是一致的。

核心思路:先用图像模型根据户型图生成九宫格分镜图,再把户型图和分镜图一起发给 Seedance 2.0。

更牛的是:Seedance 2.0 的参考真的很智能,原来分镜图上的文字标注都没有出现在最终视频中,它知道那些是参考信息不是内容。

户型图直接变沉浸式参观视频,客户不到现场就能"走一遍"样板间。

======

案例 7:照片变日常 Vlog
喜欢别人的 Vlog 剪辑风格,但自己只有照片没有视频?

随便找几张相册照片+一段参考 Vlog 视频,一起传上去。

它完美学习了参考 Vlog 的剪辑风格,把照片变成了完整的都市生活蒙太奇剪辑 Vlog。每个镜头配了 DAWN/RIDE/CITY 等 3D 文字弹出特效,硬切卡点配合吉他 BGM 节奏同步。

不过说实话,色彩表现、环境音和小动效这些对现在的 Seedance 2.0 还是有点吃力,希望下个版本会变好。

======

案例 8:视频播客
给 Seedance 2.0 一张我的照片和一段克隆过我声音的音频。

它给了一段非常真实而且有感情的视频播客片段。

更神奇的是:我原来生成的音频情绪有点平,我让它表现得激动一些,它居然真的办到了。说明它有修改和调整素材的能力。

图像保证人像一致性,音频保证声音一致性,我们想做多长都可以,还可以用 Agent 自动化。

现在对自媒体来说,不用出镜、不用剪辑。一段音频+一张形象图,就能出有镜头变化的视频播客。日更不再是体力活。

======

案例 9:纯音频生成爱情 MV
给它一段纯音频,让它生成符合氛围的故事情节视频。

提示词"为音频生成符合氛围的有点遗憾的爱情电影剧情,需要有情节,保持音频作为视频背景音乐,转场间画面风格及音乐节奏进行卡点"。

凭一段音乐,它自行创作了一个完整的火车站离别故事。里面用上了大光圈浅景深、特写、窗框转场等电影手法,画面节奏跟音乐还有卡点。

给一首歌,模型自己编故事、选镜头、卡节奏。

小技巧:如果不允许单独上传音频的话你可以上传一张透明或者纯白的 png 图片就行。

======

案例 10:真人动作迁移
这个是影视行业最该关注的能力。

我找了个家里不用的拖把,先当魔法扫帚,再当长枪,录了两段视频。

Seedance 2.0 成功保持了人物和动作的高度一致性,自动添加了巨龙、城堡爆炸、怪物等特效,配了魔幻管弦乐和音效。

有个细节值得说:骑扫帚那个一开始怎么都不行,因为飞行时人物相对摄影机是静止的、世界在运动。

我跟 AI 讨论了一下影视行业的专业术语,它给了我"CAMERA MOUNTED ON"和"LOCKED-ON SHOT"这两个关键词,加上以后果然好了。

以后类似的玩法搞不定也可以参考我的做法。

以前拍特效:绿幕→动捕→CG→合成,几十人几个月。现在手机拍一段动作参考,几分钟出预览。

======

案例 11:小说原文直接生成动画
这个最可怕。

直接把小说原文粘贴进去,一个字不改,Seedance 2.0 精准地生成了对应的视频。

加上几秒《雾山五行》动画做风格参考,故事情节和画面内容完美遵循小说文案,打斗风格、画面风格、人物笔触都非常好地参考了雾山五行,尤其是周围环境的水墨感觉太棒了。

而且 Seedance 2.0 支持视频延长,理论上你可以一直续拍。

只要提示词跟它这么说就行:"将视频延长 15s,具体信息为:XXXX",要求部分继续将后续的小说文本发给它就行。

画风、角色、音色全部保持一致。

这意味着什么?直接吃小说原文,IP 改编的概念视频几分钟出来,不用先写分镜脚本。理论上后面能做到短剧或者漫剧视频跟小说文本同步更新。

======

从"手动玩"到"自动化跑":Agent 才是终局

前面的案例都是我在网页端手动操作的。

但说实话,这个模型真正让我兴奋的地方不是"我能用它做什么",而是"AI 能用它做什么"。

一个有世界知识、能理解叙事、能吃生文本的视频模型,当它被 API 调用、被 Agent 编排的时候,会发生什么?

回顾一下我们前面的流程你就会发现,我的很多案例本身就是一套行业 Agent 方案。

产品宣传视频 Agent:产品发布后→Agent 读取产品更新内容→自动截图→调用图像模型和 Seedance 2.0 生成宣发视频。

自动化口播视频 Agent:Agent 自动收集热点信息→整理为文案→转换为口播音频→生成口播场景图→调用 Seedance 2.0 生成多段视频→Agent 拼接为长视频。

电商、家装甚至小说自动转漫剧其实都可以变为 Agent,内容生产能力和质量将会大幅提升。

即梦网页端适合个人创作者体验出活。但如果你是想做视频自动化的创业者、想给业务加上视频能力的开发者、想批量出内容的 MCN/电商团队,你需要 API。

Seedance 2.0 的 API 会在春节后上线火山引擎,支持全模态输入,可直接嵌入工作流和 Agent 管线。前面所有能力,全部可以程序化调用。

感兴趣可以去火山引擎体验中心体验。
02:48
621
歸藏
6天前
年前最后一天了,准备放假。

顺便感谢一下大家的新年礼盒,祝 2026 年中国 AI 越来越好!

谢谢各位:Rico 有三猫、观猹、WaytoAGI、小红书、通义、阿里云、腾讯、百度、字节、Trae、即梦、360、可灵、快手研发线、VAST、爱诗科技、智谱、知乎、电子工业出版社
21
歸藏
6天前
说实话,即刻上有些人的小龙虾过于讨厌了,怎么老刷屏呢?评论上。
112
歸藏
7天前
Sam 说的今晚专门给 Pro 会员发布的东西原来是:

GPT‑5.3‑Codex‑Spark,这玩意每秒能输出 1000+ token。

是 GPT‑5.3‑Codex 的小型变体,专门针对“实时协作写代码”进行优化。

还做了其他优化:每次往返开销降低约 80%、每 token 开销降低 30%、首 token 时间缩短 50%。

详情:openai.com
00:47
26
歸藏
7天前
谷歌新发布的 Gemini 3 Deep Think 模式确实牛皮

试着让它分析了一下我的 Codepilot 项目,在各个维度和领域都给出了相当深度而且必要的优化建议

比如 Next.js 和进程优化、极限情况下的性能优化以及安全问题、甚至还有交互体验优化
23
歸藏
7天前
谷歌基于 Gemini 3 Deep Think 模式发布了。

各项指标再创新高,尤其是那个 ARC AGI 第二版,比 Gemini 3 Pro 翻了一倍还多。

目前,Ultra 用户可以在 Gemini APP 使用。
12