即刻App年轻人的同好社区
下载
App内打开
老布鲁的猫
47关注14被关注0夸夸
🤖产品 👩‍💻交互
浏览和想拥有所有美好的事物
老布鲁的猫
10天前
上个月搓了一个重绘细节,修复结构的工作流。 擅长修复MJ生成的图片里,一些奇奇怪怪的细节,含糊不清的结构。(其他 ai 生成图片的这些问题也能修)。
因为效果很好,就发到runninghub上,方便在线使用。没想到有点小🔥,用的人挺多。所以也在即刻发一下,希望能帮助大家解决一些图片问题。
效果对比看图,工作流链接发在评论区。
不会工作流,可以用rh的ai应用,只用上传需要修复的图,其他都不用管。
10
老布鲁的猫
1月前
感冒太难受了,尤其是连着两轮感冒。
第一轮感冒还好,只是不停的流鼻涕比较烦。
好了没两天,第二轮感冒来了。
第二轮感冒,上来就拉肚子+堵鼻子双重攻击。 尤其堵鼻子,让我觉的呼吸好累好累。

就无比难受的时候,出太阳了。作为四川人,爬也要爬出去晒太阳。 结果就是,下午晒的很舒服,晚上头疼加剧。
00
老布鲁的猫
9月前
上个月搞xinference+Dify+Ragflow的部署,那真是一路趟坑,其中Dify的坑尤其多😅。所幸最后跑通了所有流程,反馈结果也不错。

上周去aws参加活动的时候,发现他们也在推Dify。

Dify着力在平台,工具链,可玩性和可扩展性都很强。就是现在的bug有点多🤔。
10
老布鲁的猫
1年前
用Claude 写了一个Comgfyui节点

1
起因,上个月项目需要大量出图,怼着comfyui 不停的换提示词,像是在给电脑打工。
搜了一下自动输入提示词的节点,有,但都是和功能大全的节点包打包在一起的,并且要实现我想要的功能,还得装其他节点包。
项目环境,不想装太多其他用不到的节点。

2
萌生自己搞一个节点的想法。
先尝试了GPT, 调教一天,功能始终有些问题。
再试了一下 Claude,惊喜,Claude自带comfyui的数据集,直接开写,第一次写的和GPT有类似问题,反馈给claude,很快修正了第二版,到第三版时,基础功能已经实现,可以正常使用了。
然后又指挥它,新加一些小功能。
(那个时候claude 还没发布新的3.5模型)

3
在项目上运行顺利,GPT批量出词儿,把词儿一次性塞给comfyui,然后等着收图就行了。每天能省出来3-4个小时。

4
给朋友们试了试,反馈还不错,所以后来发在github上,让claude 给写了英文版的说明文档,写的有点啰嗦,但是非常清晰。
节点地址:github.com
安装很简单,下载后解压放到custom_nodes下即可。
大家用了的话可以给一些反馈,日后,应该还会给节点更新一些新功能。
66
老布鲁的猫
2年前
前几周,我 2018 的MBP 突然无法充电,插着电,电池的电量也哗哗的往下掉。第一反应是用了近6年的本,电池出问题了。

开始搜索MBP 电池充不进电怎么办?

按照搜索结果,SMC重置,硬件自建都操作了一遍,问题没有解决,电池电量越来越少,掉电速度也不正常,心里开始慌了。

(写了一篇流水账,直接贴上来,有点长,就做成截图)

简要版: 是type-c接口问题,电池是好的。
最终还是重置smc解决的。
老版的重置smc操作不容易成功,得先确认是否是T2芯片,然后死命按下,数足秒数。
00
老布鲁的猫
2年前
还是喜欢旧款的MBP 锲形设计,除了视觉上显的更薄,平放在桌子上,像浅浅的悬浮在桌子上,这种悬浮的视觉表现隐隐的有着“未来科技”感。希望下一代MBP能改回锲形设计。
00
老布鲁的猫
2年前
OpenAI再一次放大招了

歸藏: Sora 详细的技术报告发布了,相关从业者可能都需要看看。 里面有 Open AI的训练思路以及 Sora 详细的技术特性,我从里面找了一些要点,详细的可以去看完整内容。 简单来说 Sora 的训练量足够大也产生了类似涌现的能力。 技术特点: 三维空间的连贯性:Sora可以生成带有动态相机运动的视频。随着相机移动和旋转,人物和场景元素在三维空间中保持连贯的运动。 模拟数字世界:Sora还能模拟人工过程,如视频游戏。Sora能够同时控制Minecraft中的玩家,并高保真地渲染游戏世界及其动态。通过提及“Minecraft”的提示,可以零样本地激发Sora的这些能力 长期连续性和物体持久性:对视频生成系统来说,Sora通常能够有效地模拟短期和长期的依赖关系。同样,它能在一个样本中生成同一角色的多个镜头,确保其在整个视频中的外观一致。 与世界互动:Sora有时能够模拟对世界状态产生简单影响的行为。例如,画家可以在画布上留下随时间持续的新笔触,或者一个人吃汉堡时留下咬痕。 训练过程: Sora 的训练受到了大语言模型(Large Language Model)的启发。这些模型通过在互联网规模的数据上进行训练,从而获得了广泛的能力。 Sora实际上是一种扩散型变换器模型(diffusion transformer)。 首先将视频压缩到一个低维潜在空间中,然后将这种表现形式分解成时空区块,从而将视频转换为区块。 训练了一个用于降低视觉数据维度的网络。这个网络以原始视频为输入,输出在时间和空间上都被压缩的潜在表示。Sora在这个压缩的潜在空间上进行训练,并在此空间中生成视频。还开发了一个对应的解码器模型,它能将生成的潜在表示映射回到像素空间。 对于给定的压缩输入视频,提取一系列时空区块,它们在变换器模型中充当标记(token)。这种方案同样适用于图像,因为图像本质上是单帧的视频。基于区块的表示方法使Sora能够针对不同分辨率、持续时间和纵横比的视频和图像进行训练。在推理过程中,可以通过在适当大小的网格中排列随机初始化的区块来控制生成视频的大小。 随着 Sora 训练计算量的增加,样本质量有了显著提升。 Sora训练时没有对素材进行裁切,使得Sora能够直接为不同设备以其原生纵横比创造内容。 针对视频的原生纵横比进行训练,还可以提高构图和取景的质量。 训练文本到视频的生成系统需要大量配有相应文本提示的视频。应用了在DALL·E 3中引入的重新字幕技术到视频上。 与DALL·E 3相似,也利用了GPT技术,将用户的简短提示转换成更详细的提示,然后发送给视频模型。 技术报告详细内容:https://openai.com/research/video-generation-models-as-world-simulators

00
老布鲁的猫
2年前
前几天项目需要放大一批图,要求是尽量100%不改变原图。

分别试了Webui的Tile Comfyui的USDU。

项目里是1024放大到2048,所以就用这个尺寸做的测试,经验结论如下:

## Webui Tile

1. Webui界面熟悉,看上去操作简单,B站很多相关教程。
2. 现在放大老照片的绝招,小糊图变高清大图。
3. 原画面内容改动很少。如果原图的清晰度够高(足以让AI识别),放大的原图内容几乎无改动。(边缘部分有像素级的错开)
4. 高清放大的特性会将原来背景虚化的边缘也清晰化(边缘线条变硬,不够虚了)。

## Comfyui Ultimate SD Upscale

1. 使用略有门槛(搭建节点的界面就劝退很多新手,实际不难),中文教程少。
2. 搭配Controlnet使用,放大的内容没有改动。(Ps里能完全叠上)
3. 原来虚化的背景依旧保持虚化的状态。

最后使用了Comfyui USDU的方案。

示例图来自Midjourney,示例图生成时,MJ还没上线放大2048的功能。
现在Comfyui 让不是MJ生成的图,也能放大到2048。
13
老布鲁的猫
2年前
收到几天了,但是最近太忙,周末才有空好好感受一把。 丝滑流畅,屏幕120hz这些就不说了。

鸿蒙系统很多细节功能点,不比iOS差,可惜手边没有其他华为的设备,很多功能没法进一步体验。

Ps:切换生态圈,真的,非常不习惯,今天拿着手机懵了好几次。
00
老布鲁的猫
2年前
Claude 也在进化
00