即刻App年轻人的同好社区
下载
App内打开

人工智能讨论组

人工智能or人工“智障”,一起聊聊人工智能新进展?

468531人已经加入

  • Deepthink
    24天前
    诚意满满的DeepSeek开源周
    #OpenSourceWeek #DeepSeek
    欢迎移步GitHub查看我们的代码仓库
    招人进行时,欢迎自荐/友情推荐~
    59
  • 一只出格君
    1天前
    用chatgpt 4o今天新出的图片生成功能做的几张图,主角是我、我对象还有我朋友。AI的痕迹越来越不明显了,文字也不再是一团糊了。
    102
  • Simon的白日梦
    6天前
    腾讯开源了一个6G显存就能跑的文/图生3D模型,还给了windows的一键安装包🥹

    Hunyuan3D-2 Windows 便携版 - 轻松运行腾讯混元 3D 2.0

    🧐 该项目提供了 Hunyuan3D-2 的 Windows 便携版,简化安装流程,支持本地运行几何生成、纹理合成及文本转 3D 功能,适用于 NVIDIA GPU 用户。

    ➡️ 链接:github.com

    ✨ 重点

    ● 🔧 零基础快速运行:

    只需下载压缩包,解压后运行 .bat 脚本,即可启动 Gradio 界面,生成 3D 模型。

    无需手动安装 Python 依赖,简化部署流程。

    ● 🎨 支持多种 3D 生成模式:

    几何生成(白模):输入图片,直接生成三维模型。

    几何 + 纹理生成:需要额外安装 CUDA Toolkit 和 Visual Studio 编译工具,可生成更完整的 3D 资产。

    文本转 3D(文生 3D):结合 HunyuanDiT,可直接通过文本描述生成 3D 物体。

    ● 🎮 显存优化 & 低配支持:

    最低 6GB 显存即可运行几何生成模式,超低显存模式可适配 4GB 设备。

    24GB 显存优化:可修改 --profile 参数,充分利用高端显卡性能。

    ● 📦 离线运行 & 本地数据存储:

    不依赖云端 API,所有数据处理均在本地进行,保护隐私。

    生成的 3D 资源保存在 gradio_cache 目录,方便管理和导出。

    ● 🚀 更新 & 维护:

    运行 更新.bat 可获取最新代码(基于个人维护的分支)。

    中文脚本默认使用国内镜像下载 Hugging Face 和 GitHub 资源,优化访问速度。

    🔹 总结:该 Windows 便携版大大降低了 Hunyuan3D-2 的安装复杂度,让用户能够快速体验 3D 资产生成,适用于游戏开发、AR/VR 设计、AI 艺术创作等领域。
    221
  • 一只出格君
    02:04
    给GOT 4O的图片生成跪了
    11
  • 卡尔李CarlLee
    4天前
    65岁宁波男子因头晕就医,AI系统通过CT影像分析发现其早期胰腺癌。
    13
  • 凯文冲冲冲
    4天前
    让Cursor 工作更快,还能节省token的一个小技巧

    从推特上看到这个方法,平时也切换着来测试了下,发现确实有时反而更快。

    方法是,如果你想开发一个功能或者修改一个bug,那么

    1. 直接使用 ASK 模式来让Cursor 实现。

    2. ASK 模式不会直接修改文件,所以需要人来进行点击 apply all 进行文件的合并。

    为什么这样的方式更快呢?因为不需要浪费Cursor 的时间来进行文件的diff 对比了。

    但是不是所有场景都有效,如果你是要修改一个很复杂的bug或者开发一个复杂的功能,如果你让agent 模式来处理,那么它至少要工作好几轮,甚至修改好几个文件。这样的方式如果换成上面的 ASK 模式,估计人要抓狂。想想每个文件都要点击一下,万一忘记了某个文件的改动,一启动就是报错。

    上面的方法更适用于,在单个文件上的改动,而且我测试下来的结果是,最好在一次 ASK 内结束修改的问题更加适合。
    13
  • 常高伟_长山
    4天前
    llm.txt是一个非常棒的想法,能够让现有的网站能够更加容易的被LLM理解。

    不过我们的技术理念更加倾向于“AI原生重建”,我们认为,在未来大部分的网站或者智能体,都不是为人服务的,他们都是为其他智能体(比如AI个人助手)提供服务的。

    当然,这中间肯定需要llm.txt这样的过渡技术,让现有的网站更好的被理解。

    这是我刚刚完成的一篇博客,里面详细的说明了我们对未来互联的看法,以及我们的理念。

    github.com
    15
  • 卫夕
    3天前
    为什么国内还没有Deep Research产品出来?
    这个问题其实折射了许多东西——
    表面看模型层功力差距的问题(Deep Research并不是简单的应用层功能,它既是一个Agent,也需要模型层的单独训练)。
    深层次看,其实还是各个厂在应用层面对需求理解的优先级问题,模型是可以训的、工程差距是可以补的,再不济,像Perplexity的Deep Research一样,尽管效果不咋地,粗糙地先上线一个也行啊!
    但都没有。
    同理,好几个月了,国内也没有可以比肩NotebookLM的同类产品。
    所以,我其实挺困惑——豆包、元宝、夸克、Kimi背后的产品决策者到底是怎么想的?
    41
  • pimgeek
    1天前
    吴三刀:『是否存在这样一个 LLM 压缩机,他学习了所有可能的知识 (那么它就可以高效地把所有知识都压缩)?

    这里我们想说,没有这样的 LLM 压缩机。这里面有两个不可能。第一,如果这样,那么这个 LLM 压缩机就是一个完美的柯氏机器,但数学上能够证明这样的机器是不存在的,柯氏复杂度是不可计算的,是这跟哥德尔不完备、自我指涉相关,这里不做讨论。

    我们讨论第二个不可能,即,“人类的知识”是永远增加的、无限的。人类的知识至少可以分为两部分:

    其一是对于自然界中的所有规律,这个我们可能会认为是有限的 (或者说信仰有个万物公式);

    其二是文化上的“知识”,这个一定是无限的,因为文化是构建的;而且很多时候其实是语言构建的,即新的文化是在原来文化的基础之上产生的,并且是一定程度上不符合原来文化的“分布”的文化。(我们在下一篇文章《大语言模型next-token-prediction的局限和文化的构建》再详细讨论)

    有点烧脑的理论探讨… 🤯

    “压缩即智能”里面的坑

    30
  • 晨昇
    4天前
    秘塔真牛🐮可以把搜索内容直接用网页的形式呈现

    秘塔AI搜索

    30