即刻App
年轻人的同好社区
下载
App内打开
axtrur
83
关注
144
被关注
0
夸夸
Tencent
Fullstack engineer
Web3 buidler&researcher
ReadFlow cofounder
置顶
axtrur
3年前
找个时间把自己在大厂工作中沉淀下来的架构设计之道梳理分享下,欢迎技术交流
120
70
5
axtrur
3年前
ReadFlow
make your read value flow~
用自己写的文章进行输入发现输出效果越来越好了~
持续迭代,欢迎产品交流,技术交流~
#AI工作流
#新解法
8
0
1
axtrur
3年前
有点强大
深思圈: 来看看最新3D扩散模型生成的效果
0
0
0
axtrur
3年前
团队执行力拉满,迭代很快
Stefy.eth: 我靠!原来这么多朋友不晓得Trancy!给目前正在学习任何一门新语言的伙伴们安利!按着你们头安利!非广安心食用! 使用方式:非常简单!安装插件,选择你的学习模式,打开油管或者netflix的时候同时打开插件即可进入页面 支持功能(有免费版和付费版,看个人所需) 🤖 OpenAI/ChatGPT4 接了最新的 ChatGPT4.0 模型 📺 剧场模式 沉浸式观看Youtube 和 Netflix - 双语字幕 - 单词高亮 - NLP 分词 - Open AI 查词 - 循环播放 - 倍速播放 📖 阅读模式 在阅读模式下,Trancy能将字幕分成完整的句子,便于整体阅览,更加便捷地进行句子练习 - 智能分句 - 聚焦播放 - 单词收藏 - 句子收藏 - 字体调整 🎧 練習模式 特殊模式:你可以进行影子跟读,也可以进行填空练习,通过键盘肌肉记忆,更高效的掌握新单词,练习掌握长句、难句 - open AI 语法分析 - 口语训练 - 听力训练 - 模式训练 - 填空训练 🌟 其他特色功能 - 外部词典 - 微软发音 - 快捷键 - 多样主题 - 多语言
0
0
0
axtrur
3年前
阿扶frits: 🏩AI韦斯 •安德森版《哈利波特》 (图源@Panoramachannel)
1
0
0
axtrur
3年前
有意思,但需要快点支持多媒体内容,不然交互太局限
GitHub - poe-platform/api-bot-tutorial: Tutorial for Poe API bots
0
0
0
axtrur
3年前
待研究
GitHubDaily: 朋友在 GitHub 上开源的一款短视频生成和编辑工具:open-chat-video-editor。 结合 ChatGPT,Stable Diffusion 和多模态搜索,实现了以下功能: 1. 短句转短视频 (Text2Video) 2. 网页链接转短视频 (URL2Video) 3. 长视频转短视频 (Long Video to Short Video) GitHub:https://github.com/SCUTlihaoyu/open-chat-video-editor
0
0
0
axtrur
3年前
上周还在内网看他的课,RIP
0
0
0
axtrur
3年前
有没有一种可能,未来的控制器并不是提前预设的流程和软件,而是可以动态生成和升级并且固化下来?
杨昌: 据说是个大新闻,huggingface 宣布了一个新的API-- Hugging Transformers Agent,HuggingGPT的真实可用版已然面世。 前 openai 员工,现在某厂人工智能科学家Jim Fan 在 Twitter 上说“It's a step towards the Everything App, which grows in capability as the ecosystem grows.” 也就是说,啥玩意儿都能处理的“万能 App”,将指日可待。 为了搞清楚Hugging Transformers Agent 相关的概念,我找到了官网和相关论文,请 ChatGPT 和 Claude 一起,帮我解释了一下。 1、HuggingGPT核心解决的问题是什么? 如何利用大型语言模型(例如ChatGPT)来解决复杂的人工智能任务,涉及不同的领域和形式。 通过使用大型语言模型作为控制器,连接和管理现有的人工智能模型,使它们能够解决更复杂的问题。 这种方法有助于推动人工智能技术的发展,实现更高级的人工智能。 (内容来自Yongliang Shen等的《HuggingGPT: Solving AI Tasks with ChatGPT and its Friends in HuggingFace》论文,链接:https://arxiv.org/abs/2303.17580,由GPT-4翻译成大白话) 2、HuggingGPT和Auto-GPT有什么异同? HuggingGPT与Auto-GPT之间存在一定的区别。 这两个系统都使用大型语言模型(如GPT-4或GPT-3.5)来完成任务,但它们的目标和实现方式有所不同。 HuggingGPT的主要目标是利用大型语言模型(如ChatGPT)作为控制器来管理和连接各种现有的人工智能模型(如Hugging Face社区中的模型),以解决复杂的AI任务。它依赖于用户输入和语言界面,然后根据任务要求执行子任务,并进行结果总结。 而Auto-GPT则被设计为一个“AI代理”,它可以通过自然语言理解目标,然后将目标拆分为子任务,并利用互联网和其他工具在自动循环中完成任务。与需要用户手动输入命令的交互式系统(如ChatGPT)不同,Auto-GPT可以自主地为自己分配新目标,实现更大目标,而无需强制性的人类输入。Auto-GPT还可以通过与数据库和文件的读写来管理短期和长期记忆,通过总结来管理上下文窗口长度要求,并可以在无人值守的情况下执行基于互联网的操作,如网络搜索、网页表单和API交互等。此外,Auto-GPT还包括文本转语音功能,以实现语音输出。 总之,HuggingGPT和Auto-GPT都利用了大型语言模型的能力,但它们的实现方式和目标有所不同。 HuggingGPT主要关注通过大型语言模型整合各种现有AI模型以解决复杂任务,而Auto-GPT则注重自主地完成任务,实现更大目标,无需人类的持续干预。 (Auto-GPT 相关信息,来自维基百科https://en.wikipedia.org/wiki/Auto-GPT,对比工作由 ChatGPT 完成) 3、HuggingGPT和Transformers Agent有关系? 我觉得 Claude 的总结更好,先放出来“Transformers Agent可以视为HuggingGPT想要实现的目标的一个初步尝试和子集。但HuggingGPT的雄心和视角要宽泛和广阔得多。 ” 下面是 ChatGPT 的总结: HuggingGPT与Transformers Agent之间存在一定的相似性和差异。两者都利用了大型语言模型的能力,并构建在Hugging Face Transformers库之上。然而,它们的实现和目标有所不同。 HuggingGPT的主要目标是利用大型语言模型(如ChatGPT)作为控制器来管理和连接各种现有的人工智能模型(如Hugging Face社区中的模型),以解决复杂的AI任务。它根据用户输入和任务需求执行子任务,并进行结果总结。 而Transformers Agent是一个实验性的API,它以自然语言为基础,通过一组精选的工具和代理来解释自然语言并使用这些工具。它的设计具有可扩展性,系统可以轻松地扩展到使用由社区开发的任何工具。Transformers Agent在处理多模态任务方面尤为强大,可以用于生成图像和语音合成等任务。 总之,HuggingGPT和Transformers Agent都利用了大型语言模型的能力并基于Hugging Face Transformers库,但它们的实现方式和目标有所不同。HuggingGPT侧重于通过大型语言模型整合各种现有AI模型以解决复杂任务,而Transformers Agent则提供了一个自然语言API,可以与一系列精选工具和代理互动,处理多模态任务。 (Transformers Agent 相关信息,来自huggingface官网https://huggingface.co/docs/transformers/transformers_agents#whats-happening-here-what-are-tools-and-what-are-agents) ——— 再做个延展,都是数字化和提效,HuggingGPT、AutoGPT 和上一个时代的低代码平台、机器人流程自动化(RPA)有什么异同? 虽然这些技术都旨在提高效率和简化工作流程,但它们的实现方法和关注领域各不相同。HuggingGPT和AutoGPT主要关注使用大型语言模型解决复杂的AI任务,而低代码平台和RPA则侧重于通过可视化界面和自动化技术简化应用程序开发和日常办公任务。 具体来讲: 4、低代码平台 vs HuggingGPT和AutoGPT HuggingGPT和AutoGPT更侧重于开放性和动态性,面向的也更广,不仅限于软件开发。而低代码平台则更广义地面向软件快速开发全流程。 HuggingGPT提出的利用语言模型作为控制器的思路,也是它们之间一个重要的区别。这种机制可以实现更高层次的自动化和协同。 1) 低代码平台通常面向软件开发全流程,提供GUI、组件等来开发和部署应用。而HuggingGPT和AutoGPT则专注于AI和机器学习模型的使用。 2) 低代码平台一般要求用户通过可视化界面来“拖放”和配置已有的组件,来组装应用。而HuggingGPT和AutoGPT更强调通过自然语言来表达用户的意图,系统会动态决定使用什么模型来完成。 3) 低代码平台提供的组件和能力往往是预定义和固定的。而HuggingGPT和AutoGPT则面向开放的机器学习社区,可以动态调用最新的模型和工具。 4) HuggingGPT特别提出了使用大型语言模型作为“控制器”来协调其他模型的想法,这是它的一个重要创新,低代码平台通常不具备这种机制。 5、机器人流程自动化(RPA) vs HuggingGPT和AutoGPT 尽管RPA系统和HuggingGPT、AutoGPT都属于软件代理和自动化技术,但HuggingGPT和AutoGPT面向的是更加开放、复杂和智能的任务,特别是自然语言理解和AI能力。它们不依赖预定义的流程和demonstrations,可以动态地选择和调用各种开放的模型和工具。 而RPA系统更加局限于提前配置好的流程和应用软件。HuggingGPT提出的利用语言模型作为高层控制器的思路,也使其自动化能力更强,更接近真正的人工智能。 1) RPA通常面向结构化的业务流程,通过观察用户操作来记录和复制流程。而HuggingGPT和AutoGPT面向的是更加开放和复杂的AI任务,不依靠预定义的流程。 2) RPA系统通常需要提前录制好的流程和 demonstrations来指导机器人。而HuggingGPT和AutoGPT可以直接从自然语言描述中理解任务意图。 3) RPA系统一般只调用固定的应用软件,而HuggingGPT和AutoGPT可以动态调用开放的AI模型和工具。 4) HuggingGPT特别提出了使用大型语言模型作为高层“控制器”来管理和协调其他模型,这一点RPA系统通常不具备。 5) RPA系统更加依赖结构化的数据,而HuggingGPT和AutoGPT需要处理自然语言,涉及到更强的理解和推理能力。
0
0
0
axtrur
3年前
歸藏: Stability AI正式发布了他们从文字生成动画的工具Stable Animation,感觉效果和能力类似于Gen-1,主要包括下面三种能力: 文本到动画:用户输入文本提示(与 Stable Diffusion 一样)并调整各种参数以生成动画。 文本输入+初始图像输入:用户提供初始图像作为动画的起点。文本提示与图像结合使用以产生最终输出动画。 输入视频 + 文本输入:用户提供初始视频作为动画的基础。通过调整各种参数,获得了最终的输出动画,该动画还由文本提示引导。 官方说明:https://stability.ai/blog/stable-animation-sdk
0
0
0