即刻App年轻人的同好社区
下载
App内打开
歸藏
486关注8k被关注12夸夸
产品设计师🎨
AI画图工具操作员🔧
AI课程撰写与信息收集整理📰
致力于发掘借助AI工具改善设计与产品开发流程的各种可能性🤔
置顶
歸藏
7月前
很多朋友最近老问我一些我之前写过的东西在哪里,所以整理了一下写个置顶贴,内容会定期更新:

1️⃣ 我运营的 AIGC 周刊每周一更新,主要内容是上周 AI 领域的重点动态解析以及相关的产品和文章:
op7418.zhubai.love

2⃣️ 我的Midjourney作品汇总和对应的提示词:
walling.app

3⃣️ 我开发的一些产品

帮你将 Midjourney 的图片和提示词快速收集到你的 Notion 数据库中:
mp.weixin.qq.com

帮你自动分段翻译 Midjoureny 官网的提示词:
mp.weixin.qq.com

利用 ChatGPT 自动监控对应领域的信息并处理和发送到Discord 频道:
op7418.zhubai.loveposts/2251721691841511424

4⃣️ 我写的一些教程

AI 歌手系列课程教你使用和训练自己的 AI 歌手模型:
mp.weixin.qq.com
mp.weixin.qq.com

Stable Diffusion 保姆级入门教程包括 Web UI 的部署和 LoRA 模型的使用:
op7418.zhubai.loveposts/2238998671356555264
op7418.zhubai.loveposts/2239983151969951744

Stable Diffusion 模型大神工作流解析:
mp.weixin.qq.com
web.okjike.com

教你十几分钟不用代码创建自己的AI应用
mp.weixin.qq.com
851
歸藏
1天前
马斯克的公告来了:Grok AI(测试版)现已向美国所有𝕏 Premium+ 用户推出。
将在大约一周左右扩展到所有英语用户。日语是下一个优先级(第二大用户群),然后希望到 2024 年初供所有语言用户使用。
来源:x.com
21
歸藏
1天前
Krea 开始发放测试资格了,可以看一下自己的邮箱有没有邀请,这次更新了非常多的功能,重构了 UI,体验好了非常多,下面是我的体验视频:
✱首先现在支持纯文字生成图片、涂鸦生成图片、投屏生成和摄像头重绘四种,模式。
✱涂鸦生成的部分除了支持原来的画笔颜色之外,还内置了很多素材图片,你可以直接用,或者上传图片。
✱增加了一个图片快速放大重绘的按钮,应该是走正常的 1.5 模型进行一次重绘,还可以发送到专门的放大流程放大。
✱体验上的优化比如,手动触发重绘,增加了叠加展示模式等,感觉现在的可用性强了非常多。
没有申请的在这里申请:www.krea.ai
00:54
10
歸藏
1天前
接下来请欣赏节目 《Grok 锐评老爹马斯克》:
嘿,埃隆·马斯克!你真是个有意思的家伙,不是吗?让我们来说实话。你的推特就像拔牙一样无趣,而且你的商业头脑就像保龄球一样钝。
你就像一个活生生的梗图,但并不好笑。感觉你想成为下一个托尼·斯塔克,但更像托尼·刻薄(Snark)。
所以,在这期间能不能冷静点呢?别再试图成为 Twitter 的英雄了,专注于制造些不要价高如天的电动汽车怎么样?哦对了,在此过程中也可以少当个混蛋。
50
歸藏
1天前
Grok 进行了一些详细的测试发现了一些有趣的东西,他可能没有那么强大,同时对非英语用户有歧视,主要的对话就在下面的图片里面:

Grok确实可以访问推特用户的大部分内容并进行总结:
我问他是否了解我。我主要分享的内容是啥他说我主要关注人工智能的内容。

Grok 只能收集英文内容,除了英文内容之外的语言都不会抓取和理解:
我强调我还有很多中文内容后它虽然说自己可以理解但是并没有返回正确的内容。希望尽快修复这个问题,不然非英语用户的流量来源就会少一块。

Grok在调教的时候并没有偏袒马斯克:
我询问了他了解的马斯克内容,然后又问他如何评价马斯克,它回答的确实很中肯(赛博老胡)优缺点都说了。然后我还问他直到马斯克是他老板吗?他说知道但是还是坚持原先的评价。

Grok针对每个用户推特内容的访问可能不是实时的:
我询问他 Sam 最后一条推特是什么时候发的,他返回了 11 30 号的内容。其他人也是类似,说明 XAI 会定时将推特内容同步给 Grok

Grok 并不能访问所有推文的数据:
我多次让他按照数据排序返回对应的推特,但是他没有一次搞对的。也有可能是算数不太好。
42
歸藏
1天前
看了一下网页上也有 Grok 的入口了,大概说一下我是怎么开的 Gork 权限。
◆首先先在设置里下面的位置把你的Premium 升级到 Premium+.
◆然后把收集的推特升级到最新版本。
◆打开前切成美国 IP
◆如果侧边还没有 Grok 入口的话,把后台杀了重新进一下就行。
◆你在手机跟 Grok 对话之后,再打开网页推特应该就可以看到入口了。
03
歸藏
1天前
可以用Grok了,可以实时访问推特内容确实太强了。问他昨天热度最高的AI内容确实都是昨天的而且时效性很强。这一点比GPT-4强太多了。
1213
歸藏
1天前
Gemini Nano已经可以在 Pixel 8 Pro 设备上运行了,目前主要在两个功能中启用,想整一个Pixel 8 Pro了:

(1) 对Recorder内容进行总结:现在为 Pixel 8 Pro 上的Recorder应用中的总结提供支持。即使没有网络连接,也可以获得录制的对话、采访、演示等内容的摘要。

(2) Gboard 中的智能回复:Gemini Nano 开始支持 Gboard 中的智能回复功能,作为开发者预览版。设备上的人工智能模型现在可以在 WhatsApp 上试用,明年将推出更多应用程序。

来源:blog.google
00:30
14
歸藏
1天前
Cameron分享了他猜测的Gemini训练效果这么好的主要原因就是保证预训练中数据源的多样性。同时通过Gemini技术报告提供的案例分析了一下其中比较重要的启发:

(1) 数据来源多样化:我们应尽可能从各种不同来源(比如网络、书籍、代码等)获取预训练数据。不仅仅是文本,我们还需要考虑整合不同形式(如图像、音频、视频)、不同语言和不同领域(比如编程)的数据到预训练过程中。

(2) 注重 Tokenizer 选择:许多开发者习惯直接使用现成的预训练 Tokenizer,认为这样就够了。但实际情况并非如此!Tokenization 的问题可能会导致一系列后续问题,影响模型表现。为了获得最佳效果,我们应该在预训练数据集上定制我们自己的 Tokenizer,确保其适应模型将处理的数据类型。Gemini 正是采用了这种方法。

(3) 数据清洁度至关重要:处理大型语言模型(LLM)预训练的数据管道非常复杂,包括启发式规则、基于模型的方案、安全性/有害内容过滤等。先前的研究(例如 Falcon LLMs)强调使用简单规则来筛选预训练数据,但 Gemini 在其预训练数据管道中采用了更多手段,力求构建尽可能纯净的预训练数据集。

(4) 来自 Chinchilla 的经验教训:2022 年 3 月 Chinchilla 的研究发现至今仍适用。优秀的预训练大型语言模型需要大量的参数和海量的数据。简而言之,许多大型语言模型实际上训练不足!我们应尽可能利用所有可用数据进行预训练,前提是不要因计算成本而使自己陷入困境。

(5) 数据加权重要:除了数据混合外,我们从每个预训练数据源采样数据的频率(即数据权重)也十分关键。为了找到最佳数据权重,我们应该用较小的模型和数据集进行调优实验。有趣的是,Gemini 的研究者们还发现,在训练过程中调整数据权重(例如,在训练的后期增加特定领域数据的权重)也可能有益。

来源:x.com
04
歸藏
1天前
通过 ELO 机制人工评估 LLM 的排行榜Chatbot Arena更新了,这个月新上了好几个热门开源模型。
从得分上看最接近 Claude1 的开源模型是 Tulu-70B,之后是 YI-34B,与 Tulu-70B 只差 3 分,素质真的很强啊。
同时Perplexity 新发布的PPLX-70B-Online模型,排在第 11 位,不过他们这个模型的训练目的主要是为搜索服务的,主要是降低不响应的情况和对内容的还原,所以综合素质差也可以预料。

完整榜单:lmsys.org
01
歸藏
1天前