即刻App年轻人的同好社区
下载
App内打开
陈财猫
76关注2k被关注1夸夸
书籍《ChatGPT进阶 提示工程入门》作者
AI产品经理+Prompt Engineer
我吃猫粮,然后喵喵
置顶
陈财猫
7月前
我其实一直有个财猫小群,感兴趣的小伙伴可以扫码加我,我拉你,一起来聊聊AIGC和prompt engineering。
73
陈财猫
24天前
发一个最近正在做的能写故事的酷东西,感觉已经脱离了玩具的范畴,乐趣过于多
57
陈财猫
2月前
马斯克开源的Grok用的是Apache 2.0 license

所以这是一个可商用,二次开发后可闭源的模型。
00
陈财猫
2月前
我发明的BROKE提示词框架被微软中国CTO韦青老师推荐啦😌
49
陈财猫
2月前
poe的claude3又涨价了......claude3-opus-200k版本发一条消息要12000积分,20美元一个月只能发80多条消息,算成人民币一条消息一块七,什么天价......无力吐槽
52
陈财猫
2月前
最近在玩强化学习,在学PPO,意外发现一个挺好的公开课,制作精良且画风可爱,推荐一波

由CCF主办,上海人工智能实验室承办的CCF科普群星计划系列:决策智能入门级公开课PPO × Family

Github仓库
github.com

bilibili链接:
www.bilibili.com
04
陈财猫
2月前
前两天在waytoagi的prompt共学活动上,和南瓜博士@ElfeXu 聊天和分享的录屏已经上传啦。主题是“用文理兼修的思维来写prompt,”感兴趣的猫友可以来看看
下面是分享的时候用到的一些文档:

[陈财猫:Prompt-Top100 GPTs 提示精灵小富贵](waytoagi.feishu.cn)

[陈财猫:陈财猫-巨聪明仓鼠参谋 Prompt](waytoagi.feishu.cn)

[陈财猫: 由GPT驱动的人生重开模拟器游戏,体验无穷变化的多重人生(已开源)](waytoagi.feishu.cn)

[陈财猫:BORE框架的产生过程,一个自动驾驶产品经理的ChatGPT方法论](waytoagi.feishu.cn)

[陈财猫:可操作,可重复的GPT使用框架“BROKE”](waytoagi.feishu.cn)

[陈财猫:如何用GPT写长篇科幻?用分治法完成复杂任务](waytoagi.feishu.cn)

[陈财猫:推荐书单--了解各个领域的知识,并在恰当的时候调用它们](waytoagi.feishu.cn)



[南瓜博士:深度拆解天花板级复杂的提示词 ——什么可照搬什么不要学](waytoagi.feishu.cn)

[南瓜博士:用 AI 打造有无穷变化的人生重开模拟器](waytoagi.feishu.cn)

[南瓜博士:平生第一次写小说获奖,是AI帮我的!](waytoagi.feishu.cn)

[南瓜博士:人的用处——我在人机协作小说创作中找到的存在感](waytoagi.feishu.cn)

[南瓜博士:用GPT写的油猴脚本](waytoagi.feishu.cn)

【Prompts 共学】4. 南瓜博士和陈财猫的分享_哔哩哔哩_bilibili

07
陈财猫
2月前
Claude3搞创作属实有点意思,OpenAI是该急急了
52
陈财猫
2月前
我养的虎纹金丝熊仓鼠小富贵因为天生体弱,因病于去年9月去了鼠星。
为了纪念它,就有了 GPTs “提示精灵小富贵”,它会主动懂你,使用BROKE框架帮你写 Prompt 。现在它开源了,MIT license,支持商业化。

小富贵很聪明,效果很好,所以大家都喜欢它,曾在全球的三百万个GPTs中位列前百。

如今,很多人都认识小富贵了。

“提示精灵小富贵(Prompt PET)”开源了!

23
陈财猫
3月前
openai的text to video模型 sora 发布了,但是我却想转发一篇 2016年openai的旧文。这篇文章将带你更深入了解生成模型(Generative Models): 它们是什么,为什么重要,将要到哪里去。

openai.com

“在OpenAI,我们致力于一个核心目标:开发出能够让计算机理解我们世界的算法和技术。

我们常常会忽略自己对世界的深刻理解:比如,你知道这个世界由三维空间构成,里面的物体能够移动、相撞、互动;人们可以行走、交谈、思考;动物能够觅食、飞翔、奔跑或吠叫;显示屏上能展示用语言编码的信息,比如天气状况、篮球比赛的胜者,或者1970年发生的事件。

这样庞大的信息量就摆在那里,而且很大程度上容易获得——不论是在由原子构成的物理世界,还是由数字构成的虚拟世界。挑战在于,我们需要开发出能够分析并理解这些海量数据的模型和算法。

生成模型是朝向这个目标迈进的最有希望的方法之一。要训练一个生成模型,我们首先会在某个领域收集大量的数据(想象一下,数以百万计的图片、文本或声音等),然后训练这个模型去创造类似的数据。这个方法的灵感来自于理查德·费曼的一句名言:

“我不理解的,我也无法创造。”

这个方法的妙处在于,我们使用的神经网络作为生成模型,其参数的数量远远少于训练它们的数据量,这迫使模型必须发现并有效地吸收数据的精髓,以便能够创造出新的数据。”
228
陈财猫
4月前
这是一篇能带你从0到1入门大模型安全的文章,覆盖了几乎有关大模型安全的一切。内容很全,包含了越狱,幻觉,系统隐私泄露(比如套GPTs提示词)等话题。

之前有猫友对GPT越狱,套提示词,这类大模型安全问题感兴趣。

财猫智能团队正好有一个专门研究LLM Safety的小伙伴,我请他给大家写了这篇文章。

他做了很多paper reading,这篇文章是学术界对于大模型安全的一手信息,信息量很大。感兴趣的可以来看看

mp.weixin.qq.com
018