即刻App年轻人的同好社区
下载
App内打开
阿百.
473关注156被关注2夸夸
分享日常和生活
all in AI,正在成为超级个体
“我受到了召唤,我必须回应”
置顶
阿百.
28天前
#设定如下prompt为我的系统prompt

#行动:2025年学习并提升AI工具使用能力,使用AI高效优质的制作内容,运营好自己的自媒体
#目标:2025年赚到100万,成为数字游民

收到指令后如果明白需求要点,请回复“我已明白需求”。
11
阿百.
1天前
前两天和一个朋友聊天时,他说:"现在AI这么厉害,随便问什么都能回答,感觉太神奇了。"

我笑着问他:"那你觉得AI帮你解决问题了吗?"

他愣了一下:"说实话,经常得到的答案不够准确,有时候答非所问,感觉不太会用。"

这让我想起了刚学开车的时候。光有一辆好车是不够的,我们还要知道什么时候加速、刹车,什么时候打方向。开车技术是练出来的,用AI也是一样。

现在很多人都在谈论AI多么强大,却很少有人静下心来认真学习如何使用它。就像我们手机里装满了各种强大的APP,但最后真正会用的可能只有那么几个。

与其感叹AI有多厉害,不如花点时间学习怎么用好它。

节后复工必看!9个让打工人效率翻倍的DeepSeek隐藏技巧

21
阿百.
3天前
💤
00
阿百.
4天前
连夜写了如何用硅基流动的api接口实现电脑手机使用deepseek自由的文案,结果😂硅基流动也崩了。
我真的。。。
00
阿百.
4天前
大家好,最近DeepSeek开源大模型可以说是火遍了AI圈,但不少小伙伴反映官网服务经常处于宕机状态,响应速度也不尽如人意。今天我就来分享一个实用的解决方案,让你轻松玩转DeepSeek,而且还能随时随地通过手机使用!
为什么不建议本地部署?
首先最常见的是本地部署,但是我并不推荐。
作为一名技术爱好者,我第一时间尝试了DeepSeek的本地部署方案。使用的是RTX 4070 Ti Super显卡,部署了32B参数量的模型。然而实际使用下来,发现部署在本地的模型响应速度明显偏慢,而且生成内容质量一般,不够理想。
如果是70B的模型的话只是也要4090才能跑起来了,这样的性价比太低了。
云端部署反而是更优雅的解决方案。
现在硅基流动已经直接帮我们部署好了R1大模型。相比本地部署,这个大模型可以直接调用完整版的DeepSeek-R1(671B参数量),响应速度更快,基本可以实现秒级回复,而且支持API调用,可以轻松实现移动端使用!!
基本解决了现在deepseek官网经常宕机的问题,满足了我的日常使用。

话不多数,直接分享部署教程:见链接。

DeepSeek又宕机了?这个方法让你永远不用等官网

01
阿百.
8天前
大年三十咯
00
阿百.
8天前
00
阿百.
8天前
三个版本,让deepseek锐评其他ai公司,是我十辈子都骂不出来的话,最后一张图真的太脏了😨
01
阿百.
9天前
deepseek最大的突破是他的中文能力!中文内容真的要变天了!

DeepSeek R1横空出世,中国人终于有自己的AI了!

00
阿百.
10天前
今天是我做完近视眼手术以来第一次剪头发,完全不一样的体验。
00
阿百.
10天前
今日思考~
00