即刻App
年轻人的同好社区
下载
App内打开
工程师的日常
计算机工程师的逸闻趣事。
加入
430703人已经加入
庆生
1天前
windowslinux子系统里面的ubuntu
居然又搞出来了,当时都放弃了。
3
8
0
南壹
2天前
最近接手了优化app内存占用的任务,查了下,项目十年了竟然一直是默认的网络图片加载策略,最大内存和磁盘占用都不设限制,首页滑动10屏就占了581MB的内存。
随手改了一下网络图片内存策略,磁盘空间占用1天,最大占用500MB,内存占用为手机最大内存的10%,内存最多缓存100张图片。结果发现首页滑动10屏后,内存只占用217MB了!直接减少了53.56%!
本来想着内存优化是个大活,但是在屎山上只要做一点儿策略的改变就可以有那么大的优化,感觉任务完成了🤣
8
3
0
痘师傅
1天前
🥲最近每天都是开着两个xcode,两个vscode写h5,还得时不时开会,定方案,搞需求…我真是太特么负责人了,真挣的卖命钱。
5
2
0
南壹
3天前
为新app调了几天的后端工作流和prompt,终于把AI数据请求和处理时间减少了一半,并且AI回复达到了让我满意的水平。
现在接入了GPT、Claude、Moonshot、MiniMax,都试了一圈,感觉Claude和Moonshot是效果最好的,速度快内容贴题。
客户端核心功能demo已经做完了,该开始卷设计了
@BJC_韬
,争取早日推出MVP版本!
10
6
0
我想要的泉水在心中粉碎
2天前
难以想象,上一次接触C语言还是大一,凭借这点三脚猫水平,硬是de出来一个bug
(仅能看出来为什么出问题,让我写解决方案是写不出来的)
这个b班上得稍微开心了一点点
4
1
0
PM贝尔熊.AI时代产品经理
3天前
用llama.cpp把刚刚微调的llama3的f16精度的模型压成了q8_0,模型小了一半,在Macbook m1上面可以顺畅跑了。遇到问题,真的还是要多动手。
cd llama.cpp
./quantize /path/to/model-f16.gguf /path/to/output/model-q8.gguf q8_0
00:13
7
0
0
痘师傅
3天前
自己一个人把前后端都写了问题倒是不大,就是手指头敲得累…………
4
3
0
LMM吖_晚安
4天前
目前的最后一个bug终于解决啦!不得不说,敲代码的时候还蛮聪明的,打麻将也有这么聪明就好了
17
0
0
PM贝尔熊.AI时代产品经理
5天前
Llama 3 8B 在树莓派 Pi 5 上运行速度达到 1.89 个 token/s,也就是达到了普通人说话的语速。非常疯狂。如果文明衰落、互联网消亡,每家每户都需要这样的东西。
00:26
4
3
3
潘多拉使者
1天前
勤奋的程序员😂
2
0
0