即刻App年轻人的同好社区
下载
App内打开

工程师的日常

计算机工程师的逸闻趣事。

430703人已经加入

  • 庆生
    1天前
    windowslinux子系统里面的ubuntu
    居然又搞出来了,当时都放弃了。
    80
  • 南壹
    2天前
    最近接手了优化app内存占用的任务,查了下,项目十年了竟然一直是默认的网络图片加载策略,最大内存和磁盘占用都不设限制,首页滑动10屏就占了581MB的内存。
    随手改了一下网络图片内存策略,磁盘空间占用1天,最大占用500MB,内存占用为手机最大内存的10%,内存最多缓存100张图片。结果发现首页滑动10屏后,内存只占用217MB了!直接减少了53.56%!
    本来想着内存优化是个大活,但是在屎山上只要做一点儿策略的改变就可以有那么大的优化,感觉任务完成了🤣
    30
  • 痘师傅
    1天前
    🥲最近每天都是开着两个xcode,两个vscode写h5,还得时不时开会,定方案,搞需求…我真是太特么负责人了,真挣的卖命钱。
    20
  • 南壹
    3天前
    为新app调了几天的后端工作流和prompt,终于把AI数据请求和处理时间减少了一半,并且AI回复达到了让我满意的水平。
    现在接入了GPT、Claude、Moonshot、MiniMax,都试了一圈,感觉Claude和Moonshot是效果最好的,速度快内容贴题。
    客户端核心功能demo已经做完了,该开始卷设计了@BJC_韬 ,争取早日推出MVP版本!
    60
  • 我想要的泉水在心中粉碎
    2天前
    难以想象,上一次接触C语言还是大一,凭借这点三脚猫水平,硬是de出来一个bug
    (仅能看出来为什么出问题,让我写解决方案是写不出来的)
    这个b班上得稍微开心了一点点
    10
  • PM贝尔熊.AI时代产品经理
    3天前
    用llama.cpp把刚刚微调的llama3的f16精度的模型压成了q8_0,模型小了一半,在Macbook m1上面可以顺畅跑了。遇到问题,真的还是要多动手。

    cd llama.cpp
    ./quantize /path/to/model-f16.gguf /path/to/output/model-q8.gguf q8_0
    00:13
    00
  • 痘师傅
    3天前
    自己一个人把前后端都写了问题倒是不大,就是手指头敲得累…………
    30
  • LMM吖_晚安
    4天前
    目前的最后一个bug终于解决啦!不得不说,敲代码的时候还蛮聪明的,打麻将也有这么聪明就好了
    00
  • PM贝尔熊.AI时代产品经理
    5天前
    Llama 3 8B 在树莓派 Pi 5 上运行速度达到 1.89 token/s,也就是达到了普通人说话的语速。非常疯狂。如果文明衰落、互联网消亡,每家每户都需要这样的东西。
    00:26
    33
  • 潘多拉使者
    1天前
    勤奋的程序员😂
    00