那么多A380……主要功能是跑视频编解码吗?
那么多A380……主要功能是跑视频编解码吗?
C64就算带上扩展内存也装不下现在主流的分词器,更别说模型了,不知道运行的是个什么鬼
因为有全新L20 48G(可近似当作4090D 48G)在2.5万的价位压着,实际上现在4090的价格已经涨无可涨。
毕竟魔改48G总得比原厂48G便宜一点吧?显存颗粒和手工费总是有成本的吧?那么现在1万8+的回收价已经没什么利润空间了。
炒卡的要想让4090的价格更上一层楼那就只能来阴的,96G直接超越A100 80G,更重要的是96Gx8正好可以运行满血deepseek-r1,这下4090 96G的价格卖到10万也不是梦了。
但问题是4GB(32Gb)的GDDR6/GDDR6x颗粒从哪来呢?
反正赚到钱的都跑了,买不到显卡的可以来评论区吐槽…
打原神能秒骁龙8G2吗?
搞不懂Mali的这坨命名规则
yolo锁头挂要效果好的话,是缩放到640x640输入还是需要做显示器原生分辨率输入?
要是需要做4K原生输入的话,那确实挺需要NPU加速的(
1500带铂金双电的话……当GPU矿机也不是不行(毕竟自己搭矿架配主板电源转接线也快1000了
华为CX5200 V5表面上可以装9块双槽显卡,其实只有4个槽是真PCIe x16,然后这些速率不一的PCIe槽还分别连在两颗CPU上。
低情商:谁家矿机做得这么精致
llama.cpp(ollama)存在的意义就是让这些垃圾开发板都能蹭上LLM的热度
最能体现cpp跨平台含金量的一集
ktransformers 是利用 sparsity of attention 加速的正经 CPU/GPU 混合推理框架
llama.cpp是纯粹的pipeline parallelism草履虫,除了代码简单蹭新模型热点速度快以外,就别指望它有任何性能亮点了
不如自己编译个intel oneMKL的llama.cpp后端给ollama塞进去
输出端用公头,产品经理还是死少了
Mac用户马上就能知道Apple的GPU性能有多差了。
毕竟在内存带宽瓶颈为主的LLM推理上Mac能靠着多通道LPDDR5x统一内存大杀四方,到了模型训练上可不惯着你。
似乎M4 PRO的GPU+NPU总算力还打不过RTX3060
突然想到,从3090以来FE开始搞吹透式散热怕不就是为了防止炼丹
这种吹透式散热器根本没法在4卡/8卡服务器/工作站里用
目测最终解决方案是老黄更新vBIOS反手砍成全部锁4.0
反正这4.0也不影响游戏性能,而且搞多卡AI的也不会买FE
虽然外国佬搞的这些源神硬件设计大多都令人窒息,不过这台看起来比MNT Reform那个2024年还在塞18650的“笔记本”正常些👇
我听说之前显卡厂就想过私下给A380改12G显存蹭AIGC热度,但是硬件条件限制没改成
先把smbus贴了再说
草,万兆电口,电热丝开会
U.2满载可以跑到15W甚至更高
一侧28盘就是420W MAX,比TDP最高的Xeon和EPYC还高
不知道这风扇得转多快才能压得下来
而且气流方向和U.2盘设计的气流方向还是垂直的,逆天
目测就算华南金牌进军服务器也难以超越的存在
硬件和装配细节都不说了,就说它这离谱的IPMI
别人的服务器IPMI失效都是强制风扇最大转速,泰安的IPMI失效强制风扇最低转速
把EPYC干到热保护关机
我™直接???
上一次热保护关机还是装E5的时候忘装散热器…
我觉得LLM跑分跑5-shot就已经够离谱的,原来还有更离谱的