之前网传的 B60 二合一 48G 显存版本终于要来了。单个核心 24G GDDR6 带宽456GB/s 俩并行是 921GB/s 这个性能已经能跑 70B 4bit 规模的模型了(14 token/s 左右)。价格合适会是本地部署模型的有一个不错的选择。

2
message-square
1

RT

11
message-square
9

1
message-square
0

看到个带触摸功能的键盘 clvx-s

2
message-square
1

产品编号: 21CBCTO1WW BIOS 版本: N3AET86W (1.51 ) 处理器: 12th Gen Intel® Core™ i7-1270P 存储器: 1T SSD 内存: 32 GB 系统:windows 11 专业 24H2(26100.4770)

lol设置特效最低,电源设置最佳性能。开局后偶尔会卡一下,重装过系统win11 23H2、更新过显卡驱动好像都没有解决…

2
message-square
2

最近在家翻出来一个NUC9红眼峡谷的电源,型号是全汉MS600 NUC,像是定制的版本,看了下模组线24pin接出来是10pin的,线序见图,想请教下各位 这个版本跟常规全汉MS600版本是否有区别?可否换线之后当常规电源使用?

2
message-square
1

7
message-square
5

乔思伯这个一体水冷也太卷了… 建议装机界立个君子协议,水冷搭载的屏幕数量不得超过冷排的风扇数量

6
message-square
3

瑞芯微发了 RK3668,参数是 10 核 Arm Cortex-A730/Cortex-A530 ,外加 16 TOPS NPU,RK182X LLM/VLM 协处理器。

说实话从参数上看算力绝对够了,更多的是虽然配了 LPDDR5,甚至5X/6,但是内存带宽还是不太够,只有100GB/s. (NUP部分最高能支持 200GB/s LPDDR6) 建议至少拉到 400GB/s 这样绝对是跑本地小模型的神奇盒子。

5
message-square
1

5
message-square
7

10
message-square
0

之前显微镜的电动载物台被学生灌流的盐溶液锈蚀了,动不了了

5
message-square
0

2025年已经过去了一半, 文本生成大模型是否已经进入下半场? OpenAI 完全不重视 API市场? Grok3根本没人用? 未来会怎样走向?

来看我花费4小时精心为大家整理的大模型 API 市场解读(使用 OpenRouter 数据) —— 2025上半年谁是 AI API 服务王者

5
message-square
3

2
message-square
2

sdxl和sd1.5生态上大部分漫画风格模型结构表现不如照片风格模型。但最近测试的wai illustrators v14在结构表现有一定优势,并且可用分辨率在2.5k以上,正式工作流使用1080p分辨率,比cosmos predict2快不少。

5
message-square
0

之前尝试使用SD1.5以及LCM版本的微调模型作为高速绘画模型,但分辨率、细节和位置关系等方面表现差一些。今天引入了基于SDXL Lightning的Dreamshaper XL,一定程度上解决了这些问题并且可以在部分场景实现动漫风格。

1
message-square
0

可以一边开车一边打黑猴

以后买车也要比3DMark跑分了

3
message-square
1

由于Hidream i1速度较慢以及部分提示词光照有问题,改用Cosmos Predict2 2b作为主力绘画模型,不过细节较多的场景生成效果有一定问题。

1
message-square
1

不久前淘了块 Silicom PE3100G2DQIRM
这个奇妙的网卡用的是一块 Intel FM10840 交换机芯片,有两个100G口,可以拆成8个25G,外加4个PCIe 3.0 x8连PC。
没错你的PCIe槽要支持8+8拆分,不然只能识别到一个x8。而且单个x8只能50G,不清楚是不是有什么骚操作能聚合成100G。
最近有空研究一下整点花活:比如LED跑马灯。虽然灯是RGB灯珠但是目测还是只能点几种有限的颜色。
以及可以看看网口眼图?
结论:软件支持有限,当玩具折腾可以,日用还是算了。

5
message-square
6

2
message-square
0