不久前淘了块 Silicom PE3100G2DQIRM。
这个奇妙的网卡用的是一块 Intel FM10840 交换机芯片,有两个100G口,可以拆成8个25G,外加4个PCIe 3.0 x8连PC。
没错你的PCIe槽要支持8+8拆分,不然只能识别到一个x8。而且单个x8只能50G,不清楚是不是有什么骚操作能聚合成100G。
最近有空研究一下整点花活:比如LED跑马灯。虽然灯是RGB灯珠但是目测还是只能点几种有限的颜色。
以及可以看看网口眼图?
结论:软件支持有限,当玩具折腾可以,日用还是算了。

Unsloth 刚刚发布了一个强化学习小教程
教程从吃豆人游戏触发,然后简单介绍 RLHF, PPO 再到 GRPO, 然后告诉你如何用 GRPO 开始训练,是个不错的入门小文章。
地址: docs.unsloth.ai/basics/reinforcement-learning-guide

前两天逛海鲜市场的时候刷到了一台标故障的SX6012,卖家猜测是系统问题,想着价格不高,就下单淘回来康康能不能救砖 今天拿到东西之后第一时间先上电看了一下,机器故障灯、风扇指示灯和PSU2指示灯持续飘红;拆开看了一下,机器只有一个电源模块,风扇做了降速处理(拔了黄线),目测没看出来其他明显烧毁的元件(肉眼能看出来故障就见鬼了啊喂);恢复机器插上console线重新上电后,发现机器console口压根没输出,机器板子上的led灯也没啥变化,暂时没啥折腾的头绪力(叹

昨天的 GCP 全球宕机事故报告出了,给大家解读下。
从 Google 的报告来看,是给全球的API管理系统下发了一个非法的配额策略(比如1小时只能请求1次这种离谱的策略),于是所有外部请求都403了(因为按照策略超请求配额了,于是403拒绝),工程师发现问题后立刻将所有接收到非法配额的API的配额系统全都绕过了,让这些API不检查配额策略直接给用户服务。
但是,但是来了,us-central1 地区的配额数据库过载了 (这里猜测工程师发现手抖应用错了策略,于是打算先恢复 us-central1 (在美国爱荷华州 Council Bluffs), 紧急情况下想都没想直接清除掉数据库中的旧策略,然后写入新策略,然后一看怎么还没生效,反而旧策略还在应用,检查后发现旧策略在缓存中,于是直接清空缓存!缓存失效,请求全部打在了数据库上,数据库就炸了…). 最终 us-central1 花费了更多时间才恢复。而其它区域则吃了us-central1的堑,使用逐步逐出缓存的方法,这也可能是为什么2小时才恢复的原因。
以上纯基于报告的猜测哈。感兴趣的同学还是请看原本的事故报告,写得是事无巨细: …

Intel 展位
首先还是最重磅的, Intel 把还没正式发布的 Arc Pro B60 拿过来了, 24G GDDR6, 456 GB/s, TDP 200 W. 从贴纸看这个还是工程样品. 我跟现场的工作人员说能否拔下来多拍几张, 结果被拒绝了, 因为没有螺丝刀. 机器搭配的是平平无奇 DDR5 4800.

一张图搞定结构化3D建模——PartCrafter
这是一个来自北大+字节跳动+卡耐基梅隆大学的联合项目
简单来说,这个项目实现了从单张RGB图像直接生成多个语义部件的结构化3D模型,彻底告别了传统"先分割再重建"的繁琐流程,提供:
- 端到端生成:无需预分割输入,一步到位生成完整的部件化3D场景
- 组合式潜在空间:每个3D部件用独立的潜在token集合表示,支持灵活编辑…
Mistral 刚又发了个小模型—— Magistral-Small-2506
这是个 Mistral Small 3.1 微调的版本,增加了推理能力的疯狂RL版本。这个大小很适合单卡 32G 跑。至于分数嘛… 跟 Qwen3-4B 差不多。GPQA 会高一些。但AIME甚至没有Qewn3-4B 高。
模型地址:huggingface.co/mistralai/Magistral-Small-2506 Unsloth 量化版本地址:huggingface.co/unsloth/Magistral-Small-2506-GGUF

苹果直接把 WWDC2025 上说的 apple/container 开源了,这个项目使用 Swift 编写,并且针对 Apple Silicon 进行了优化。项目是 Apache-2.0 协议
值得注意的是它是 OCI 兼容的,因此能直接用 Docker 镜像。
项目地址:github.com/apple/container 使用教程:github.com/apple/container/blob/main/docs/how-to.md

淘宝1800买的s8026准系统,200换了1300w双电,1900店内配了7642。
之前的相关帖子: https://cyberbus.net/post/150
CPU
- bios默认设置nps为auto,L3 as numa为关闭。需要改为nps4,L3 as numa打开,这样才能激活numa对系统的可见性,否则运行多核程序会出现跨ccd卡死的问题(看有人说nps1,会不会更好?) …
考虑到提供了Enhance a Video等功能且支持模块化和量化后的VACE模型,虽然显存优化差一些但还是在Comfyui改用WanVideoWrapper而非官方工作流进行部署。
使用文生视频时,8g显存能生成33帧1152x640分辨率的视频,在3070m用时约26分钟。
由于旧版Deepseek R1前端开发能力一般,而GitHub Pages以及这一页面需要展示的网页的开发对模型的前端开发要求较高,因此在Deepseek R1 0528发布后才开发这部分项目。

再来看小米发布的第二个新模型——MiMo-VL-7B-RL
这是个视觉模型,主打视觉推理,宣传也是在7B这个规模达到了领先,另外一个亮点是,它支持UI识别,因此可以当作各种界面操作MCP的前置模型。
由于官方没有放出在线使用地址,以及视觉测试我基本都没什么感知,所以感兴趣的朋友只能自己试试了。
地址:huggingface.co/XiaomiMiMo/MiMo-VL-7B-RL …

“昨天的我狙击了今天的你”
小米刚刚发布了两个新模型,我来给大家分别介绍,这个是第一个—— MiMo-7B-RL-0530
这是一个文本推理模型,跟 DeepSeek-R1 是一个类型。小米宣称这个新模型在 7B 规模这个是目前最强的模型。
官方比较的也是之前 DeepSeek-R1 蒸馏的 Qwen2.5-7B, 甚至说 AIME24 数学测试超过了旧版 R1,估计是也没料到 28 号 DeepSeek 发布了新蒸馏的 Qwen3-8B。 我把数据整理到一起给大家看。结论就是——没打过 DeepSeek-R1-0528-Distilled-Qwen3-8B. …
