o3, o4-mini, o4-mini-high 评测来啦!
KCORES 大模型竞技场为大家带来昨晚发布的 OpenAI o3, o4-mini, o4-mini-high 大模型编程能力测试!
直接说结论:
OpenAI 可能要掉出第一梯队了…

最近想配一台7950x的代码机,发现移动端的7945hx实际就是桌面的7950x降频移植。
神奇的是这玩意用46%的功耗跑出了桌面端7950X 91%的多核性能。
既然如此,买旗舰U降频上丐版,从电源、主板、散热上又可以扣出一大波预算岂不是很香 😂
来啦!GPT-4.1 测评!
KCORES 大模型竞技场为大家带来 GPT-4.1 测评!直接说结论:
Gemini-2.5-Pro 仍然领先榜首 GPT-4.1 大概与 Qwen-2.5-Max 相当, 甚至在我的测试集里面是不如 OpenAI-O3-mini-high 和 OpenAI-o1 的 GPT-4.1-mini 则与老的 DeepSeek-V3 差不多, 或者说, 是一个价格便宜的 GPT-4.5 至于 GPT-4.1-nano, 甚至打不过文心一言, 就…别用了吧…

什么才是真开源.git
DeepSeek 刚刚新建了文件夹,准备开源内部使用的推理引擎。看描述是一个魔改版 vLLM,现在 DeepSeek 决定将这部分代码开源出来回馈社区
我最喜欢最后这句话 “目标是使社区从第一天起就能实现最先进的(SOTA)支持”
人和人的追求是不一样的,公司和公司也是 …

速报——智谱好像要发 GLM4
看上去模型大小分32B和9B,然后不同参数量大小还有衍生模型,比如 GLM-4-32B-0414 是基座模型,GLM-4-32B-Chat-0414 是 Chat 模型,GLM-Z1-32B-0414 是思考模型,GLM-4-Z1-Rumination-32B-0414 (Rumination 反刍/沉思?不知道是不是前几天那个沉思),GLM-4V-9B 视觉多模态。

想在 iPhone 上运行大模型吗?来看看这个——LLMFarm
这个 app 可以运行在 苹果全家桶上,无论是 iOS 还是 MacOS。并且支持RAG。由于它其实是 llama.cpp 的魔改,所以几乎支持所有设备能装得下的模型。
地址:github.com/guinmoon/LLMFarm

华硕的 5090 上面装了加速度计?
我看到个截图显示 ASUS ROG Astral LC GeForce RTX™ 5090 的 GPU TWEAK 上竟然显示了显卡是否安装倾斜???
话说回来,如果是其他角度安装的MATX机箱或者家里桌子/地板本身就有点倾斜咋整,这不是折磨死强迫症哈哈哈
(图来自reddit用户:iseebirdsfly) …

Radxa 搞了个双口 2.5G 的树莓派5 HAT 扩展板
其实算是网卡啦,芯片使用 Realtek RTL8125B(这个 IC 在 Raspberry Pi OS 上自带驱动。接到树莓派上就是个双口网卡,想搭建软路由需要在树莓派中设置),另外PCIe交换芯片使用 ASM2806 ,所以板子上还有个M.2 的口可以插 2230-2280 长度的 NVMe (22110当然也行就是会凸出来一块)
供电则是提供了单独的12V插座,或者使用树莓派的GPIO也行(压力来到了C口)

Spieed 搞了个集束树莓派板子 😇
NanoCluster ,迷你&强大“手持”集群 10 英寸迷你机架每层可容纳 2x4 个 NanoCluster - 面积相当于 56x CM4/5 模块,总计 224 个核心,体积仅相当于一个比萨盒!可能是世界上最密集的 homelab 集群! 可能是世界上最密集的集群! 本周末或下周一上市!
只需要在选择模型的时候,点击 Manage Models… 然后点击相应的提供商,输入 api key ,就会显示可用的模型列表,打勾即可添加。
