想要一个安全MCP沙箱环境吗?不用自己搭建,来看这个项目——llmbasedos
llmbasedos 使用 Arch Linux 裁剪构成,然后内部将 Arch 的各种功能(文件系统,邮件,同步,代理等)包装成MCP服务。连接后即可调用。
当然,这其实就是个装了东西的操作系统。你需要用虚拟机或者用物理机从iso启动这个操作系统才能用。
地址:github.com/iluxu/llmbasedos …

Qwen 刚刚又发布了 4 个模型,WorldPM-72B,WorldPM-72B-HelpSteer2 ,WorldPM-72B-RLHFLow,WorldPM-72B-UltraFeedback
不过这些模型都是偏好建模模型,你可以简单理解为给其他模型的回答打分的模型。最大的用途是用来监督学习的。官方也说使用这个训练比从0开始训练效果要好。
地址:huggingface.co/Qwen/WorldPM-72B 还有论文:arxiv.org/pdf/2505.10527

还记得我前天发的那个 Google 的能自己发现算法的 AlphaEvolve 吗?开源版本来了!
昨天 Google 刚刚发布了论文,今天开源实现就有了——OpenAplha_Evolve
感兴趣的同学可以自己部署试试,看看是不是真的能发明新的算法哈哈
地址:github.com/shyamsaktawat/OpenAlpha_Evolve

BitNet 模型又增加了,来看 TII 的 Falcon-E-1B/3B
据官方说这个模型性能与 Qwen3-1.7B 相当,但内存占用仅有 Qwen3-1.7B 的 1/4

Qwen3 刚刚在新出的 MEDIC-Benchmark 上的医疗问答排行榜上得了个第一和第二,另外前五名也都是Qwen和DeepSeek
排行榜地址:huggingface.co/spaces/m42-health/MEDIC-Benchmark

阿里的移动端多模态大模型APP(完全开源且使用移动端本地的模型哈)——MNN 又更新了!现在支持 Qwen-2.5-omni-3b 和 7b 了。
这个APP搭配多模态模型可以支持 文本到文本、图像到文本、音频到文本和文本到图像生成。并且速度也可以。想学习移动端大模型应用开发的可以参考试试
地址:github.com/alibaba/MNN/blob/master/apps/Android/MnnLlmChat/README.md

[https://zhuanlan.zhihu.com/p/1905008654861734139] (这是我在知乎发的帖子转载过来,所以格式和图片有所丢失)
为什么选择本地AI与Copilot?
数据隐私:所有数据处理都在本地进行,无需担心笔记内容上传云端。 离线使用:一旦设置完成,部分功能可在无网络环境下使用。…
来看新模型——INTELLECT-2
这个模型最大的特点是,他是使用全球社区免费的 GPU 训练的,而为了实现这一点,使用了 prime-rl 框架,这是个分布式强化学习框架,并且集成了魔改版 GRPO,用于改善训练稳定性。
不过,这个模型并不是从0训练的,而是基于QWQ-32B。而它的得分,跟QWQ-32B差不多…所以炼了个寂寞?可能 prime-rl 这个框架更有意义一些。
地址: huggingface.co/PrimeIntellect/INTELLECT-2 技术报告:storage.googleapis.com/public-technical-paper/INTELLECT_2_Technical_Report.pdf…

微软发了篇新论文 ARTIST (Agentic Reasoning and Tool Integration in Self-improving Transformers, 使用自主推理与工具的自改进 Transformer 框架)
我刚看完, 直接用大白话给大家总结下论文讲了啥
这个框架集成了外部工具调用和自主推理, 来提升效果. 并且推理可以多步骤. 得到结果后进行强化学习, 不断反刍, 最终效果提升高达 22%.

包含Q071, Q074, Q075, Q076, Q079五个QDF代号对应的CPU
这几款CPU在闲鱼上价格比较便宜,可以为大家玩机提供一个参考

大家好, 我来更新了.
之前的旧帖 https://cyberbus.net/post/260
之前(v0.3.3)版本视频演示: https://www.bilibili.com/video/BV1o49VYgE6e
项目地址: https://github.com/ThisSeanZhang/landscape
当前界面截图…

如果在苹果设备上用 MLX 量化模型的同学,务必试试新的 DWQ 量化。从数据上看 4bit-dwq 量化的困惑度甚至比老的 6bit 量化还低。
Qwen3-30B-A3B-4bit-DWQ 量化版本的MLX官方地址,17GB 内存就能跑:huggingface.co/mlx-community/Qwen3-30B-A3B-4bit-DWQ

HiDream i1 full在3070m上生成1920x1088分辨率的图片要12分钟,dev版本要3.5分钟,fast版本要2分钟,因结构表现下降不推荐使用。目前TeaCache还没有支持。
生成效果方面,HiDream i1 dev效果优于Flux.1 dev,但细节和光照表现还是明显低于HiDream i1 full,后者生成效果也接近比较优秀的闭源绘画模型。考虑后续有TeaCache支持的速度情况,个人还是偏向full版本。
HiDream i1发布有一段时间了,在这个适合测试是因为刚开始看到光照不如Pixelwave FLux.1 dev,但使用后者遇到细节问题,就决定尝试HiDream i1。个人认为综合光照表现,HiDream i1仍然是更好的选择。
