可能是刷分了或者没有对这类任务优化,还是要等更多实测才能确定。
可以一步到位上魔改u(doge)。用桌面u的话看具体的预算节省幅度再决定。
楼主最近开始关注卡片电脑了吗?我最近也了解了一些。树莓派虽然“生态”较好,但做嵌入式linux有内核和驱动开发需求且注重成本控制,通常都用瑞芯微和全志等品牌的。加扩展板用于AI应用的话算力和生态比不上价格接近的香橙派aipro的20tops版本以及英伟达jetson。
有人分析过这类设计,只是处理器数量较多,算力密度没有优势。
长上下文通常用于输入较长的参考资料,用于翻译的话输出长度不够。长上下文,成本更低以及同时在文本和多模态任务有较好表现都是优势。后者此前基本只有闭源模型达到。
两个模型架构不同。demo上的是Lumina-Image-2.0。
应该叫做Lumina-mGPT 2.0,Lumina-Image-2.0是另一个模型,不过开发方相同,应该是改成了带图像编辑的版本。算是有对标Gemini2.0 Flash的图像生成和编辑功能的开源方案了。
不过现在小参数量有独显的话更偏向推理模型。不确定扩散语言模型在原理上能否实现推理模型。
提升了就达到正常水平了,之前的表现跟cpu方案差不多。
llama.cpp现在都还没有开始引入asr/tts模型 🤣
llm用iq4_xs等较小的q4量化,显存为参数量一半多1到2g就行。绘画模型和视频模型相对难计算。
英特尔应该是偏向高性价比甜品卡的路线,可以避免与其它厂商直接竞争。b580 24g最近没有消息,比较奇怪,现在2080ti 22g涨价,b580 24g能出来的话就没有竞品了。
晚上不会断,只有没电费的时候会断电。上电能自动重启并且都保留了文件系统快照。
我的主力机是笔记本电脑,接触垃圾佬领域和Linux后为了尝试在低配设备运行Linux且考虑到宿舍的空间问题,设备选择上偏向瘦客户机或迷你主机。先后入手了j1800版本的升腾c92和一台使用j4125的迷你主机。
实测发现j1800适合轻量化桌面环境,网页性能较差,而j4125可以满足主流桌面环境和网页的性能需求,又考虑到缩略图生成速度的问题,经过几轮调整最终在j1800主机安装有较好的Xfce桌面外观的kail linux并作为客户机(使用xrdp),j4125主机安装linux mint作为局域网服务器提供远程桌面、文件服务器(sftp)、媒体服务器(docker版jellyfin)和其它网页服务(也使用docker)
不确定后续是否有其它版本,如果只有这两个或者其它版本也比较小就说明qwen系列转向小参数量了,能逐步成为gemini2.0等低成本模型的开源替代。
我前段时间也用cline搭配deepseek r1做了一个太阳系模拟,并且添加了背景、模拟速度调整和选中星球时摄像机跟随
感觉有点抽象,jetson是比较旧的型号了,并且多个互联也不如低压笔记本电脑显卡方便。
看来Gemini-2.0-Flash的图片编辑功能算是比较完善了。之前GPT4o等模型没有添加编辑功能,在图片编辑应用中表现不好。有完善的编辑功能和上下文的话也可以用于story board。
非推理模型除了Claude都不太适合写代码,并且Gemma3在同参数量模型中应该只有多模态能力比较有用,但也比不上Align DS V等开源多模态推理模型。
主要是给16g显存的用户更多选择,但相比DeepSeek-R1-Distill-Qwen-14B只有代码能力有明显优势
换了散热片还是不行,最后还是换了小尺寸的风扇,不影响相邻的插座。用12v电压声音也比较小,就不调电压了。
由于我的笔记本电脑原装电源最近不太稳定,前段时间入了一个氮化镓电源,体积有优势但散热差。就入了两个风扇,用强力双面胶固定,供电使用usb升压线,由于风扇最大功率下噪声较大就改为两个串联了,电源也能跑满额定功率。