Deepseek本身从32B到671B都部署着玩了一遍,接下来准备再看看RAG了,站长的a small step to RAG已经看了,实操环节有什么demo推荐吗 😘
9
我的建议是就搜github上star最多的RAG部署就行。等磨练几个自己需要的场景后,就有个具体认知了,这时候应该就知道自己需要什么样的RAG了
谢谢,我去看看~
Limitee2 months agodify也挺好的 配合bgem3
谢谢 😘
William70042 months ago考虑方便部署,创建知识库可以用anythingllm,只是为了方便在对话中引用可用用openwebui。
谢谢,正好有openwebui的部署,这就去研究下
atlantis4142 months agoanythingllm 你们用下来效果好吗? 试下来答非所问或者就是问了很明显的答案但是就是答不出来.
William70042 months ago可能要用支持多语言的嵌入模型,我目前还没有具体对比
😢 一个月以后的回复:BGE-M3+QwQ32B,AnythingLLM感觉不太行:一个16K的文档,AnythingLLM能把他citation出来,但是就是找不到文档里面的详细答案,感觉像没把上下文丢给底座LLM一样。同样的配置在OpenWebUI里边就是又快又好