用opencode或者zed或者vscode插件接入ollama响应慢的问题

我的笔记本型号是Thinkpad T14 gen1 R7 PRO 4750U 八核十六线程,内存48G,使用的是archlinux,ollama(cpu only),我发现使用ollama run的时候是对于4B(上下)这种类型的模型是可以流畅对话的,但是当用opencoode或者zed等接入ollama,进行对话时,响应速度慢到不可用,因为我希望大模型能够在有限条件下直接操作计算机,有人遇到过类似的困惑吗,是怎么解决的?

它用的什么模型、多大的上下文?你的内存用了多少?

下面是直接从终端运行ollama run deepseek-coder:6.7b模型的效果,立刻响应,给出回答。

下面是用zed编辑器接入ollama deepseek-coder:6.7b的响应,从提出问题到给出回答,耗时2min多

怎么会这样呢 :face_with_monocle:

我有一个想法:你用Wireshark抓你的zed和ollama的通信内容,看看zed到底给它塞了些啥?