我的笔记本型号是Thinkpad T14 gen1 R7 PRO 4750U 八核十六线程,内存48G,使用的是archlinux,ollama(cpu only),我发现使用ollama run的时候是对于4B(上下)这种类型的模型是可以流畅对话的,但是当用opencoode或者zed等接入ollama,进行对话时,响应速度慢到不可用,因为我希望大模型能够在有限条件下直接操作计算机,有人遇到过类似的困惑吗,是怎么解决的?
我的笔记本型号是Thinkpad T14 gen1 R7 PRO 4750U 八核十六线程,内存48G,使用的是archlinux,ollama(cpu only),我发现使用ollama run的时候是对于4B(上下)这种类型的模型是可以流畅对话的,但是当用opencoode或者zed等接入ollama,进行对话时,响应速度慢到不可用,因为我希望大模型能够在有限条件下直接操作计算机,有人遇到过类似的困惑吗,是怎么解决的?
它用的什么模型、多大的上下文?你的内存用了多少?
我有一个想法:你用Wireshark抓你的zed和ollama的通信内容,看看zed到底给它塞了些啥?