方案一:LM Studio部署 打开下面链接下载LM Studio,支持Windows、Mac和Linux 👾 LM Studio - Discover and run local LLMs 点击发现按钮,搜索Deepseek 会看到很多搜索结果和模型详情,选择适合本地算力的模型,点击Download,关闭弹窗,回到聊天界面 在上方选择要加载的模型,选中后使用默认参数,点击加载 然后就可以愉快的跟本地DeepSeek聊天了 可以看到输出速度和总共输出的token数量 LM Studio提供openai格式的api接口,点击聊天按钮下面的term图标 可以看到支持的API路由等等信息 方案二:...