vscode+ollama(本地部署)+cody实现本地代码助手
使用该配置,再回到cody界面进行配置时,就会发现多了ollama的选项。此时就可以通过ollama来使用本地大模型了。
·
找了很久cody+ollama的配置都没有成功,后来找到一个vscode的配置:
{
"editor.inlineSuggest.suppressSuggestions": true,
"workbench.startupEditor": "none",
"cody.autocomplete.advanced.provider": "experimental-ollama",
"cody.autocomplete.advanced.serverEndpoint": "http://172.16.1.54:11434",
"cody.autocomplete.experimental.ollamaOptions": {
"url": "http://172.16.1.54:11434",
"model": "qwen2.5-coder:latest"
},
"cody.dev.models": [{
"provider": "ollama",
"model": "qwen2.5-coder:latest",
"apiEndpoint": "http://172.16.1.54:11434",
}],
"editor.minimap.enabled": false,
"cody.experimental.ollamaChat": true,
"redhat.telemetry.enabled": false,
"cody.autocomplete.languages": {
"*": true
},
"extensions.ignoreRecommendations": true,
"terminal.integrated.enableMultiLinePasteWarning": "never",
"explorer.confirmDelete": false,
}
使用该配置,再回到cody界面进行配置时,就会发现多了ollama的选项。此时就可以通过ollama来使用本地大模型了。在这里做一个记录。
使用时替换掉配置中的url和相应部分即可。
更多推荐
所有评论(0)