找了很久cody+ollama的配置都没有成功,后来找到一个vscode的配置:

{
    "editor.inlineSuggest.suppressSuggestions": true,
    "workbench.startupEditor": "none",
    "cody.autocomplete.advanced.provider": "experimental-ollama",
    "cody.autocomplete.advanced.serverEndpoint": "http://172.16.1.54:11434",
    "cody.autocomplete.experimental.ollamaOptions": {
        "url": "http://172.16.1.54:11434",
        "model": "qwen2.5-coder:latest"
    },
    "cody.dev.models": [{
        "provider": "ollama",
        "model": "qwen2.5-coder:latest",
        "apiEndpoint": "http://172.16.1.54:11434",
    }],
    "editor.minimap.enabled": false,
    "cody.experimental.ollamaChat": true,
    "redhat.telemetry.enabled": false,
    "cody.autocomplete.languages": {
        "*": true
    },
    "extensions.ignoreRecommendations": true,
    "terminal.integrated.enableMultiLinePasteWarning": "never",
    "explorer.confirmDelete": false,
}

使用该配置,再回到cody界面进行配置时,就会发现多了ollama的选项。此时就可以通过ollama来使用本地大模型了。在这里做一个记录。

使用时替换掉配置中的url和相应部分即可。

Logo

腾讯云面向开发者汇聚海量精品云计算使用和开发经验,营造开放的云计算技术生态圈。

更多推荐