在前面的文章中,我们了解了 OpenCode 如何与 LLM 交互、如何管理工具、如何通过 MCP 扩展能力。但有一个问题我们还没有深入讨论:
OpenCode 是如何支持这么多不同的 LLM 提供商的?
从 OpenAI 到 Anthropic,从 GitHub Copilot 到 AWS Bedrock,从 Google Vertex 到本地 Ollama——每个提供商都有不同的 API 格式、认证方式、参数规范。OpenCode 是如何优雅地处理这些差异的?
答案就在 Provider 抽象层。
2025/1/20...大约 11 分钟