在上一篇文章中,我们了解了 OpenCode 的整体架构。现在,让我们深入到最核心的部分:Agent Loop(会话循环)。
这是 AI Agent 的"心脏",理解它,就理解了 Agent 为什么能自主完成任务。
什么是 Agent Loop?
传统的 Chat 应用是单轮交互:
用户发消息 → AI 回复 → 结束
2025/1/20...大约 8 分钟
在上一篇文章中,我们了解了 OpenCode 的整体架构。现在,让我们深入到最核心的部分:Agent Loop(会话循环)。
这是 AI Agent 的"心脏",理解它,就理解了 Agent 为什么能自主完成任务。
传统的 Chat 应用是单轮交互:
用户发消息 → AI 回复 → 结束
在前面的文章中,我们了解了 OpenCode 如何与 LLM 交互、如何管理工具、如何通过 MCP 扩展能力。但有一个问题我们还没有深入讨论:
OpenCode 是如何支持这么多不同的 LLM 提供商的?
从 OpenAI 到 Anthropic,从 GitHub Copilot 到 AWS Bedrock,从 Google Vertex 到本地 Ollama——每个提供商都有不同的 API 格式、认证方式、参数规范。OpenCode 是如何优雅地处理这些差异的?
答案就在 Provider 抽象层。