OpenClaw 凭据配置实战指南:从明文到 SecretRef
从配置文件结构到 SecretRef 三种来源,再到凭据验证命令,本文以实战视角完整覆盖 OpenClaw 凭据配置的各个环节。
从配置文件结构到 SecretRef 三种来源,再到凭据验证命令,本文以实战视角完整覆盖 OpenClaw 凭据配置的各个环节。
OpenClaw 的 SecretRef 机制通过引用分离实现了配置文件级别的凭据保护,但运行时内存中仍存在明文凭据。本文从凭据视角完整分析 SecretRef 的安全边界与实际风险。
提示链(Prompt Chaining)将复杂任务分解为多个串行步骤,每个步骤用独立提示词处理。适合场景明确、流程固定的任务,如翻译、摘要生成等。开发者预先定义流程,模型执行每一步
Harness 是包裹在 AI 模型周围的基础设施层。OpenAI 用它 5 个月构建 100 万行代码,Stripe 的 Minions 每周合并 1000+ PR,Cursor 用它让 1000+ agents 协作构建浏览器。本文整理核心文章要点,给出实践建议
AI Agent 的本质是 LLM 推理 + 环境上下文 + Skills/MCP 执行。本文厘清凭据安全的核心矛盾——LLM 能看到运行时的一切,以及本质解法:执行层隔离。同时澄清凭据与 Skills 的概念边界,提出凭据安全的三个判断维度。