Appearance
Codex 配置
适用场景
如果你的分组平台是 OpenAI,推荐优先按这里的方式配置 Codex。
配置目录
macOS / Linux
text
~/.codex如果目录不存在,可以先创建:
bash
mkdir -p ~/.codexWindows
text
%userprofile%\.codex可以按 Win + R 后输入上面的路径打开;如果目录不存在,请先手动创建。
标准配置
这是默认推荐的 Codex CLI 配置方式,对应普通 /responses 链路。
文件 1:config.toml
macOS / Linux
路径:
text
~/.codex/config.toml内容:
toml
model_provider = "OpenAI"
model = "gpt-5.4"
review_model = "gpt-5.4"
model_reasoning_effort = "xhigh"
disable_response_storage = true
network_access = "enabled"
windows_wsl_setup_acknowledged = true
model_context_window = 1000000
model_auto_compact_token_limit = 900000
[model_providers.OpenAI]
name = "OpenAI"
base_url = "https://your-domain/api/v1"
wire_api = "responses"
requires_openai_auth = trueWindows
路径:
text
%userprofile%\.codex\config.toml内容与上面一致。
文件 2:auth.json
macOS / Linux
路径:
text
~/.codex/auth.json内容:
json
{
"OPENAI_API_KEY": "sk-xxxx"
}Windows
路径:
text
%userprofile%\.codex\auth.json内容与上面一致。
WebSocket 配置
如果你希望 Codex 走 Responses WebSocket v2,可以使用弹窗里对应的 WebSocket 版本配置。
文件 1:config.toml
macOS / Linux
路径:
text
~/.codex/config.toml内容:
toml
model_provider = "OpenAI"
model = "gpt-5.4"
review_model = "gpt-5.4"
model_reasoning_effort = "xhigh"
disable_response_storage = true
network_access = "enabled"
windows_wsl_setup_acknowledged = true
model_context_window = 1000000
model_auto_compact_token_limit = 900000
[model_providers.OpenAI]
name = "OpenAI"
base_url = "https://your-domain/api/v1"
wire_api = "responses"
supports_websockets = true
requires_openai_auth = true
[features]
responses_websockets_v2 = trueWindows
路径:
text
%userprofile%\.codex\config.toml内容与上面一致。
文件 2:auth.json
json
{
"OPENAI_API_KEY": "sk-xxxx"
}字段说明
下面这些字段来自站内弹窗的默认配置:
| 字段 | 说明 |
|---|---|
model_provider = "OpenAI" | 让 Codex 使用 OpenAI 风格 provider |
base_url | 你的 KToken 外部访问地址,通常填 https://your-domain/api/v1 |
wire_api = "responses" | 明确走 Responses 协议 |
requires_openai_auth = true | 让客户端从 auth.json 读取 OpenAI API Key |
supports_websockets = true | 仅 WebSocket 版本需要 |
responses_websockets_v2 = true | 仅 WebSocket v2 版本需要 |
disable_response_storage = true | 对应弹窗默认值 |
model_reasoning_effort = "xhigh" | 对应弹窗默认值 |
base_url 应该填什么
按项目里 UseKeyModal.vue 的生成逻辑,OpenAI 平台给 Codex 的 base_url 会直接使用当前站点的 API 基础地址。
典型值:
text
https://your-domain/api/v1不要在这里手动再追加 /responses、/backend-api/codex/responses 或 /v1/responses,这些由客户端的 provider 行为和服务端路由共同决定。
如何选择普通版还是 WebSocket 版
- 只想快速可用,优先用“标准配置”
- 需要更完整的 Responses WebSocket v2 行为时,再用“WebSocket 配置”
- 如果你依赖
previous_response_id续写,优先考虑 WebSocket 版
关联接口
- 标准 Responses:/openai/responses
- Responses WebSocket:/openai/responses-websocket
Nginx 反向代理注意项
如果你通过 Nginx 反向代理 KToken 并给 Codex 使用,需要在 http 块中开启:
nginx
underscores_in_headers on;原因是 Nginx 默认会丢弃带下划线的请求头,这会影响多账号环境下的粘性会话能力。
注意事项
- 本页内容优先对齐站内
UseKeyModal.vue的实际输出 - 当前示例里的模型默认写的是
gpt-5.4,如果你站内后续调整了弹窗默认模型,文档也应同步更新 - 如果你的部署并不是挂在
/api/v1下,请把base_url改成你自己的真实外部地址