Skip to content

Codex 配置

适用场景

如果你的分组平台是 OpenAI,推荐优先按这里的方式配置 Codex。

配置目录

macOS / Linux

text
~/.codex

如果目录不存在,可以先创建:

bash
mkdir -p ~/.codex

Windows

text
%userprofile%\.codex

可以按 Win + R 后输入上面的路径打开;如果目录不存在,请先手动创建。

标准配置

这是默认推荐的 Codex CLI 配置方式,对应普通 /responses 链路。

文件 1:config.toml

macOS / Linux

路径:

text
~/.codex/config.toml

内容:

toml
model_provider = "OpenAI"
model = "gpt-5.4"
review_model = "gpt-5.4"
model_reasoning_effort = "xhigh"
disable_response_storage = true
network_access = "enabled"
windows_wsl_setup_acknowledged = true
model_context_window = 1000000
model_auto_compact_token_limit = 900000

[model_providers.OpenAI]
name = "OpenAI"
base_url = "https://your-domain/api/v1"
wire_api = "responses"
requires_openai_auth = true

Windows

路径:

text
%userprofile%\.codex\config.toml

内容与上面一致。

文件 2:auth.json

macOS / Linux

路径:

text
~/.codex/auth.json

内容:

json
{
  "OPENAI_API_KEY": "sk-xxxx"
}

Windows

路径:

text
%userprofile%\.codex\auth.json

内容与上面一致。

WebSocket 配置

如果你希望 Codex 走 Responses WebSocket v2,可以使用弹窗里对应的 WebSocket 版本配置。

文件 1:config.toml

macOS / Linux

路径:

text
~/.codex/config.toml

内容:

toml
model_provider = "OpenAI"
model = "gpt-5.4"
review_model = "gpt-5.4"
model_reasoning_effort = "xhigh"
disable_response_storage = true
network_access = "enabled"
windows_wsl_setup_acknowledged = true
model_context_window = 1000000
model_auto_compact_token_limit = 900000

[model_providers.OpenAI]
name = "OpenAI"
base_url = "https://your-domain/api/v1"
wire_api = "responses"
supports_websockets = true
requires_openai_auth = true

[features]
responses_websockets_v2 = true

Windows

路径:

text
%userprofile%\.codex\config.toml

内容与上面一致。

文件 2:auth.json

json
{
  "OPENAI_API_KEY": "sk-xxxx"
}

字段说明

下面这些字段来自站内弹窗的默认配置:

字段说明
model_provider = "OpenAI"让 Codex 使用 OpenAI 风格 provider
base_url你的 KToken 外部访问地址,通常填 https://your-domain/api/v1
wire_api = "responses"明确走 Responses 协议
requires_openai_auth = true让客户端从 auth.json 读取 OpenAI API Key
supports_websockets = true仅 WebSocket 版本需要
responses_websockets_v2 = true仅 WebSocket v2 版本需要
disable_response_storage = true对应弹窗默认值
model_reasoning_effort = "xhigh"对应弹窗默认值

base_url 应该填什么

按项目里 UseKeyModal.vue 的生成逻辑,OpenAI 平台给 Codex 的 base_url 会直接使用当前站点的 API 基础地址。

典型值:

text
https://your-domain/api/v1

不要在这里手动再追加 /responses/backend-api/codex/responses/v1/responses,这些由客户端的 provider 行为和服务端路由共同决定。

如何选择普通版还是 WebSocket 版

  • 只想快速可用,优先用“标准配置”
  • 需要更完整的 Responses WebSocket v2 行为时,再用“WebSocket 配置”
  • 如果你依赖 previous_response_id 续写,优先考虑 WebSocket 版

关联接口

Nginx 反向代理注意项

如果你通过 Nginx 反向代理 KToken 并给 Codex 使用,需要在 http 块中开启:

nginx
underscores_in_headers on;

原因是 Nginx 默认会丢弃带下划线的请求头,这会影响多账号环境下的粘性会话能力。

注意事项

  • 本页内容优先对齐站内 UseKeyModal.vue 的实际输出
  • 当前示例里的模型默认写的是 gpt-5.4,如果你站内后续调整了弹窗默认模型,文档也应同步更新
  • 如果你的部署并不是挂在 /api/v1 下,请把 base_url 改成你自己的真实外部地址