config.toml w OpenAI Codex: Kompletny przewodnik

Codex działa out-of-the-box, ale pełna kontrola wymaga znajomości config.toml. Ten plik decyduje o wszystkim — od modelu, przez uprawnienia, po eksperymentalne funkcje.

  1. Warstwy konfiguracji
  2. Kluczowe ustawienia
  3. Feature flags
  4. Profile: różne konfiguracje
  5. Troubleshooting

Warstwy konfiguracji

Codex czyta konfigurację z wielu źródeł. Wyższa pozycja = wyższy priorytet:

Warstwy konfiguracji Codex (od najwyższego priorytetu)
PriorytetŹródłoZastosowanie
1CLI flags (--config)Jednorazowe overridy
2Profile (--profile)Zestaw ustawień dla kontekstu
3.codex/config.tomlKonfiguracja projektu
4~/.codex/config.tomlTwoje domyślne ustawienia
5/etc/codex/config.tomlSystem-wide defaults
6Built-in defaultsFabryczne ustawienia

Konfiguracja projektu (.codex/config.toml) działa tylko w zaufanych projektach — Codex pyta o trust przy pierwszym uruchomieniu.

Kluczowe ustawienia

# ~/.codex/config.toml

# Model domyślny
model = "gpt-5.2"

# Polityka zatwierdzania
# "on-request" = pyta gdy potrzebne
# "untrusted" = pyta zawsze
# "never" = nigdy nie pyta (ostrożnie!)
approval_policy = "on-request"

# Tryb sandbox
# "read-only" = tylko odczyt
# "workspace-write" = zapis w workspace
# "danger-full-access" = pełny dostęp
sandbox_mode = "workspace-write"

# Wyszukiwanie w sieci
web_search = "cached"

# Poziom reasoning (dla o3/o4)
model_reasoning_effort = "high"

# Styl komunikacji
personality = "friendly"

Rekomendacja startowa: Zostaw domyślne approval_policy = "on-request" i sandbox_mode = "workspace-write". To bezpieczny punkt wyjścia — Codex może edytować pliki w projekcie, ale pyta przed destrukcyjnymi operacjami.

Feature flags

Sekcja [features] włącza eksperymentalne funkcje:

[features]
multi_agent = true          # Multi-agent collaboration
shell_snapshot = true       # Cache dla powtarzanych komend
undo = true                 # Git snapshots per-turn
apps = false                # ChatGPT Apps/connectors
Feature flags w Codex
FlagStatusCo robi
multi_agentExperimentalWłącza multi-agent workflows
shell_snapshotBetaPrzyspiesza powtarzane komendy
undoStableGit snapshots dla cofania zmian
appsExperimentalIntegracja z ChatGPT Apps

undo = true to must-have — tworzy git snapshot przed każdą zmianą, więc możesz cofnąć każdy turn jedną komendą. Więcej o multi-agent workflows w osobnym artykule.

Profile: różne konfiguracje

Profile pozwalają przełączać zestawy ustawień:

# ~/.codex/profiles/production.toml
model = "gpt-5.3"
approval_policy = "untrusted"
sandbox_mode = "read-only"

# ~/.codex/profiles/experiment.toml
model = "gpt-5.3"
approval_policy = "never"
sandbox_mode = "danger-full-access"

Użycie:

codex --profile production
codex --profile experiment

Profile są przydatne gdy:

  • Pracujesz z produkcją (ostrzejsze ograniczenia)
  • Eksperymentujesz (luźniejsze ograniczenia)
  • Masz projekty o różnych wymaganiach

Troubleshooting

Problem: Codex ignoruje moją konfigurację

Rozwiązanie: Sprawdź priorytety. CLI flags nadpisują wszystko. Użyj codex config show żeby zobaczyć aktywną konfigurację.

Częste problemy:

  1. "Untrusted project" — Codex nie czyta .codex/config.toml z niezaufanego projektu. Uruchom codex trust w katalogu projektu.

  2. Model niedostępny — Niektóre modele wymagają wyższego planu. Sprawdź codex models.

  3. Feature flag nie działa — Upewnij się że format jest poprawny: feature_name = true (nie "true").

  4. Zmiany nie działają — Zrestartuj sesję po edycji config.toml. Codex czyta konfigurację przy starcie.

Więcej o bezpieczeństwie i sandbox w artykule o Exec Policy Rules.

config.toml w OpenAI Codex: Kompletny przewodnik