AI活用全般

ChatGPTでコピペ作業を繰り返してる人向け|Codex CLIに乗り換えて調査・修正・資料化を1コマンドで動かす方法

GPT-5.5を画面で単発質問してると、
午後の2時間が「ChatGPTに聞く→コピペ→ファイル直す→また聞く」のループで溶けます。

Codex CLI(ターミナルでGPT-5.5を呼んで、
ファイルを直接さわらせる仕組み)に乗せ替えると、
その2時間を「調査→コード修正→資料化」の1命令で回せる構成に切り替えられます。

OpenAI公式が4月23日に出したGPT-5.5は、
Codex CLI上で40万トークン分の文脈を一気に読める設計で、
SWE-bench Verifiedも88.7%。
画面の往復を1コマンドに畳む価値が出てきました。

この記事はChatGPT Plus以上に課金中で、
GPT-5.5は触ったが画面の単発質問で止まっている実務者
向け(ターミナルを開いた経験があれば読めます)。

そもそもGPT-5.5を画面で使ってる人は何で損してるの?

OpenAIは2026年4月23日にGPT-5.5(コードネーム「Spud」、
GPT-4.5以来の完全再学習版)を公開しました。
出典はOpenAI公式発表

ところがChatGPTのWeb画面でGPT-5.5を触っているだけだと、
出てくる答えを毎回コピペしてエディタに貼って、
保存して、
また次の質問を投げる、
の繰り返しになります。
これがしんどい。

OpenAI公式は同じ発表で、
GPT-5.5の得意領域として「コードの作成とデバッグ、
オンライン調査、
データ分析、
ドキュメント・スプレッドシートの作成、
ソフトウェア操作」を挙げています(出典: Impress Watch報道)。
要は「複数工程をまたぐ作業」を一気に流すために作られたモデルです。
それを画面で1問1答に使うのは、
本来の威力の半分も活かせていない設計ミスマッチ。

OpenAI公式ドキュメントは、
Codex CLI(ターミナルからGPT-5.5を呼び、
ファイルを直接読み書きさせるOpenAI公式のCLIツール)が「リポジトリ読み取り・ファイル直接編集・コマンド実行・Webサーチ・画像入力を1セッション内で連続実行できる」と明示しています(出典: Codex CLI 機能一覧)。
Web画面での1問1答ループとは、
そもそも前提が違う。

NVIDIAは公式ブログで、
社内1万人以上がCodex+GPT-5.5を使い始め、
デバッグサイクルが「数日から数時間へ」「実験は数週間から一晩へ」短縮されたと公表しました(出典: NVIDIAブログ)。
1万人規模で時短が出てる事例です。
これは見過ごせない。

GPT-5.5+Codex CLIで「2時間1サイクル」って具体的に何ができる?

2時間で「調査→コード修正→資料化」を1命令で回せる、
と書いても抽象的なので具体ケースで分解します。
Codex CLIはOpenAI公式ドキュメントによると、
リポジトリ読み取り・ファイル直接編集・コマンド実行・Webサーチ・画像入力を1セッション内で連続実行できる設計です。

パターン1:リポジトリ→バグ特定→修正案→レポート化(本命ユースケース)

「このリポジトリのXXXモジュールからバグの原因を探して、
修正案を出して、
最後にreports/bug-report.mdにまとめて」と1命令で投げる流れ。
Codex CLI上のGPT-5.5は40万トークンの文脈を持つので、
中規模リポジトリ(数十〜100ファイル程度)を丸ごと読ませた上で横断調査ができる。
OpenAI公式は同じCodexタスクをGPT-5.4比で40%少ない出力トークンで完了すると公表(出典: OpenAI公式発表)。
1,000行を超えても最後まで一貫性が崩れない、
というのが「2時間サイクル」の中核。
私はここがいちばん効くと評価する。

パターン2:ライブラリ調査→移行判断→移行手順ドキュメント化

「このライブラリの最新バージョンを調査して、
自社プロジェクトで使えるか判断して、
移行手順をmigration.mdに書いて、
サンプルを動かして」を1命令で。
Codex CLI公式機能ページは「Webサーチがデフォルト有効」「インタラクティブターミナルUI上でモデル切り替え・セッション再開が可能」と明記しており(出典: Codex CLI 機能一覧)、
調査→判断→ドキュメント化を中断なしで回せる。

パターン3:CSV分析→グラフ化→上司報告メール下書き

CSVを作業フォルダに置いて「読み込んで傾向を分析、
グラフをoutput/にPNG保存、
報告メールをmail-draft.txtに書いて」と1発で。
CLIがPython実行・画像生成・テキスト保存を順に走らせる。
手作業なら午後ぜんぶ消える内容。

同じことを読者がやるための再現ステップ(パターン1〜3共通)

OpenAI公式のCodex CLIドキュメントが示す手順を再構成すると、
3パターンとも以下の順番で再現できます。

  1. STEP1: 作業フォルダを準備する。ターミナルで対象リポジトリ or 作業フォルダに cdgit init またはバックアップを必ず取る(Codex CLIはファイルを直接書き換えるため)
  2. STEP2: Codex CLIを起動してモデルをGPT-5.5に固定するcodex -m gpt-5.5 で起動、または起動後に /model コマンドで切り替え
  3. STEP3: 1命令で工程を全部書いて投げる。命令文には「①工程の順序」「②失敗時の停止条件」「③成果物の置き場所」の3つを必ず明示する(Codex CLI公式機能ページが推奨する命令文構成)
  4. STEP4: Plan ModeをONにして承認後に走らせる。命令文に「変更前に段階的な実装計画を作って。承認後に実行して」と入れる、または config.toml に Plan Mode 設定を入れておく
  5. STEP5: 走り終わったら成果物を確認。reports/output.md や bug-report.md を開いて差分とサマリーをチェック。問題があれば git reset --hard で戻す

ここで引っかかりやすいのはSTEP1。
git init を飛ばすと事故ったときに戻れません
Codex CLIは「Auto」承認モードがデフォルトで、
ファイルを直接書き換えに行きます。
安全網は先に張る。

GPT-5.5単体(画面)とGPT-5.5+Codex CLIで何が違う?

同じGPT-5.5でも、
入り口(画面 or CLI)で何が変わるかを表に整理しました。

比較項目ChatGPT画面(Web)Codex CLI(ターミナル)
料金(最低ライン)Plus $20/月同じ(Plusアカウントで連携)
1セッションの文脈標準的なChatGPTコンテキスト40万トークン(公式・Codex CLI上)
ファイル編集コピペ手動CLIが直接書き換え
コマンド実行不可シェル・Python・テスト全部走る
連続工程1問1答(人間が橋渡し)1命令で複数工程を連続稼働
並行作業タブを増やすだけ/sideでサブセッション、Plan Modeで段階実装
出力トークン効率同じCodexタスクをGPT-5.4比40%少ない出力トークンで完了(OpenAI公式)

料金は変わりません。
同じPlusの$20で「1問1答ツール」が「ターミナル常駐の連続稼働エージェント」に化ける、
というのが構造的な変化です。
私はここがいちばん効く。

GPT-5.5+Codex CLIの料金・制限はどうなってる?

API経由のトークン単価とChatGPT月額プランで料金体系が分かれます。
OpenAI公式の料金ページCodex公式リリースノートから、
4月時点の情報を整理しました。

プラン・モデル料金用途
ChatGPT Free$0レート制限つきでGPT-5.5を一時利用、CLI実用範囲外
ChatGPT Plus$20/月GPT-5.5使用可。5時間ウィンドウで15〜80メッセージ相当
ChatGPT Pro 5x$100/月相当Plus比5倍のレート制限
ChatGPT Pro 20x$200/月Plus比20倍、GPT-5.5-Pro利用可
API gpt-5.5入力$5 / 出力$30(100万トークンあたり)従量課金
API gpt-5.5-pro入力$30 / 出力$180(100万トークンあたり)高難度タスク向け
Codex CLI本体$0(Apache-2.0)Rust製、無料配布

注意点として、
2026年4月9日にCodexの使用制限がメッセージ数ベースから推論時間ベース(5時間ローリングウィンドウ)に変わりました
OpenAI Developer Communityには「制限変更後に生産性が約90%低下した」「Plus + GPT-5.4で5時間ウィンドウに約40分の推論時間しかない」とのユーザー報告が上がっています(出典: OpenAI Developer Community)。

つまり「2時間で1サイクル」は、
PlusユーザーだとCLI上で1日2〜3サイクルが現実線。
仕事の本命タスクに絞って投入する設計が前提です。
ここは正直、
運用前に把握しておくべき制約。

GPT-5.5+Codex CLIの始め方は?

Codex CLI公式リポジトリ公式ドキュメントが示す導入手順を、
初めて触る人向けに再構成しました。

  1. STEP1: ChatGPT Plus以上に課金する。Free/Goは連続作業に向きません。最低ラインがPlus($20/月)
  2. STEP2: Codex CLIをインストールする。Mac/Linuxは npm install -g @openai/codex(Node.js 22以上が必要)か brew install --cask codex。Windowsは公式案内の通りWSL2(Windows上でLinuxを動かす仕組み)経由が推奨
  3. STEP3: ChatGPTアカウントを連携する。ターミナルで codex と打つと「Sign in with ChatGPT」が出るので選択。ブラウザで課金中アカウントにログインした状態でクリックすればOK。APIキー認証はGPT-5.5で現状未対応(ChatGPTサインイン経由のみ)
  4. STEP4: モデルをGPT-5.5に固定するcodex -m gpt-5.5 で起動するか、起動後に /model でセッション中切り替え。config.tomlに model = "gpt-5.5" を書いておけば毎回入力不要
  5. STEP5: 動作確認用の小さな1命令を投げる。空フォルダに cd して codex 起動 → 「このフォルダにhello-worldという小さなTypeScriptプロジェクトを作って、起動できる状態まで持っていって」と打つ。動いたら本番へ
  6. STEP6: 本番投入前にgitでバックアップ。実コードに当てる前に git init 必須。最悪 git reset --hard で戻せる安全網を先に作る

STEP3で詰まりがちなのが「APIキー方式じゃダメなの?」という点。
OpenAI公式のCodex料金・モデル一覧ページが整理している通り、
2026年4月時点でgpt-5.5はChatGPTサインイン経由でのみ利用可(出典: OpenAI公式 Codexモデル一覧)。
ここは公式が近日対応予定としているものの、
執筆時点ではChatGPT課金が前提条件です。

命令文サンプルはどう書けばいい?

Codex CLIに投げる命令文は、
ChatGPT画面の「ふんわり質問」とは作法が違います。
OpenAI公式のCodex CLI機能ページが推奨する命令文構成を参考に、
短/中/長の3パターンに分けました。

短(1工程・動作確認用、所要1〜3分)

このフォルダにhello-worldという小さなTypeScriptプロジェクトを作って、起動できる状態まで持っていって。

まずこれが動くか。
動かなかったら認証 or インストールに問題があるサインです。

中(3〜4工程・業務実用レベル、所要15〜30分)

src/auth/session.tsのセッショントークン有効期限ロジックを修正して。非アクティブ24時間で期限切れにすること。既存のテストが通ること、401エラー時に{"error": "session_expired"}を返すこと。テストが失敗したら止まってエラーを報告して。

失敗時の停止条件を明示するのがポイント。
「テストが失敗したら止まって」を入れないと、
CLIは無限に修正を試み続けて推論時間を食い潰します。
これ大事。

長(5〜6工程・2時間サイクル本命、所要60〜120分)

このリポジトリのXXXモジュールに関連するファイルを読んで、変更点を3つ提案してください。承認後に実装して、既存のテストを全部実行して、最後にreports/output.mdに変更サマリーをまとめて。途中で設計判断が必要になったら一旦止まって私に確認して。

長命令の3つのコツ(OpenAI公式Codex CLI機能ページが推奨する命令文構成)は以下です。

  • 工程の順序を明示する(「調査して→提案して→実装して→テストして→まとめて」)
  • 失敗時の停止条件を明示する(「テストが3回失敗したら止まって」「設計判断が必要なら確認して」)
  • 成果物の置き場所を明示する(「reports/output.mdに置いて」)

この3つが揃うと、
Codex CLIは2時間放置しても破綻しにくくなります。
逆にどれか1つ抜けると、
完成形がブレるか、
暴走するか、
成果物が見つからなくなる。
長命令の事故は、
だいたいこの3点のどれかが抜けてる時に起きる。

Claude Codeを使ってる人はどう住み分ければいい?

Claude Code(Anthropicが提供するターミナル型AIコーディング環境)併用者にとって、
GPT-5.5+Codex CLIは置き換えではなく使い分け候補です。
OpenAI公式が公表しているベンチマーク数字と、
Anthropic公表値を整理しました。

ベンチマークGPT-5.5Claude Opus 4.7意味
Terminal-Bench 2.082.7%69.4%CLIワークフロー(GPT-5.5が13.3pt優位)
SWE-bench Verified88.7%簡易版GitHub Issue(OpenAI公式)
SWE-bench Pro58.6%64.3%実務GitHub Issue(Claudeが5.7pt優位)
OSWorld-Verified78.7%78.0%ソフトウェア操作(ほぼ互角)
MCP-Atlas75.3%79.1%マルチツール統合(Claudeが3.8pt優位)

注意点として、
SWE-benchはVerified(88.7%)とPro(58.6%)で別物のベンチマークです。
Verifiedは簡易版、
Proは実際のGitHub Issueベースの実務版。
記事や告知で「88.7%」と「58.6%」が混在してたら、
別ベンチマークの数字が並んでいる
ので注意。

住み分けのざっくり指針は次の通り。

  • Terminal中心の連続稼働、CLIワークフロー、長文脈の一気読み: GPT-5.5+Codex CLI(Terminal-Bench 13.3pt優位、40万トークン)
  • コードベース横断の難問推論、MCP統合: Claude Code+Opus 4.7(SWE-bench Proで5.7pt優位、MCP-Atlasで3.8pt優位)

表の数字を素直に読むと、
Codex CLIとClaude Codeは置き換えではなく工程ごとに使い分けるのが現実的である。
論点整理と長文脈の一気読みはCodex CLI、
コードベース横断の難問推論はClaude Code、
というのが私の結論。
両方契約してる人は、
二者択一にしないほうが収まりがいい。

FAQ

Q1. ChatGPT Free・Goでも使える?

Codex CLI自体はApache-2.0で無料、
インストールは可能です。
ただしFree/Goはレート制限が厳しく、
連続稼働の途中で止まります。
実用的に2時間サイクルを回すならPlus($20/月)以上が前提です(出典: OpenAI公式料金ページ)。

Q2. APIキーだけで動かせない?

2026年4月時点で、
gpt-5.5はChatGPTサインイン経由でのみ利用可能です。
APIキー認証では現状GPT-5.5は呼べません。
OpenAIは近日対応予定としています(Responses API・Chat Completions API両対応予定)。
GPT-5.4ならAPIキー単独で動きます(出典: OpenAI公式 Codexモデル一覧)。

Q3. コンテキストウィンドウ40万トークンって本当?

OpenAI公式はCodex CLI上のGPT-5.5で40万トークン、
API版で約105万トークンと案内しています。
ただしGitHub Issue #19319では「セッション上で258,400トークンと表示されるケースがある」というバグ報告も上がっており、
4月末時点で未解決です(出典: GitHub Issue #19319)。
公称値どおりの40万を毎回当て込むより、
20〜25万トークンを目安に運用するのが現実的。

Q4. 1日に何サイクルまで回せる?

Plusは5時間ローリングウィンドウで推論時間ベースの制限がかかります。
OpenAI Developer Communityには「Plus + GPT-5.4で5時間ウィンドウに約40分の推論時間しかない」「制限変更後に生産性が約90%低下した」とのユーザー報告が出ており、
本命タスクに絞って投入するのが定石(出典: OpenAI Developer Community)。

Q5. 業務コードを食わせていいの?データはどう扱われる?

Codex CLIはローカル実行が基本で、
ソースコードはローカル環境に留まります。
ChatGPT Plus/Business/Enterpriseは原則、
入力データを学習に使わないのがデフォルト設定(Plusは設定で明示的にオフも可能)。
NVIDIAの導入事例でも「データ保持ゼロポリシー」「読み取り専用権限での本番システムアクセス」を採用しています(出典: NVIDIAブログ / Milvus AI Reference)。
それでも機密度が高いコードは社内ポリシーの確認が先。

Q6. 幻覚率の扱いはどう考えればいい?

OpenAI公式システムカードはGPT-5.5の安全性評価とハルシネーション低減の取り組みを公表しています(出典: OpenAI System Card / Deployment Safety)。
事実性が要求される文書要約・参考文献の引用などはGPT-5.5単独では危ない領域がある。
コード生成・テスト実行・ファイル操作のように「実行で正誤が出る作業」を主戦場にするのが現実的な使い方。

このページに出てきた言葉

CLI
コマンドラインインターフェース。ターミナル(黒い画面)にコマンドを打って操作する仕組み。
Codex CLI
OpenAIが配布しているターミナル用ツール。GPT-5.5などのモデルを呼び、ファイルの読み書き・コマンド実行・コードレビューを直接やらせる。Apache-2.0ライセンス。
GPT-5.5
OpenAIが2026年4月23日に公開したエージェント型コーディング向けの主力モデル。コードネーム「Spud」。
トークン
AIが文章を区切って処理する単位。日本語1文字でだいたい1〜2トークン。40万トークンは中規模リポジトリ1つ分くらい。
コンテキストウィンドウ
AIが1度に覚えていられる文脈の最大量。これを超えると古い情報を忘れる。
SWE-bench
実際のGitHub Issueを解決させてAIの実装力を測るベンチマーク。Verified(簡易版)とPro(実務版)の2種類あり。
Plan Mode
Codex CLIの機能。実装前に段階的な計画を立てさせ、人間の承認を経てから実行に移る仕組み。
/sideコマンド
Codex CLI上で、メインタスクを止めずに別の補助セッションを並行で走らせる機能。
MCP
Model Context Protocol。AIに外部ツールや情報源を繋ぐための共通規格。
WSL2
Windows Subsystem for Linux 2。Windows上でLinux環境を動かす公式の仕組み。Codex CLIをWindowsで使うときに推奨される。

参考リンク

※この記事の内容は執筆時点のものです。AIは進化が速い分野のため、最新の仕様は公式サイトでご確認ください。

-AI活用全般
-, , ,

← 戻る