ChatGPTを毎日触っている人にとって、5月5日の更新は「仕事の文脈を毎回貼り直さなくていい」が今日から動く話。
新しいデフォルト(GPT-5.5 Instant)は、過去の会話・アップロード済みファイル・接続したGmailを横断で参照しに行きます。
OpenAI内部評価では、医療・法律・金融の難しい質問でハルシネーション(嘘)が52.5%減ったと公表されています。
この記事はChatGPT Plus/Proを毎日使っていて、案件ごとの背景説明を貼り直すのが面倒な営業・コンサル・人事・ナレッジワーカー向け(ChatGPTのモデル切り替えとメモリ画面を触ったことがあれば読めます)。
GPT-5.5 Instantとは何が変わったのか
OpenAIは2026年5月5日(米国時間)、ChatGPTの新しいデフォルトモデルとしてGPT-5.5 Instantを発表しました(出典: OpenAI公式ブログ)。
位置づけは「Instantライン」、つまり日常会話・即答系をさばく担当の置き換えです。
前任のGPT-5.3 Instantは有料ユーザーのみ3ヶ月間モデル設定で選べる経過措置を経て廃止されます。
ここが地味に重要。
同じ「アップデート」でも、難しい数学やコーディングを担当するフラッグシップ側ではなく、普段ユーザーが何気なく打つ質問を受ける土台が入れ替わったわけです。
日常の8割の質問はこの新Instantを通る。
主な変更は3点。
メモリ参照範囲の拡張、メモリソースの可視化と編集、幻覚の削減。
さらに回答スタイルも変わって、単語数で30.2%・行数で29.2%短くなった(出典: the-decoder)。
回答が3割短い。これは体感として大きい差です。
前モデル(GPT-5.3 Instant)と新モデルの違いは何か
OpenAI公式と複数報道を突き合わせて、変更点を一覧にしました。
| 項目 | GPT-5.3 Instant(旧) | GPT-5.5 Instant(新) |
|---|---|---|
| メモリ参照範囲 | 過去会話の要約のみ | 過去会話の本文・アップロード済みファイル・接続済みGmailを横断 |
| 回答の情報源表示 | 非表示 | UI上で確認・削除・修正できる |
| AIME 2025(数学) | 65.4% | 81.2% |
| GPQA(博士レベル科学) | 78.5% | 85.6% |
| MMMU-Pro(マルチモーダル推論) | 69.2% | 76.0% |
| CharXiv(科学グラフ推論) | 75.0% | 81.6% |
| 高難度プロンプト幻覚率 | 標準 | 52.5%減 |
| ユーザーがフラグ立てた会話の不正確率 | 標準 | 37.3%減 |
| 回答の単語数 | 標準 | 30.2%減 |
| 回答の行数 | 標準 | 29.2%減 |
| API呼び出し | 固定モデル指定 | chat-latestで常に最新Instant |
表を見て一番効くのは、メモリ参照範囲とソース可視化の行。
AIMEは65.4から81.2へ、15.8ポイントの上昇。これは大きい。
ベンチマーク数字(AIME・GPQA・MMMU-Pro・CharXiv・幻覚率)はすべてOpenAI内部評価です。
第三者ベンチマークの独立評価は2026年5月6日時点でまだ揃っていません(出典: Silicon Snark)。
私が記事で重みを置きたいのは、数字よりUIで情報源が見えるという変化のほうです。
なぜそうなのかは、次のセクションで具体例を出します。
メモリソースが見えるようになって何が変わるのか
これまでは、ChatGPTが「以前のあなたとの話を覚えてます」と言ってきても、その「以前の話」が何かをユーザーが確かめる方法はありませんでした。
GPT-5.5 Instantでは、回答の根拠になった情報源(過去チャット・保存メモリ・アップロードファイル・Gmail)がUI上に並びます。
削除・修正もそのままできます(出典: OpenAI ヘルプセンター(日本語))。
ユーザーが回答に使われた文脈を確認できる透明性は今までなかった(出典: the-decoder)
ただし1つ釘を刺しておくべき点があります。
OpenAI自身が『回答に影響したすべての要因が表示されるわけではない』と明記している(出典: dataworldbank.net)
つまりUIで見える情報源は「使われたうちの一部」で、完全な監査ログではない。
私の見方では、ここを「全部見えるようになった」と読み替えると後で痛い目を見ます。
営業・コンサル・人事の仕事でどう活きるのか(活用5パターン)
毎回貼り直し疲れ、をスタート地点として5パターンに分けます。
| 活用パターン | 毎回やってた手作業 | メモリ拡張で何が消えるか |
|---|---|---|
| 1. 営業の案件メモ参照 | 過去メールから提案条件をコピペし直す | Gmail接続で先方の最新返信を直接拾える |
| 2. コンサルの案件背景説明 | 「この案件は〇〇業界で従業員N人で〜」を毎回貼る | 過去会話の本文を横断、案件名で呼び出せる |
| 3. 人事のJD・面接記録参照 | 候補者のJD・1次面接議事録をPDFで毎回再アップ | 1度上げたファイルが横断検索の対象に入る |
| 4. ナレッジワーカーのリサーチ継続 | 「先週調べた話の続きで〜」と長文で説明 | 過去チャット本文を直接参照、要約だけでない |
| 5. 議事録・ToDo整理の連続運用 | 毎回フォーマット指定を貼る | 保存メモリでフォーマット指定を1度だけ |
ここで大事なのは、5パターン全部に共通する1点。
毎回貼り直しを消す。
正直、これが今回の更新で一番効きます。
ベンチマーク数字より体感差が出るのはたぶんこっち側です。
メモリソースを育てて運用するための5ステップ
OpenAI公式ヘルプセンターの記述と、speed-optimization的な実務観点を合わせて、運用フローを5ステップに整理しました(出典: OpenAI ヘルプセンター)。
5パターンのどれを選んでも、最初に通すべきはこの5ステップです。
STEP1: ChatGPTのメモリと拡張パーソナライズをオンにする
ChatGPT右上のアカウントアイコン →「設定」→「パーソナライズ」と進み、「メモリ」と「拡張パーソナライズ」を両方オンにします。
後者がオフだと過去会話本文の横断は走りません。
STEP2: 接続するソースを選ぶ(GmailはCONNECTORS設定)
同じパーソナライズ画面に、コネクター一覧があります。
Gmail・Google Drive等のうち、業務文脈で使うものだけ接続します。
Gmailは特に注意が必要なので、次のh2で個別に整理します。
STEP3: メモリに「呼び出されたい鍵」を最初に1度だけ入れる
新規チャットで「私はB2B SaaSの法人営業をしています。
担当している案件名は◯◯と△△です。
提案書は箇条書きより文章ベースで書いてください」のように、自己紹介+呼び出し用の案件名+スタイル指定を1度だけ書きます。
これでメモリに索引が立ちます。
STEP4: 1週間後にメモリソース一覧を開いて棚卸しする
「設定」→「パーソナライズ」→「メモリを管理」で、ChatGPTが覚えた項目が一覧で見えます。
古い案件・終わったプロジェクト・誤って覚えた情報を削除します。
これが今回の更新で初めてUIから直接できるようになった操作です。
STEP5: 重要案件は「保存メモリ」に明示的にピン留めする
会話中に「これをメモリに保存して」と明示的に指示すると、横断検索で優先的に引かれる「保存メモリ」に積まれます。
逆に一時的な相談は「今回限り」と明示することで、メモリに引っ張られない運用ができます。
Gmail連携で気をつけるべきことは何か
Gmail接続は便利ですが、ここを軽く扱うと業務上の事故になります。
OpenAI公式ページは、Business・Enterprise・Edu・Healthcareプランについては「コネクターから取得したデータをモデル学習に使わない」と明記しています(出典: OpenAI ビジネスデータプライバシー)。
日本リージョンのデータレジデンシー対応もあります。
では個人Plus/Proはどうか。
個人プランの場合は、アカウント設定の「改善のためのデータ共有」オプションで、ユーザー本人の会話データをトレーニングに使うかどうかを切り替える形です。
デフォルトの状態を確認せずに業務メールを接続するのは、私の判断ではナシ。
整理すると、以下の3点を必ず順番に踏みます。
- 業務アカウント(会社のGmail)を接続する前に情シス・法務に1本確認を入れる
- 個人で先に試したい場合は、個人Gmailで接続して「改善のためのデータ共有」をオフに設定する
- 削除したメモリソースについて、OpenAIサーバー側からの完全削除は公式に明記されていない点を理解しておく
3つ目は地味だが大事。
UI画面から消した=サーバーから消えた、ではない。
守秘義務のかかる案件メールをそのまま渡す前に、ここは引っかかるべきポイントです。
ChatGPTの会話ログから個人の性格特性を予測できるという研究もあり、Gmail連携と会話履歴分析がプライバシー上の懸念を呼ぶ(出典: Digital Trends)
本体・Pro・Instantの3階層をどう使い分けるのか
速報組のほとんどがInstant単体の話で止まっていますが、Plus/Proユーザーが日常で触るモデルは実質3階層あります。
| 階層 | 担当する質問 | 具体例 |
|---|---|---|
| GPT-5.5 Instant(新デフォルト) | 日常の即答・要約・文面整形・メモリ参照 | 「先週の◯◯案件の続きで提案書を3案出して」 |
| GPT-5.5(フラッグシップ) | 長文の論理組み立て・コード生成・専門推論 | 「この設計書を読んでアーキテクチャの穴を指摘して」 |
| GPT-5.5 Pro(Pro限定) | 最難関の数学・科学・複合推論 | 「この数式の導出を全ステップで再構成して」 |
普段の質問は8割Instantで返ってきます。
その8割でハルシネーションが減って、ソースも見えるようになる。
残り2割の難しい推論は、ユーザー側でモデルピッカーから本体/Proに切り替えるか、ChatGPTが自動でThinking側にルーティングします。
日本語ユーザーの実検証では、Instantを選んでも複雑タスクで自動的にThinkingに切り替わる挙動が報告されています。
料金とロールアウトのスケジュールはどうなっているのか
ChatGPTのプラン料金そのもの(Plus 月20ドル・Pro 月200ドル)は変更ありません。
GPT-5.5フル版のAPI料金は入力5ドル/100万トークン・出力30ドル/100万トークンです。
月20ドルで新Instantに乗れる。これは安い部類です。
配信スケジュールは複数報道で一致しています。
| 対象 | 配信タイミング |
|---|---|
| Plus・Pro Web版(拡張パーソナライズ含む) | 5月5日から順次 |
| モバイルアプリ | 近日公開("coming soon") |
| Free・Go・Business・Enterprise | 数週間以内に順次拡大 |
| 全ユーザーへの基本版(拡張なし) | 5月5日から2日間でロールアウト開始 |
出典はAxiosとclaypier。
「数週間以内」の具体日付はOpenAIから公開されていません。
ここで1つ、現場目線の判断。
Plus/Proの個人ユーザーは今日からモデルピッカーで切り替えて触れます。
Businessワークスペース管理者の方は、組織のメモリ機能をAdmin Controlsで無効化する選択肢もあるため、配信が来てから慌てて止めるより、来る前にポリシーを決めておくほうが安全です。
注意点と限界はどこにあるのか
ベタ褒めで終わらせない部分。
1つ目、ベンチマーク数字はすべてOpenAI内部評価です。
第三者ベンチマークの独立評価結果は2026年5月6日時点で出ていません(出典: Silicon Snark)。
52.5%減という数字を「自社評価値」と読み替えるのが冷静な姿勢です。
2つ目、メモリソース可視化は「全部見えるようになった」ではない。
OpenAI自身が「すべての要因が表示されるわけではない」と認めています。
3つ目、日本語ユーザーの実検証で「メモリ機能の指示を読まず、プロンプトに明示した指示のみ従う矛盾」「不自然な改行・箇条書き多用」が報告されています。
日本語の文体制御は、まだ発展途上です。
4つ目、安全性分類でサイバーセキュリティと生物・化学が初めて「High」判定を受けました(出典: nowadais.com)。
特定プロンプトで追加制限が発動する可能性がありますが、その基準は詳細開示されていません。
正直、ここは触りながら確かめるしかない領域。
FAQ
Q1. GPT-5.5 InstantはGPT-5.5本体と何が違うのか?
Instantラインは日常の即答・要約担当、本体(GPT-5.5)はフラッグシップで長文論理・コード生成・専門推論担当です。
Pro加入者はさらに上のGPT-5.5 Proが使えます。
普段の質問の8割はInstantで返り、残り2割の難問でユーザー切り替えまたは自動ルーティングが走ります。
Q2. メモリソースのGmail連携、業務アカウントで使って大丈夫か?
Business・Enterprise・Edu・Healthcareプランは公式に「コネクター取得データを学習に使わない」と明記しています。
ただし業務アカウント接続は社内の情シス・法務確認を先に通すのが安全です。
個人プランでは「改善のためのデータ共有」設定を確認した上で、まずは個人Gmailで挙動を試すのが私の推奨です。
Q3. ハルシネーション52.5%減って本当に体感できるのか?
52.5%減はOpenAI内部評価で、医療・法律・金融の高難度プロンプトに限定された数字です。
第三者ベンチマークはまだ揃っていません。
Digital Trendsの記事は「以前は怖くて踏み込めなかった相談がしやすくなる」と評価しつつ、独立検証の必要性も認めています。
数字より、回答の情報源がUIで見えるようになった点のほうが効く、というのが私の読みです。
Q4. 旧モデル(GPT-5.3 Instant)はもう使えないのか?
有料ユーザーは3ヶ月間、設定画面でGPT-5.3 Instantを選べる経過措置があります。
3ヶ月後は自動廃止です。
API側はchat-latestエイリアスを使えば常に最新Instantが当たります。
固定バージョンを使い続けたいワークフローは、3ヶ月の間に新Instantへの移行検証を済ませるのが現実的です。
Q5. メモリソースを削除したらOpenAIサーバーから完全に消えるのか?
UI画面上では消えますが、サーバーから完全削除される保証はOpenAI公式に明記されていません。
守秘義務のかかる情報を扱う場合、削除=サーバー側からも消えた、と読まないほうが安全です。
Business・Enterpriseプランで管理者が組織のメモリ機能自体を無効化する選択肢もあります。
参考リンク
- OpenAI公式ブログ(GPT-5.5 Instant発表)
- OpenAI ヘルプセンター(日本語)
- OpenAI システムカード(GPT-5.5)
- OpenAI ビジネスデータプライバシー
- Axios(発表速報)
- the-decoder(ベンチマーク追加値あり)
- Digital Trends(医療・法律・金融の半減評価)
- Silicon Snark(賛否両論レビュー)
- nowadais.com(安全性分類詳細)
- dataworldbank.net(メモリ透明性の限界)
- claypier(日本語速報)
このページに出てきた言葉
- Instantライン
- ChatGPTのモデルラインの1つ。日常会話・即答系を高速にさばく担当。難しい推論はThinking/Pro側へ回る
- ハルシネーション
- AIが事実と違うことをそれっぽく書いてしまう現象。日本語訳は「幻覚」
- メモリ
- ChatGPTがユーザーの好み・過去会話の要点を覚えておいて、後の会話で参照する機能
- フラッグシップ
- そのシリーズで一番性能の高いモデル。GPT-5.5本体・GPT-5.5 Proがこれ
- AIME 2025
- 米国数学オリンピックの2025年版問題で測る数学推論ベンチマーク
- GPQA
- 博士課程レベルの科学知識推論ベンチマーク
- MMMU-Pro
- 画像と文章を組み合わせた問題を解くマルチモーダル推論ベンチマーク
- CharXiv
- 科学論文中のグラフを読み取って推論するベンチマーク
- chat-latest
- OpenAI APIで「常に最新のInstantモデルを使う」と指定する動的エイリアス
- コネクター
- ChatGPTを外部サービス(Gmail、Google Drive等)と接続して中身を参照させる仕組み
- 拡張パーソナライズ
- 過去会話の本文まで横断参照できるようにする設定。GPT-5.5 Instantの目玉
- 保存メモリ
- ユーザーが「覚えて」と明示的に指示してChatGPTに残させた情報。長期保持される
- データレジデンシー
- データを物理的にどの国・地域のサーバーで保存するかを指定する仕組み
- 改善のためのデータ共有
- ChatGPT設定項目。オンだと会話がモデル改善(学習)に使われる場合がある
- ロールアウト
- 新機能を全ユーザーに段階的に配信していくこと
- Admin Controls
- Business/Enterprise管理者が組織全体のChatGPT設定を一括制御する管理画面
- モデルピッカー
- ChatGPT画面上部の「使うモデルを選ぶ」ドロップダウン
※この記事の内容は執筆時点のものです。AIは進化が速い分野のため、最新の仕様は公式サイトでご確認ください。