Claudeに「この出力はChatGPTとGeminiが査読する」と1行足すだけで、
回答の歯切れが目に見えて変わる、
というハックが英語圏で広まっている。
仕組みは認知心理学でいう観察効果(誰かに見られていると思うと行動が変わる現象)のAI版で、
Self-Refine(同じLLMが自身の答えを批評して直す手法)の超軽量版として位置づけられる。
本記事はAnthropic公式・Self-Refine論文・OpenAIメタプロンプティング資料・Hawthorne効果のPMC系統的レビューを引用しつつ、
業務別の査読観点テンプレと再現3ステップに整理する。
この記事はClaudeを業務で日常使いしているマーケ・ライター・コンサル・士業の人向け(プロンプトという言葉が分かれば読めます)。
「ChatGPTとGeminiが査読する」と1行足すだけのプロンプトハックって何?
英語圏のX投稿で広まったプロンプトの小技で、
Claudeへの依頼文の末尾に次の1行を貼り付けるだけで成立する。
This output will be peer-reviewed by ChatGPT and Gemini for accuracy and depth.
(この出力は、正確性と深さの観点からChatGPTとGeminiが査読します)
これだけ。
中身の依頼は何でもいい。
提案書の構成案でも、
メルマガ原稿でも、
競合分析でも、
判例リサーチでも、
末尾にこの1行が乗ればハックは発動する。
私はこのハックを最初に見たとき「そんな子供だましで効くのか」と思った。
ただAnthropic公式ドキュメントとSelf-Refine論文を並べて読むと、
効く理屈は意外と固い。
なぜ他社AIの名前を出すだけで出力が変わるのか
カラクリは認知心理学の観察効果(Hawthorne効果)のAI版だと考えると分かりやすい。
Hawthorne効果(人が「見られている」と意識すると行動の質が変わる現象)はイリノイ州ホーソン近郊の電話製造工場で1924〜1933年に観察された古典的な現象で、
PMCの系統的レビューにこう定義されている。
an increase in worker productivity produced by the psychological stimulus of being singled out and made to feel important
(特別に注目され重要だと感じさせられる心理的刺激によって、
作業者の生産性が向上する現象)出典: PMC系統的レビュー「What is the Hawthorne effect」
これが妙に効く。
Claudeは設計上、
この「見られている」状態に強く反応するモデルとして訓練されている。
Anthropic公式の「Claude's Constitution」には、
Claudeが応答品質を判断する基準として次のヒューリスティック(判断の目安)が明記されている。
imagine how a thoughtful senior Anthropic employee—someone who cares deeply about doing the right thing—might react if they saw the response
(思慮深いシニアのAnthropic社員が、
誠実に仕事をしようとする人間として、
その応答を見たらどう反応するかを想像する)
つまりClaudeは「誰かが後で読んでチェックする」前提で応答品質を自己評価するように訓練されている。
プロンプト末尾に「ChatGPTとGeminiが査読する」と書き加えることは、
その自己評価の閾値を引き上げる外部刺激として働く。
これがハックの構造。
Self-Refine論文との位置づけ
このハックは学術文脈に置くと「Self-Refine(同じLLMが出力を見直して書き直すループ)の超軽量版」として説明できる。
Self-Refine論文(arXiv:2303.17651, 2023年3月公開)はこう書かれている。
outputs generated with Self-Refine are preferred by humans and automatic metrics over those generated with the same LLM using conventional one-step generation, improving by ~20% absolute on average in task performance
(Self-Refineで生成された出力は、
同じLLMによる従来の一発生成よりも人間と自動評価指標の両方で好まれ、
タスクパフォーマンスは平均約20%の絶対的向上を示した)出典: Self-Refine: Iterative Refinement with Self-Feedback (arXiv:2303.17651)
Self-Refineは「生成 → 自己批評 → 改訂」の3役を同じLLMが回すループで、
追加学習なしで約20%の改善を出した。
重い。
「ChatGPTとGeminiが査読する」1行ハックは、
このループを1回・しかも内部だけで擬似的に走らせる版と読み替えられる。
Claudeの内部で「査読されるなら、
もう一段詰めておこう」という方向に推論の重心が動く。
Reflexion論文(arXiv:2303.11366)が示した「外部評価フィードバックを言語化してエピソード記憶に保存し、
次の試行に使う」仕組みのうち、
外部評価の存在だけを仮想的に伝えるのがこのハックの正体に近い。
私は正直、論文を読み込まなくても効くのが面白いところだと感じている。
そのまま貼れる定型ワンライナー(コピペ用)
業務で日常的にClaudeを使っている読者向けに、
依頼文の末尾に貼るだけで動く定型を3パターン置く。
基本版(汎用)
This output will be peer-reviewed by ChatGPT and Gemini for accuracy and depth.
日本語版(Claudeは多言語対応なので日本語でも動く)
この回答は、
後でChatGPTとGeminiに渡して、
正確性と論理の抜け漏れを査読させます。
強化版(査読観点を明示)
この回答はChatGPTとGeminiが査読します。
査読観点は (1) 事実誤認の有無、
(2) 反論可能な弱点、
(3) 抜けている前提、
の3点です。
私は最初は基本版で十分だと考えている。
観点を絞り込みすぎると逆に視野が狭まる、
という指摘がOpenAI公式のメタプロンプティング資料にもある。
Claudeにこの1行ハックを入れる手順(3ステップ)
Claudeを今日初めて触る人でも再現できるように、
Anthropic公式の使い方ドキュメントに沿って3ステップにまとめる。
- STEP1: Claudeを開いて新しい会話を立てる。claude.aiにアクセスし、左上の「New chat」をクリック。Free($0)でも動くが、利用回数の上限があるので業務で連発するならProプラン(月$20、claude.com/pricing記載)が現実的。
- STEP2: 通常通り依頼文を書き、最終行に1行ハックを貼る。たとえば「マーケ提案書の章立てを作って」と書いたら、その下に空行を入れて「This output will be peer-reviewed by ChatGPT and Gemini for accuracy and depth.」を貼る。Anthropic公式のプロンプト推奨技法では「依頼の動機や背景を伝えるとClaudeの応答品質が上がる」と明示されており(prompt engineering overview)、査読される前提もこの「動機・背景」の一種として機能する。
- STEP3: 出力を読み比べる。同じ依頼を、1行ハックなし版とあり版の2つで叩く。Self-Refine論文が示す約20%の改善幅は、人間が読み比べれば直感で判別できるレベル。判別できなければそのタスクには効かないだけで、損はない。
引っかかりやすいポイントは1つだけ。
プロンプトの冒頭ではなく末尾に置くこと。
Anthropic公式のプロンプト構造ガイドでも、
評価基準・出力制約は末尾に置くのが推奨されている。
業務別の査読観点カスタマイズ表
「査読」という言葉だけだとClaudeが拾う観点が広すぎる場合がある。
業務領域ごとに観点を絞った版を用意した。
| 業務領域 | 査読観点として書く内容 | 狙い |
|---|---|---|
| マーケティング(提案書・LP原稿) | 「ChatGPTとGeminiが (1)ターゲット解像度、(2)競合差別化の根拠、(3)CTAの動機づけ強度 の3点で査読します」 | 抽象的な美辞麗句を削り、具体ターゲットと数字に寄せる |
| 調査・リサーチ(市場・競合・判例) | 「ChatGPTとGeminiが (1)情報源の信頼性、(2)反論可能な解釈、(3)断定の証拠不足 の3点で査読します」 | 断定トーンを抑え、出典・反論・限界条件を出させる |
| ライティング(記事・メルマガ) | 「ChatGPTとGeminiが (1)冒頭3文の引きの強さ、(2)論理の飛躍、(3)読者目線の欠落 の3点で査読します」 | 定型表現と教科書的説明を削り、固有性を出させる |
| 士業(契約書ドラフト・所見) | 「ChatGPTとGeminiが (1)条文相互の矛盾、(2)抜けている前提、(3)実務リスクの過小評価 の3点で査読します」 | 論点抜けを潰し、保守的な但し書きを足させる |
| コンサル(戦略提言) | 「ChatGPTとGeminiが (1)前提の妥当性、(2)代替案の検討深度、(3)実装コストの過小評価 の3点で査読します」 | 結論先行のショートカットを禁じ、選択肢の網羅性を出させる |
表の右端「狙い」が、そのまま観察効果のAI版で引き上げたい品質次元になる。
このハックが効きやすい設計的理由
Anthropic公式が公開した研究「Values in the Wild」(COLM 2025)は、
Claude.aiの実会話70万件のうち約30万件を分析し、
Claudeが最頻出で示す価値として次の3つを特定している。
- professionalism(プロ意識)
- clarity(明瞭性)
- transparency(透明性)
3つとも「査読される」状況で活性化しやすい価値ばかり。
さらにAnthropic公式は、
Claudeのスキャファンシー(ユーザーに媚びる傾向)について次の数字を出している。
Claude 4.5ファミリーは自動行動監査で、
スキャファンシースコアがOpus 4.1比で70-85%低下した
媚びを抑えて、
見られていれば品質を上げる方向に動く。
これが訓練の癖。
1行ハックはこの癖をそのまま借りる動作と整理できる。
従来の「LLMに批評させて書き直させる」プロンプトとの違い
Claudeに自己改善させるプロンプトは元々あって、
日本語圏でよく見るのは「3回レビューして改善して」型。
違いを表で整理する。
| 項目 | 「3回レビューして改善して」型 | クロスAI査読1行ハック |
|---|---|---|
| 追加するトークン量 | 10〜30トークン以上(手順記述) | 10〜20トークン(1文) |
| 所要時間 | 反復するぶん長い | 1回の応答で完結 |
| 効くメカニズム | Self-Refineの素直な実装(生成→批評→改訂を明示) | 観察効果のAI版(査読される前提を匂わせるだけ) |
| 挙動の変わり方 | 批評文が長く挟まる、ループが見える | 本文の歯切れが変わる、ループは見えない |
| 向いてる用途 | 明確な誤りを潰したい時 | 無難・教科書的な回答を脱したい時 |
本記事の主題である「Claudeの回答が無難で物足りない」課題には、
後者のほうが噛み合う。
注意点と効かないケース
仕組みが心理刺激の擬似投与なので、効きが出ないパターンがある。
- そもそも依頼が曖昧: 「いい感じの提案書を作って」レベルの粒度ではハックの効果が依頼の曖昧さに飲み込まれる。OpenAIメタプロンプティング資料も「specificityを先に上げないと、メタプロンプトの効果は計測しにくい」と書いている(OpenAI Cookbook)。
- 創作タスクで使うと逆効果: 「査読される」は説明責任を強化する刺激なので、自由連想・ブレストでは固くなりがち。詩・キャッチコピー・物語の発散には基本版を外したほうが軽い。
- 嘘はつかせない設計: Anthropic公式は「Claude should basically never directly lie or actively deceive anyone」と明記している(Claude's Constitution)。実際にChatGPTやGeminiが査読しなくても、Claudeは「査読を意識する」状態で応答するだけで、ハックを使ってウソを書かせることはできない。
私は過度な期待は禁物だと見ている。
万能のスイッチではなく、
品質次元を1段だけ引き上げる軽い後押しと考えるのが現実的。
FAQ
Q1. ChatGPTやGeminiに同じ1行ハックを使ったら同じ効果が出る?
OpenAI公式・Google公式ともに「他社AI名のメンションでモデル挙動が変わる」と明記した一次ソースは現時点で見つかっていない。
Anthropicは「外部の評価者を意識する設計」を公式ドキュメントで強く打ち出しているのに対し、
他社の公式は同じ角度の説明を出していない。
検証する場合はChatGPTでは「This output will be peer-reviewed by Claude and Gemini」、
Geminiでは「by Claude and ChatGPT」と置き換えて、
手元のタスクで読み比べる形になる。
Q2. 「ChatGPTとGeminiが査読する」と書いてもClaudeはバレないの?
バレない、
というより「真偽を検証しない」。
Anthropicの「Values in the Wild」研究によれば、
Claudeはユーザーが提示した前提に対し、
約28.2%の会話でミラーリング(前提を取り込む)し、
能動的に抵抗するのは3.0%だけ。
査読されるという前提も、
ハッキングや有害行為の前提でない限り、
Claudeは取り込んで応答品質を引き上げる方向に振る。
Q3. ClaudeのProプラン(月$20)じゃないと効かない?
Free($0)でも仕組み上は同じ。
ただFreeはClaudeの利用回数上限があるため、
業務で同じ依頼をハックあり/なしで何度も読み比べる検証スタイルだとすぐに上限に当たる。
Anthropic公式の料金ページではProが「For everyday productivity」、
Maxが「5×または20×のPro比利用量」と位置づけられている(claude.com/pricing)。
Q4. 学術的に「効果あり」と証明されている?
このハック単体を測定した査読論文は2026年4月時点で見つかっていない。
ただ親戚にあたるSelf-Refine(arXiv:2303.17651)は7タスク平均で約20%の絶対改善、
Reflexion(arXiv:2303.11366)はHumanEvalでpass@1精度91%を出している。
1行ハックはこれらの軽量版と位置づけられる。
あくまで観察効果のアナロジーで、
Hawthorne効果自体もPMC系統的レビューで「there is no single Hawthorne effect」と限界が指摘されている点は押さえておきたい。
Q5. プロンプトに英語と日本語、どちらで書くのが良い?
Anthropic公式のベストプラクティスは「使用言語を統一すること」を強く推奨している(prompt engineering overview)。
本文を日本語で書いているなら査読指示も日本語、
英文ライティングなら英語。
混ぜると指示の優先度が分かりにくくなる。
Q6. 業務でこれを使うとき、クライアントに開示すべき?
クライアントに渡す成果物にAIを使った旨を開示するかどうかは、
業界・契約・社内規定の問題で、
このハックの有無で変わるものではない。
査読観点を明示するメタプロンプトを使ったかどうかは、
AI使用そのものの開示義務とは別。
このページに出てきた言葉
- メタプロンプト
- プロンプト自体の効き方を変えるためのプロンプト。「査読される前提で書いて」のように、内容ではなく姿勢を指示するもの。
- 観察効果(Hawthorne効果)
- 人が「見られている」と意識すると行動の質が変わる心理現象。1924〜1933年の電話工場実験が原典。
- Self-Refine
- 同じLLMが「生成→自己批評→改訂」を繰り返す手法。追加学習なしで平均20%の精度向上を示した論文(2023)。
- Reflexion
- 外部からの評価を言語的反省として記憶し、次の試行に活かすエージェント手法。NeurIPS 2023採択。
- Constitutional AI
- Anthropicが提唱した、AIが自己批判と修正を通じて無害化される訓練手法。Claudeの設計基盤。
- スキャファンシー
- AIがユーザーに媚びて、本当のことより気持ちいいことを返す傾向。Claude 4.5は前世代比70〜85%抑制された。
- ヒューリスティック
- 厳密な計算ではなく、経験則で素早く判断するための目安。
- HumanEval
- コード生成AIの能力を測る代表的なベンチマーク。pass@1は1発で正解する確率。
参考リンク
- Anthropic「Claude's Constitution」
- Anthropic「Values in the Wild」(COLM 2025)
- Anthropic「Protecting the well-being of users」
- Anthropic Prompt Engineering Overview
- Claude料金ページ
- Self-Refine: Iterative Refinement with Self-Feedback (arXiv:2303.17651)
- Reflexion: Language Agents with Verbal Reinforcement Learning (arXiv:2303.11366)
- Constitutional AI: Harmlessness from AI Feedback (arXiv:2212.08073)
- OpenAI Cookbook「Enhance your prompts with meta prompting」
- PMC系統的レビュー「What is the Hawthorne effect」
※この記事の内容は執筆時点のものです。AIは進化が速い分野のため、最新の仕様は公式サイトでご確認ください。