この記事の結論
Claudeに課金しているのに答えがブレるのは、Claude側の問題ではなくプロンプトの構造側の問題。
Anthropic公式動画「Prompting 101」のV1→V5改造手順は、Claude自身に「私のプロンプトをV5まで書き直して」と丸投げするだけで誰でも再現できる。
議事録要約ならV3で十分、メール分類や契約書ならV5まで必要。
手元の1個のプロンプトに移植する5ステップを記事末に置いた。
この記事はClaude.aiまたはClaude Codeに月20ドル以上払っているのに、毎回プロンプトをゼロから書き直していて精度がブレる人向け(プログラミング不要、英語動画も字幕越しに追える前提で大丈夫)。
Anthropic公式動画「Prompting 101」って結局何の話?
2025年5月22日にサンフランシスコで開催された Anthropic 公式の開発者イベント「Code w/ Claude 2025」の中の1セッションが「Prompting 101」です。
登壇は Anthropic Applied AIチームの2名。
Applied AIは、企業顧客と一緒にClaudeを業務に組み込む実装担当部隊で、研究を主にやる Research チームとは別組織です。
動画の長さは24分。
前半14分でV1→V5までプロンプトを5段階に進化させ、後半10分が Q&A という構成。
動画はYouTubeで無料公開・登録不要。
Anthropic公式 Code w/ Claude版動画: https://www.youtube.com/watch?v=ysPbXH0LpIE(24分、2025年7月31日アップロード)
題材はスウェーデン語で書かれた自動車事故の保険請求書類。
17個のチェックボックスと手描きの事故スケッチが1枚に混在していて、どちらのドライバーに過失があるかをClaudeに判定させる、というタスクです。
これ、ぶっちゃけ題材選びがうまい。
言語が英語以外、テキストと画像が混在、構造化情報と非構造化情報が共存、二者択一じゃなく複数根拠が必要。
「初心者のプロンプトが詰まる要素」が全部入っているからです。
2026年4〜5月になって海外のAI界隈で再評価され、SNSで再バズしている動画でもあります。
海外のAIリサーチャーが「Anthropicの Prompting 101 Workshop: What They Got Right, What They Missed」というタイトルで2026年4月27日に取り上げたあたりから再火しました。
IBM の VP of AI Products も LinkedIn で次のように紹介しています。
Anthropicの『Prompting 101』は現実に使えるプロンプト作成チュートリアルの中でベストクラス。
高パフォーマンスのチームはプロンプトをコードやデータと同じファーストクラスのアセットとして扱う。― IBM, VP of AI Products, LinkedIn投稿より
V1→V5でClaudeの回答はどう変わる?
動画の流れを表に整理するとこうなります。
各バージョンで何を足したか、結果がどう変わったかを並べました。
| バージョン | 追加した要素 | Claudeの回答の変化 |
|---|---|---|
| V1 | system prompt 空 / 「画像を見て何が起きたか教えて」だけ | スウェーデン語の地名を読んで「スキー事故です」と誤回答 |
| V2 | Task context(保険査定担当のロール)+ Tone + Background data | スキー事故誤認は消える。ただし判定根拠が曖昧 |
| V3 | XMLタグで情報を区切る + 背景情報をsystem promptへ移動 | 「Vehicle Bに明らかな過失がある」と自信を持って判定 |
| V4 | 処理ステップを `<tasks>` で4段階に分解して順序を強制 | 「全体をなんとなく見る」から「指定順で処理する」モードに切り替わる。再現性が安定 |
| V5 | Output Format(XMLタグで出力形式を固定)+ Assistant Prefill | 出力フォーマットが固定。後続プログラムが自動で値を抽出できる本番品質 |
V1の結果が衝撃です。
スウェーデン語で書かれた書類を見せただけで、Claudeは地名から推測して「スキー事故」と答えてしまう。
これは公式動画の冒頭シーンで、登壇者が「Claudeにとってこのプロンプトはコンテキストがほぼゼロの状態」とコメントしています。
悪いのはClaudeじゃなく、私たちの渡し方の方。
V3の段階で「Vehicle Bに明らかな過失がある」と自信を持って答えるようになる、という変化はかなり大きい。
XMLタグで情報を区切ったうえで、フォーム構造の詳しい説明、つまり17個ある運転行動それぞれの意味、スウェーデン語から英語への対応表、書き込みのルールをまとめてsystem promptに注入したのが効いている。
Claudeは学習データにXMLタグが大量に含まれているため、XMLタグでの構造化に強い設計になっている。
― Anthropic公式ドキュメント「Prompting best practices」
動画のtemperature設定はデモ全体を通して0で固定。
乱数要素を抜いた状態でも、V1とV5でこれだけ回答が変わるという話です。
10要素フレームワークは結局どこに置けば効くの?
動画では「プロンプト構成の10要素」がフレームワークとして提示されています。
10個もあると最初は怯みますが、置く場所が決まっているので構造を覚えれば迷わなくなる。
| 番号 | 要素 | 置く場所 | 役割 |
|---|---|---|---|
| 1 | Task context | system prompt 冒頭 | Claudeの役割・目的を定義 |
| 2 | Tone context | system prompt | 返答スタイル・口調の指定 |
| 3 | Background data | system prompt(静的に置く) | 分析対象の書類・ドメイン知識 |
| 4 | Detailed task description & rules | system prompt | 制約・禁止事項・ガードレール |
| 5 | Examples | system prompt(few-shot) | 正しい出力サンプル3〜5個 |
| 6 | Conversation history | messages配列 | マルチターンの前の対話 |
| 7 | Immediate task description | user prompt 末尾 | 今回の具体的な依頼 |
| 8 | Thinking step by step | user prompt | 分析の順序を明示 |
| 9 | Output formatting | system prompt or user prompt | JSON/XMLで構造指定 |
| 10 | Prefilled response | assistant メッセージ(後述の注意あり) | 回答の書き出しを固定 |
10番だけ立ち位置が特殊なので、後ろのセクションで別枠で扱います。
残りの9個は配置場所ごとに3つにグルーピングできる。
1〜5番は system prompt 側。
一度設定したら毎回同じ内容を再利用する「静的情報」です。
Claudeに渡したい役割・背景・ルール・例はここ。
6番は messages配列。前の会話履歴を渡したいときだけ使う枠。
7〜9番は user prompt 側。
毎回変わる具体的な依頼・思考の順序指示・今回の出力フォーマット指定が入る。
私はこの3グループ分けの方が10個のリストより腹落ちします。
動画で登壇者2名が口を揃えて言っているのは「静的情報は system prompt に置け」。
理由は再現性とコスト、両方に効くからです。
Static information belongs in the system prompt. Prompt engineering is an iterative empirical science. Build test cases, find failure patterns, encode fixes.
― 動画内容を英語で書き起こした第三者レビュー記事(dev.toの開発者コミュニティブログより、URLは記事末の参考リンクへ)
system prompt に静的情報を置くもう1つの理由が prompt caching です。
Anthropic公式docsによれば、system prompt とツール定義をキャッシュすると APIコスト最大90%削減、レイテンシ最大85%削減。
月720ドル払っていた人が月72ドルに下がった、という事例も第三者の開発者ブログで報告されています。
つまり「静的情報を system prompt に集約する」というV3の教えは、精度だけでなくコストにも効く設計判断。
V5の「Assistant Prefill」って今でも使えるの?
ここが現行モデルで一番つまずく場所なので、事実を歯切れよく書きます。
動画のV5で目玉として紹介された Assistant Prefill は、Claude 4.x系(Opus 4.7 / Opus 4.6 / Sonnet 4.6 / Mythos Preview)では2026年初頭に廃止されています。
API呼び出し時に「Prefilling assistant messages is no longer supported」という400エラーが返る、という形。
Claude 4.6で本番エージェントが2時間で壊れた。
prefillの削除が最大の破壊的変更だった。― chanl.aiのClaude 4.6破壊的変更解説記事より(URLは記事末の参考リンク)
廃止の理由は技術コミュニティで議論されています。
prefillがジェイルブレイクに悪用されやすいから廃止された。
OpenAIが2023年に同様に無効化したのと同じ理由。― Hacker Newsの技術ディスカッションスレッドより
同じスレッドの別のコメントでは「`<svg`から始めさせたりできる本当にクールな機能だった」と廃止を惜しむ声も上がっています。
つまり「V5を動画通りに再現しようとすると現行モデルでは詰まる」、ただし「V1〜V4の構造化技術はそのまま全部生きている」というのが現状。
動画が無意味になったわけじゃない。
V5の最後の一段だけ移行先を覚えればいい話です。
Anthropic公式が示している移行先は2つ。
- Structured outputs(`output_config.format` でJSON/XMLの構造を直接指定する公式機能)— API利用者向け(公式docs)
- system prompt または user prompt 末尾での明示指示(「Output only valid JSON with no preamble. Begin your response with an opening brace」のように書く)
API/Workbench を触らない Claude.ai チャット派にとっては2番目が現実解。
Anthropic公式docsの「Prompting best practices」が推奨している書き方そのままです。
Claude.aiチャット版でV5相当をどう再現するか?
ここが Claude.ai 課金組(Pro月20ドル / Maxプラン月100〜200ドル)にとっての本題。
動画のV5は API/Workbench 前提のデモなので、チャット欄しか触らない人には「で、私はどうすればいいの?」が残るはずです。
整理すると、チャット側で V5 相当を再現するルートは2本あります。
ルート1: Claude Projects のCustom Instructions枠を system prompt として使う
Claude.ai には Projects 機能があります。
プロジェクトごとに「カスタム指示(Custom Instructions)」を1つ書いておくと、そのプロジェクト内で送る全てのチャットの先頭にその指示が自動でくっつきます。
これが事実上の system prompt 枠。
無料プランでも最大5プロジェクトまで作れる仕様です。
ここに動画V3で言及されていた静的情報、つまり役割・ドメイン知識・出力ルール・XMLタグ構造を入れる。
これだけで V3 相当の構造化が完了します。
ルート2: user prompt の末尾で Prefill 相当を文字列指示する
user prompt の最後に「`<final_verdict>` タグの開始から書き始めてください」と書く。
これだけ。
API のように回答の頭1トークンを完全固定できるわけじゃないですが、現行モデルでも体感ほぼ同じ挙動になります。
Anthropic公式docs の「Prompting best practices」も同じ趣旨で「Output only valid JSON with no preamble. Begin your response with an opening brace.」を推奨書式として挙げています。
地味だが効きます。
議事録要約はV3で十分、契約書はV5まで必要 — シーン別の線引き
動画では「簡単なタスクは1〜3要素で十分」と登壇者が明言しています。
とはいえ具体的にどのタスクがどこまで必要かの線引きまでは公式が出していません。
そこで業務シーン別に「どこまで詰めればいいか」を整理しました。
これは私の判断です。
| 業務シーン | 必要レベル | 理由 |
|---|---|---|
| 会議の議事録要約 | V2〜V3 | 1回きりの作業で誤差が許容範囲。役割定義+背景データで十分 |
| 簡単な文章の英訳・和訳 | V2 | Tone context(フォーマル/カジュアル等)を足せばOK |
| SNS投稿のリライト | V2〜V3 | トーンと参考例(few-shot)があれば回せる |
| メールを5種類に自動分類 | V5 | 後続処理に渡すので出力フォーマット厳格が必須 |
| 契約書からの情報抽出 | V5 | 抜き取った値を表に入れる前提。JSON/XML固定じゃないと壊れる |
| フォームPDFの構造化読み取り | V5 | 動画のスウェーデン語保険書類と同型。Output Format必須 |
| 顧客サポートチャット(自動応答) | V4〜V5 | 処理ステップを明示しないと一貫性が崩れる |
| ブログ記事のドラフト生成 | V3〜V4 | Tone + few-shot + 構成指示があれば十分 |
線引きの軸はシンプル。
「Claudeの出力をそのまま読むか、次の処理に渡すか」。
読むだけならV3で足りる、次に渡すならV5まで必要。
毎回手で確認するなら出力のブレは許せる範囲です。
プログラムが受け取って動く前提だと、フォーマットが1文字でも崩れると後続が止まる。
第三者のnote記事もこの構造を端的に書いています。
プロンプトエンジニアリングは『科学』でも『芸術』でもある。
理解してから詳細を分析するという順序が人間の認知に近く、精度が上がる。― 第三者執筆のnote記事「Prompting 101書き起こし」より(URLは記事末の参考リンク)
手元の1個のプロンプトをClaude自身にV5化させる5ステップ
ここが看板。
10要素を全部覚えてゼロから書き直すのは正直しんどい。
なのでClaude本人に「Prompting 101のV1→V5に従って書き直して」と丸投げします。
非エンジニアでも実行可能なルートで5ステップに整理しました。
STEP1: 現在使っているプロンプトを1個コピーする
普段Claude.aiやClaude Codeに送っているプロンプトのうち、「精度がブレている」「毎回手直しが必要」と感じるものを1つだけ選んでテキストエディタ(メモ帳でもVS Codeでも可)に貼り付ける。
選ぶ基準は「週2回以上使う」「結果のフォーマットが微妙にズレる」のいずれか。
1回しか使わないプロンプトをV5化しても投資対効果が低いです。
STEP2: そのプロンプトを下の雛形に貼って、Claudeに送る
新しいチャットを開いて、下の雛形をそのままコピペします。
{ここに貼る} の部分にSTEP1のプロンプトを入れる。
あなたはAnthropicのApplied AIチームが公開した「Prompting 101」動画(https://www.youtube.com/watch?v=ysPbXH0LpIE)の内容に詳しいプロンプトエンジニアです。
次のユーザープロンプトを、動画のV1→V5の改造手順に従って書き直してください。
ユーザープロンプト:
"""
{ここに貼る}
"""
書き直し時のルール:
1. 結果はsystem promptとuser promptの2ブロックに分けて出力すること
2. system promptには Task context / Tone context / Background data / Detailed rules / Examples を含めること
3. XMLタグ(<background><document><tasks><final_output>等)で各情報を区切ること
4. user prompt末尾には「Output Formatの開始タグから書き始めてください」と明記すること
5. Examples(few-shot)が必要なら、私に質問する形で3個分の例を聞き出してから完成版を出すこと
出力は次の形式で:
<system_prompt>
(書き直したsystem prompt)
</system_prompt>
<user_prompt>
(書き直したuser prompt)
</user_prompt>
これを送るだけ。
雛形の中で「動画V1→V5の構造に従って」と指定しているので、Claudeは10要素フレームワークを内部で参照して書き直してくれます。
STEP3: Claudeから返ってきた書き直し版を眺める
返ってきた system_prompt と user_prompt の2ブロックを確認します。
チェックポイントは3つだけ:
- system_prompt の冒頭で Claude の役割(例: 「あなたは保険査定担当です」)が明示されているか
- XMLタグで情報の区切りが明確になっているか
- user_prompt の末尾で出力フォーマットの開始タグが指定されているか
3つ揃っていればV5相当の構造化は完了。
STEP4: Claude Projects にカスタム指示として system_prompt を貼る
Claude.ai の左サイドバーから「Projects」→「New project」で新規プロジェクトを作る。
プロジェクト名をタスク名(例:「契約書情報抽出」)にしておくと後で分かりやすい。
「Project knowledge」または「Custom Instructions」欄にSTEP3で得た system_prompt の中身を貼り付けて保存。
これでこのプロジェクト内で送る全てのチャットの先頭に、自動でsystem promptがくっつくようになります。
STEP5: プロジェクト内のチャット欄から user_prompt を毎回送って結果を3回ためす
STEP4で作ったプロジェクトを開いて、チャット欄にSTEP3で得た user_prompt を送る。
結果が返ってきたら、別の入力データで同じ user_prompt を最低3回試して、出力フォーマットが固定されているかを確認します。
もしブレるなら、STEP2の雛形に戻って「Examplesを3つ追加で聞いてください」と再依頼。
few-shotが3〜5個入るとV5相当の安定度になります。
勘所はここ。
「Claude自身に書き直させる」「Projectsのカスタム指示に貼る」「3回試して再現性を確認する」の3つが揃ったら、もう単発の依頼レベルからは抜け出しています。
V5の落とし穴と「全部やる必要はない」と動画も言っている話
記事末でちゃぶ台を返すようですが、V5まで全部やる必要は普段ありません。
動画の中で登壇者の1人も実用上の見解を述べています。
もし出力がどうあるべきかの長い説明を書いているなら、止まれ。例を1個見せろ。
― Prompting 101 動画内発言(paraphrase)
10要素を全部入れることがゴールじゃない。
例を1個渡せばV4まで作り込む必要がなくなる場面も多い、という現場感覚です。
もう1つ動画後半のQ&Aで触れられている注意点が Extended Thinking の使い方。
Extended Thinkingは『デバッグ専用の松葉杖』である。
本番でずっと使うとトークンとレイテンシを浪費する。
正しい使い方は推論パターンを観察して固定の `<tasks>` ステップに変換すること。― Prompting 101 動画解説(第三者書き起こし、URLは記事末の参考リンク)
これも私が印象に残った話。
Extended Thinking を毎回オンにしてればいいだろう、というのは雑な運用で、本番運用ではClaudeが内部で踏んだ思考ステップを観察してV4の `<tasks>` ブロックに固定化するのが正解、という設計思想です。
あと最後に1つ、現実のリスク注意。
動画の保険書類の例は「過失判定」という高リスク判断なので、Claudeに完全自動で任せてはいけない種類のタスクです。
第三者の書き起こし記事も同じ点を明記しています。
検証層・人間レビューなしに高リスク判断をClaudeに一任してはいけない。
― 第三者書き起こしレビュー記事より
V5まで作り込んでフォーマットが固まったとしても、判定の中身が正しいかは人間が確認する。
これは動画の文脈では当然の前提として扱われています。
FAQ
Q. Anthropicの「Prompting 101」動画は無料で見られますか?
はい、YouTubeで無料公開・登録不要です。
Code w/ Claude版とAnthropic公式チャンネル版の2バージョンがあり、長さはどちらも24分です。
URLは記事末の参考リンク欄。
Q. V5の Assistant Prefill が現行モデルで使えないと聞きましたが、動画は古いんですか?
動画自体は2025年5月収録で、当時は Prefill が動作していました。
Claude 4.x系(Opus 4.7 / Opus 4.6 / Sonnet 4.6 / Mythos Preview)では2026年初頭から廃止されているため、Prefillの一段だけ現行モデルでは使えません。
ただしV1〜V4の構造化技術と、V5のOutput Format指定はそのまま全部有効です。
Prefillの代わりに Structured outputs か user prompt 末尾での明示指示を使う、というのが Anthropic公式が示している移行ルートです。
Q. Claude.ai のチャット側だけ使っている非エンジニアですが、V5まで再現できますか?
できます。
Claude Projects のカスタム指示欄に system prompt 相当を貼って、user prompt 末尾で「`<final_verdict>` の開始タグから書き始めてください」と指示すれば、V5の主要部分は再現できます。
記事末の「5ステップ」がそのまま手順です。
Q. 議事録要約にもV5まで作り込む必要がありますか?
いりません。
動画内でも登壇者が「簡単なタスクは1〜3要素で十分」と発言しています。
私の整理ではV3まで(Task context + Tone + Background + XMLタグ)で十分。
V5までやるのはメール大量分類・契約書情報抽出・フォーム読み取りなど、出力フォーマットを次の処理に渡す必要があるタスクだけです。
Q. プロンプトを毎回書き直すのが面倒です。Claude Projects とどう違いますか?
Claude Projects の「カスタム指示」欄は API の system prompt と同じ役割を持つ枠です。
一度書いておけばプロジェクト内の全チャットに自動でくっつくので、毎回コピペする必要がなくなります。
無料プランでも最大5プロジェクトまで作れるので、業務シーン別にプロジェクトを分けて運用するのが省力化の王道です。
Q. 「精度20%向上」という数字を見ましたが、これは V1→V5 の改善幅ですか?
違います。
それは Anthropic公式ブログ「Prompt engineering for business performance」(2024年2月29日)で報告された Fortune 500企業の活用事例で「プロンプト改善+SMEの知見投入」による数字。
Prompting 101 動画の V1→V5 では定量パーセンテージは提示されておらず、「Vehicle Bに過失」「スキー事故誤認が消えた」という質的な記述で示されています。
2つの事例を混同しないように注意。
参考リンク
- Anthropic公式 Prompting 101 動画(Code w/ Claude版): https://www.youtube.com/watch?v=ysPbXH0LpIE
- Anthropic公式 Prompting 101 動画(Anthropicチャンネル版): https://www.youtube.com/watch?v=FMWRfZ_VNdw
- Anthropic公式 Prompting best practices: claude-prompting-best-practices
- Anthropic公式 Structured outputs: structured-outputs
- Anthropic公式 Prompt caching: prompt-caching
- Anthropic公式 prompt-eng-interactive-tutorial(GitHub、9章構成): github.com/anthropics/prompt-eng-interactive-tutorial
- Anthropic公式ブログ Prompt engineering for business performance: anthropic.com/news
- Code w/ Claude 2025 イベントページ: anthropic.com/events
このページに出てきた言葉
- system prompt
- Claudeに最初に渡す「役割・前提・ルール」のかたまり。毎回同じ内容を使い回す静的情報をここに入れる
- user prompt
- Claudeに毎回送る「今回の質問・依頼」の本文。チャット欄に打ち込むあの文章
- messages配列
- ユーザー発言とClaude返答を順番に並べた履歴のリスト。会話の文脈を渡す入れ物
- Applied AIチーム
- Anthropic社内で、企業顧客と一緒にClaudeを業務に組み込む実装担当のチーム
- Assistant Prefill
- ClaudeのAPIで、回答の書き出しをこちらから固定する機能。Claude 4.x系では廃止済み
- Structured outputs
- 「出力をJSONのこの形にしてください」と指定すると必ずその形で返してくれる公式機能。Prefillの後継
- XMLタグ
- `<background>〜</background>` のような山括弧でくくる目印。情報の区切りをClaudeに教える
- few-shot
- 正解の例を3〜5個見せてから本番のタスクを依頼するやり方。説明より例示が効く
- temperature
- 回答に含まれるランダム性のつまみ。0だと毎回同じ答え、1に近づくほど揺れる
- prompt caching
- system prompt等の静的部分をAnthropic側に覚えさせて、2回目以降のコストを通常の10%にしてもらえる仕組み
- Claude Projects
- Claude.aiの中で関連チャットをまとめる機能。プロジェクトごとに「カスタム指示」と共有ファイルを持てる
- カスタム指示 (Custom Instructions)
- Claude Projectsで設定する「このプロジェクトでClaudeに守ってほしいルール」の欄。system prompt枠として機能する
- ジェイルブレイク
- Claudeに本来答えてはいけないことを特殊な手順で答えさせようとする悪用テクニック
※この記事の内容は執筆時点のものです。AIは進化が速い分野のため、最新の仕様は公式サイトでご確認ください。