AI活用全般

Claudeに指示が通らない原因はプロンプトの骨格|Anthropic公式10要素を6分類で読み解く設計図

Claudeに指示が通らない原因はプロンプトの骨格|Anthropic公式10要素を6分類で読み解く設計図

この記事の要点

  • Anthropic公式「Prompting 101」は10要素でプロンプトを解剖している。Xで話題になった「6要素フレーム」は、その10要素をコミュニティが業務向けに6つへ再整理したもの。
  • Claudeの出力が毎回ブレる原因は、6要素のうちどれかが欠けている。特に成功条件(Success Criteria)が欠落している人が多い。
  • Claude Opus 4.7から「より文字通りに」プロンプトを解釈する仕様に変わった。明示的な6要素構造の重要性はむしろ増している。

Claudeに同じ質問をしても、
毎回違う角度の答えが返ってきてイラッとする。
原因はモデルではなく、
プロンプトの骨格にある。
Anthropic公式の10要素をコミュニティが6分類に整理した「6要素フレーム」が、
その骨格にあたる。
私はこのフレームを日常のプロンプト設計に取り込む価値があると見ていて、
その理由を公式ドキュメントと開発者の発言を引きながら整理する。

そもそも「6要素フレームワーク」は公式の正式名称ではない

先に出典の精度を詰めておく。
Anthropic公式のプロンプトエンジニアリング概要ページや、
インタラクティブチュートリアル(GitHub公開)のどこにも「6要素フレームワーク」というラベルは存在しない。

公式が示しているのは10要素の解剖構造。
Frank Andrade氏がAnthropic「Prompting 101」から引用したリストが分かりやすい。

Anthropic revealed the anatomy of the perfect Claude prompt. 1. Task context 2. Tone context 3. Background materials 4. Detailed instructions & rules 5. Examples 6. Conversation history 7. Immediate request 8. Reasoning directive 9. Output formatting 10. Prefilled response.
(出典: Frank Andrade @thepycoach

Xで話題化した「6要素整理」は、
この10要素を業務向けにコンパクト化したコミュニティ版というのが正確な読み方。

ちなみに「1.1Mインプレッション超え」という数字が一部で紹介されているが、
元ツイートはX有料壁で一次確認が取れていない。
数字はあくまで「Xで報告されている」レベルで扱う。
ここは厳密にいきます。

Anthropic公式10要素を6分類で読む設計図

コミュニティが整理した6要素と、公式10要素の対応はこう読める。

6要素(コミュニティ整理)対応する公式10要素役割
Role(役割)Task context / Tone contextモデルに誰として応答させるかを先に決める
Task(タスク)Immediate request今この瞬間にやらせたい具体アクション
Input Context(入力文脈)Background materials / Conversation history参照素材と過去のやりとり
Success Criteria(成功条件)Detailed instructions & rules「良い出力」の定義を先に書く
Output Format(出力形式)Output formatting / Prefilled response構造・長さ・先頭文字列の固定
Alignment(整合)Examples / Reasoning directive良例提示と推論プロセスの指示

Claude中級者の多くは、
Role・Task・Output Formatの3つで止まる。
ここから差がつく。

私が一番注目しているのは「成功条件」の独立要素化

6要素のうち、
私が特に注目しているのがSuccess Criteria(成功条件)。
公式ドキュメントに独立ページが存在するほど扱いが重い。

Building a successful LLM-based application starts with clearly defining your success criteria and then designing evaluations to measure performance against them.
(出典: Anthropic Docs「Define your success criteria」

公式は成功条件の4要件として Specific / Measurable / Achievable / Relevant を挙げている。
「good performance」ではなく「accurate sentiment classification」と書け、
というレベルの具体性を要求する。

ここ地味にきつい。
でも、
これを書かないから出力が毎回ブレる。
成功条件を先に言語化するだけで、
同じプロンプトでも出力のバラつきは目に見えて減ると多くの実務者が報告している。

なぜ今この整理が効くのか:Claude Opus 4.7の仕様変更

6要素を骨格として持つ意義は、最新モデルの仕様変更で一段強まった。

Claude Opus 4.7 interprets prompts more literally and explicitly than Claude Opus 4.6, particularly at lower effort levels. It will not silently generalize an instruction from one item to another, and it will not infer requests you didn't make.
(出典: Anthropic公式「Prompting best practices」

「書いてないことは推測しない」方向へモデルが振れた。
つまり、
6要素のうち欠けた要素はそのまま出力のブレに直結する。
私は曖昧なプロンプトで何となく良い答えを返してくれた時代はもう終わったと見ている。

ここは明確に潮目。

6要素の効果を裏付ける実測データ

構造化プロンプトの効果は複数のソースで数字が出ている。

項目数値出典
XMLタグ付きプロンプトによる事実エラー削減37%減Chen et al., 2025(DreamHost引用
コンテキスト先置き(長文→クエリ順)の回答品質向上最大30%DreamHost実測
例付きプロンプトの成功率(FSM設計研究)90%(例なし比)FSM設計研究論文
Fortune 500税務チャットボットの精度向上20%Anthropic公式ケース
Extended ThinkingでSonnet 4.5の計画性能向上18%Cognition AI測定
構造化プロンプトフレーム採用企業68%2026 State of AI Engineering report

37%、
30%、
20%、
18%。
どれも「構造を持たせるだけでこれだけ変わる」という数字。
Anthropic自身が20%の精度向上を公式事例として出している点は重い。

開発者の実践ルーティンは「反復の回数」に出ている

Anthropic内部の開発者発言も、
6要素を骨格にした反復の価値を裏付けている。

I go back-and-forth hundreds of times with Claude in 15 minutes to iterate.
— Amanda Askell(Anthropicエンジニア、Fortune記事より)
It's so hard to untangle in your own brain all of the stuff that you know that Claude does not know.
— David Hershey(Anthropicエンジニア、同上)

15分で数百往復。
私はこれをプロンプトを診断ツールとして使っている動きだと読んでいて、
6要素があるとどこが原因でズレたかを指差しできる。
「Role足りない?」「Success Criteria書いた?」「Example入れた?」と骨格で潰しにいける。

骨格なしの反復は運試しになる。骨格ありの反復は実験になる。

6要素の扱いに対する批判・限界の声

一方で、構造化プロンプトへの冷めた見方もある。両論入れておく。

Modern models understand vague, informal instructions with robustness that makes expert prompt crafting mostly unnecessary for standard use cases.
(出典: Lakera 2026年ガイド

「最近のモデルは雑な指示でも十分に動く」という指摘。
Anthropic自身も「over-engineering simple tasks」を警戒してdo the simplest thing that worksを推す場面がある(出典)。

また、Claudeの構造化出力機能については開発者から不満の声も出ている。

Anthropic's structured output implementation doesn't support advanced JSON Schema elements like unions or discriminated unions, requiring schema flattening for complex use cases.
(出典: Hacker News

6要素を持たせても、
ツール側の制約で表現しきれないケースがあるという話。
私は日常業務レベルなら6要素で十分で、
JSON Schemaレベルの話は別レイヤーだと整理している。

競合フレームとの違いはどこにあるか

プロンプト設計のフレームは他にもある。比較しておく。

フレーム構成Anthropic6要素との差分
RTFRole / Task / Format最軽量3要素。成功条件とAlignmentが丸ごと欠ける
CRISPECapacity/Role, Insight, Statement, Personality, Experimentロールプレイ寄り。タスク明示・成功条件の独立要素が薄い
ReActReasoning + Actingエージェント用途の動的パターン。静的プロンプト設計とは別レイヤー
Anthropic6要素Role / Task / Input Context / Success Criteria / Output Format / Alignment成功条件が独立要素、XMLタグで入力区切りを推奨

Anthropic固有の強みは2点。
成功条件を独立要素として立てる点と、
XMLタグで入力を明示区切りする点。
特に後者はClaude系でのベストプラクティスとして一貫して推されている。

私ならこう使う:6要素を診断ツールとして運用する

6要素をプロンプトを書く時のテンプレとしてだけ使うのはもったいない。
診断ツールとして使うと真価が出る。

出力がズレた時、6要素のチェックリストを順に当てる。

  • Role:誰として答えさせたか明示したか
  • Task:今この瞬間の具体アクションが1つに絞れているか
  • Input Context:参照素材を先に置いたか(クエリ先置きは品質が落ちる)
  • Success Criteria:「良い出力」の定義を Specific / Measurable で書いたか
  • Output Format:構造・長さ・先頭文字列を指定したか
  • Alignment:例を3〜5個提示したか、推論プロセスを指示したか

ズレの原因が1つに特定できれば、
プロンプト全体を書き直さずにその要素だけ補強すればいい。
修正コストが激減する。

ここが一番効くポイントだと見ています。

FAQ

Q1. 6要素フレームはAnthropic公式の正式名称ですか?

いいえ。
公式は「Prompting 101」で10要素の解剖構造を示しており、
「6要素フレームワーク」という公式ラベルは存在しません。
コミュニティ(@Av1dlive氏など)が10要素を業務向けに6分類に再整理したものです。

Q2. まず1つだけ取り入れるならどの要素ですか?

Success Criteria(成功条件)。
Anthropic公式ドキュメントが独立ページで強調している要素で、
「良い出力の定義」を先に書くだけで出力のバラつきが目に見えて減るという報告が多いです。
Specific / Measurable / Achievable / Relevantの4要件で書くのが公式推奨です。

Q3. Claude Opus 4.7でプロンプトの書き方は変わりますか?

変わります。
公式ドキュメントによると、
Opus 4.7は4.6よりも「より文字通りに」プロンプトを解釈し、
書かれていないことを勝手に推測しません。
6要素のうち欠けた要素はそのまま出力のブレに直結するため、
明示的な構造化プロンプトの重要性は増しています。

Q4. XMLタグは必須ですか?

必須ではありませんが、
Anthropic公式と複数のサードパーティが一貫して推奨しています。
Chen et al., 2025の研究ではXMLタグ付きプロンプトが事実エラーを37%削減したと報告されています(DreamHost引用)。
Claude系ではmarkdownよりXMLタグが効きやすい領域です。

Q5. 6要素を全部書くとプロンプトが長くなりすぎませんか?

Anthropic自身が「over-engineering simple tasks」を警戒しており、
シンプルなタスクでは「do the simplest thing that works」を推奨しています。
6要素は骨格であって、
常に全部書く必要はありません。
出力がズレた時に6要素のどこが欠けたかを診断する使い方が実務的です。

参考リンク

※この記事の内容は執筆時点のものです。AIは進化が速い分野のため、最新の仕様は公式サイトでご確認ください。

-AI活用全般
-, , ,

← 戻る