AI活用全般

Karpathy「How I use LLMs」2時間11分を日本語で整理|非エンジニア業務層が先に見るべき4領域と17章マップ

この記事の結論

  • Andrej Karpathy(OpenAI創設メンバー・元Tesla AI責任者)が2025年2月27日に公開した無料動画「How I use LLMs」は2時間11分・全17章の実用ガイド
  • Karpathy公式Xポストによれば「a more practical guide of the entire LLM ecosystem」として位置づけられている
  • 非エンジニア業務層が全部見るのは重い。17章のうち「思考モデル」「ツール使用」「ファイル投入」「画像入出力」の4領域を先に押さえると費用対効果が高い

ChatGPTもClaudeも毎日触っているのに、
どの機能の何割を使えているか答えられない。
この違和感を持ったまま2026年春を迎えている業務ユーザーは多いはずです。
OpenAI創設メンバーのAndrej Karpathyが、
2時間11分の無料動画でLLM活用の全体像を話しています。
タイトルは「How I use LLMs」。

この記事ではKarpathy公式Xポストと動画トランスクリプト、
英語圏のレビュー記事を引用ベースで整理して、
非エンジニア業務層向けに「どこから見るか」を絞り込みます。
日本語で体系的に解説した記事がほぼ無い領域です。
ここが狙いどころ。

Karpathy「How I use LLMs」とは何か

動画本体はYouTubeで無料公開されています。
Karpathy本人のXポストを引きます。

New 2h11m YouTube video: How I Use LLMs. This video continues my general audience series. The last one focused on how LLMs are trained, so I wanted to follow up with a more practical guide of the entire LLM ecosystem, including lots of examples of use in my own life.

出典: Andrej Karpathy 公式X

ここで大事なのは「general audience series(一般向けシリーズ)」という位置づけです。
Karpathyは技術向けの「Zero to Hero」シリーズとは別に、
非エンジニア層にも届く講義動画を3本出しています。
基本情報を表で整理します。

項目内容
動画タイトルHow I use LLMs
公開日2025年2月27日
2時間11分(Karpathy公式Xポストで明記)
言語英語(YouTube自動翻訳で日本語字幕の利用可)
料金無料(YouTube)
章数17章(公式タイムスタンプ付き)
位置づけ一般向けシリーズ第3弾。前作の訓練解説の実践編
発話者Andrej Karpathy(OpenAI創設メンバー、元Tesla AIディレクター)

私がここで効くと思うのは、
尺の長さではなくKarpathyの経歴の方です。
OpenAIの創設メンバーで、
テスラの自動運転AIを5年見てきて、
スタンフォードCS231nを2015年から主任講師でやっていた人。
その人が「Karpathy自身の使い方を見せる」という構成で2時間喋っている。
ここに重みがあります。

誰が喋っているのか:Karpathyの経歴を1分で

非エンジニア業務層向けに、
Karpathyが「誰の話を聞くことになるのか」を公式プロフィールから押さえておきます。

  • 1986年スロバキア生まれ、15歳でカナダ・トロントへ
  • スタンフォード大博士(2015年、指導教員はFei-Fei Li)
  • OpenAIに2015年〜2017年(創設メンバー・研究科学者)、2023年〜2024年に復帰
  • Tesla AIディレクターとして2017年〜2022年(Elon Musk直属で自動運転チーム統括)
  • スタンフォード CS231nは2015年の受講者150人が2017年には750人に拡大
  • 2024年7月「Eureka Labs」設立(AIネイティブ教育)
  • TIME100 Most Influential People in AI(2024年)選出

出典は karpathy.aiWikipedia です。

要するに、
OpenAIを立ち上げた側の人間であり、
同時に大学で「教える側」を7年やってきた人。
この組み合わせが「一般向け講義動画」の信頼の源になっています。
ここは薄めない方がいい。

17章の全貌:公式チャプター構成

Karpathy公式Xポストにチャプタータイムスタンプが掲載されています。
全17章を日本語でマッピングします。

#時刻章タイトル(原文)日本語サマリ
100:00Intro into the growing LLM ecosystemLLMエコシステム全体像のイントロ
202:54ChatGPT interaction under the hoodChatGPTの内部で何が起きているか
313:12Basic LLM interactions examples基本的なやり取りの実例
418:03Be aware of the model you're using, pricing tiersどのモデルを使ってるか意識する、料金プランの話
522:54Thinking models and when to use them思考モデル(Reasoning)とその使いどころ
631:00Tool use: internet searchツール使用:インターネット検索連携
742:04Tool use: deep researchツール使用:Deep Research
850:57File uploads, adding documents to contextファイルアップロード、ドキュメント投入
959:00Tool use: python interpreter, messiness of the ecosystemPythonインタプリタ、エコシステムの煩雑さ
101:04:35ChatGPT Advanced Data Analysis, figures, plotsChatGPT Advanced Data Analysis、図表生成
111:09:00Claude Artifacts, apps, diagramsClaude Artifacts、アプリ・図表
121:14:02Cursor: Composer, writing codeCursor Composerでのコード生成
131:22:28Audio (Speech) Input/Output音声入出力
141:27:37Advanced Voice Mode aka true audio inside the modelAdvanced Voice Mode(モデル内部の音声)
151:37:09NotebookLM, podcast generationNotebookLM、ポッドキャスト生成
161:40:20Image input, OCR画像入力、OCR
171:47:02Image output, DALL-E, Ideogram, etc.画像出力、DALL-E、Ideogram他

17章全部を真正面から潰すのは、
非エンジニア業務層には重いです。
正直しんどい。
というわけで、
次のセクションで「先に見るべき4領域」に絞ります。

非エンジニア業務層が優先すべき4領域

17章を全部見なくていい。
Karpathyが動画内で強調している発言ベースで、
業務ユーザーが最初に取りにいくべきテーマを4つに絞りました。
ここが日本語圏で整理されていない角度です。

① コンテキストウィンドウ(章2・章3・章8)

Karpathyはコンテキストウィンドウを「ワーキングメモリ」と定義しています。
動画トランスクリプトから引きます。

the context window is kind of like this working memory of tokens and anything that is inside this context window is in the working memory

出典: ytscribe.com トランスクリプト

そして話題を切り替えるときは新しいチャットを立てろ(start a new chat when switching topics)と明確に推奨しています。
ここ、
毎日使ってる人ほど盲点です。
私の観察でも、
ChatGPTで1つのスレッドを延々と使い回してる業務ユーザーは多い。
文脈が詰まりすぎて回答が劣化するパターン。

章8の「File uploads」では、
ドキュメント投入の使い方も紹介されています。
AnalyticsVidhyaの解説記事はこの章の要点をこう書いています。

When I read The Wealth of Nations, the model helps me understand the nuances by summarizing chapters and answering my clarifying questions. It's like having a knowledgeable study partner

出典: Analytics Vidhya

Karpathyは『国富論』を読みながらLLMに章ごとの要約と質問応答をやらせていた。
業務文書にそのまま転用できる使い方。

② 思考モデル(章5)

Reasoning系モデル(o1、
Claude 3.5 Sonnet拡張思考、
Gemini Thinkingなど)の使いどころです。
Karpathyの発言を引きます。

these thinking strategies when you look at them they very much resemble kind of the inner monologue you have when you go through problem solving

出典: ytscribe.com トランスクリプト

要点は使い分けです。
AnalyticsVidhya要約によれば、
Karpathyは深く難しい問題には思考モデル、
日常的なクエリ(旅行の提案など)には非思考モデル
という方針を明示しています。

For everyday queries like travel recommendations a non-thinking model might be preferable

出典: Analytics Vidhya

思考モデルは遅い、
高い、
でも深い。
非思考モデルは速い、
安い、
でも浅い。
当たり前のことですが、
業務層はこの使い分けを明示的にやれてない人が多い。
ここは2分で見れる章なのでコスパが高いです。

③ ツール使用:Deep Researchと複数LLMの使い分け(章6・章7)

Karpathyの有名な発言がここで出ます。
「LLM Council」という考え方。

I end up personally just paying for a lot of them and then asking all all of them the same question... refer to all these models as my llm Council

出典: ytscribe.com トランスクリプト

複数のLLMに同じ質問を投げて、
答えを並べて判断する。
Karpathyはこれを「個人のLLM評議会」と呼んでいます。
さらにDeep Researchについてはこう言及しています。

the ChatGPT offering is currently the best it is the most thorough... perplexity and the grok are a little bit shorter

出典: ytscribe.com トランスクリプト(動画公開時点2025年2月の評価)

ChatGPT版Deep Researchが最も網羅的で、
Perplexity・Grokは短め。
2025年2月時点の評価なので現状は変動しています。
ただし「使い分ける」という枠組み自体は通用する話。

④ ハルシネーション対策(章7内の注意喚起)

Deep Researchの便利さの裏で、
Karpathyは幻覚(ハルシネーション)への警戒を明確に促しています。

everything that is given to you here again keep in mind that even though it is doing research... can be hallucinated at any point in time

出典: ytscribe.com トランスクリプト

AnalyticsVidhya要約では「提供された引用を必ず確認せよ(Always check the provided citations to confirm the accuracy)」というKarpathyの指針も明確にされています。
Deep Researchの出力は「初稿として扱え」というのが実用の閾値です。

これ地味に一番大事なところ。
業務で使ってる人ほど、
Deep Researchの出力をそのまま資料にコピペしかけてる光景がある。
Karpathy本人が警告している章なので、
見ておいて損はありません。

英語圏での評価:引用で見る他者の声

動画への一次反応を英語圏から2本引きます。

This is a must-watch. Karpathy just released 'How I Use LLMs' – a 2h11m deep dive on how to better use AI with the right tools.

出典: AlphaSignal AI(aiminds.com掲載)

The video is great and is full of treasures around generative AI... It took me an entire day to write it up. Best suited for Non Data Scientists.

出典: Mehul Gupta(Medium)

Mehul Guptaの一言、
効いていて、
「Best suited for Non Data Scientists(データサイエンティストではない人に最適)」という評価です。
非エンジニア業務層が見る価値があるというのは、
英語圏の解説者もそう位置づけている。
日本語ではこの位置づけがあまり流通していません。

Hacker Newsでは前作「Deep Dive into LLMs」のスレッドが582ポイント・46コメントを集めています(出典: HN)。
コメントには「スタンフォードに通わなくてもCS231nの動画で最高の講師から学べた」という声も残っています。
Karpathy動画シリーズへの英語圏の信頼は高い水準で安定しています。

限界とギャップ:動画が2025年2月公開であること

批判点として1つ押さえておくべきは、
動画が2025年2月27日時点のモデル・UI情報で喋られていることです。
2026年春の現行モデル(Claude Opus 4.7、
GPT-5系、
Gemini 3系)とはUIや料金プランが違います。

ただし、
Karpathyが扱っているのは個別モデルの比較ではなく「LLMエコシステムの使い方の枠組み」です。
ワーキングメモリとしてのコンテキスト、
思考モデルと非思考モデルの使い分け、
ツール使用、
LLM Council、
ハルシネーション対策。
この枠組みは今でも全部そのまま通用する話。

個別モデル名の新旧比較は古くなりますが、
枠組みは腐りにくい。
私は2時間動画を今見る意味は、
ここ一点に尽きると見ています。

Karpathy 2026年4月の新コンセプトとの接続

動画視聴の次に繋げるなら、
Karpathyが2026年4月2日〜3日に投稿した「LLM Knowledge Bases(LLM Wiki)」が外せません。
X上で16百万インプレッション超の大バズを記録しています。

Karpathyの2026年4月Xポスト(LLM Wiki構想)は16百万インプレッション超。
RAGの代わりに、
LLMが管理・更新し続けるMarkdownベースの知識ベースを構築するパターン。

出典: Karpathy公式X / GitHub Gist

「How I use LLMs」(2025年2月)で基礎体力を作り、
「LLM Knowledge Bases」(2026年4月)で手元の知識基盤構築に進む。
この1年の流れがKarpathyの発信の中で綺麗に繋がっています。
個人的には、
2時間動画の方を先に見るのが順番として正解だと思っています。

非エンジニア業務層向けの週次視聴プラン

2時間11分を1回で消化するのは、
業務ユーザーにはしんどい。
そこで4週に分けるプランを提案します。

時間対象章テーマ
Week 1約30分章1〜4LLMエコシステムとモデル選び・料金プラン
Week 2約30分章5〜7思考モデル、ツール使用、Deep Research
Week 3約30分章8〜11ファイル投入、Pythonインタプリタ、Claude Artifacts
Week 4約40分章13〜17音声・画像・NotebookLM・マルチモーダル

非エンジニア業務層なら、
Week 1とWeek 2だけでも費用対効果は高いです。
私はここをまず押さえてから先に進むのが実務順だと見ています。
章12の「Cursor: Composer」はコード書く人向けなので、
業務層は飛ばしてOK。

字幕は英語原文+YouTube自動翻訳で日本語字幕を出す方式が現実解です。
Karpathyの話すスピードは速めなので、
0.75倍速からの入りもあり。

よくある質問(FAQ)

Q. この動画は英語ですが日本語字幕で見られますか?

YouTubeの自動翻訳機能で日本語字幕を表示できます。
Karpathyの話すスピードが速めなので、
再生速度を0.75倍に落とすと追いやすくなります。

Q. 2時間11分は長すぎます。どこから見るべきですか?

非エンジニア業務層なら「章5:思考モデル」「章6〜7:ツール使用・Deep Research」「章8:ファイルアップロード」「章16〜17:画像入出力」の4領域が優先度高めです。
合計で45〜60分前後で核が掴めます。

Q. 2025年2月公開の動画は今(2026年春)でも通用しますか?

個別モデル名(GPT-4、
Claude 3.5等)の情報は古くなっています。
ただし、
コンテキストウィンドウの扱い方、
思考モデルと非思考モデルの使い分け、
LLM Council、
ハルシネーション対策といった「枠組み」部分は今でも全部通用します。
動画の価値は枠組みにあります。

Q. Karpathyの他の動画で見るべきものは?

同じ「general audience series」の前作「Deep Dive into LLMs like ChatGPT」(3時間31分、
LLMの訓練を主題にした動画)が順番としては前です。
技術寄りに進みたいなら「Zero to Hero」シリーズ(全8本・合計14時間超)があります。
詳細は karpathy.ai に掲載されています。

Q. 動画視聴の次は何をやるべきですか?

Karpathyが2026年4月に投稿した「LLM Knowledge Bases(LLM Wiki)」が続編的な位置づけです。
X上で16百万インプレッション超の大バズとなった新コンセプトで、
GitHub Gist に原文が公開されています。

関連リンク

※この記事の内容は執筆時点のものです。AIは進化が速い分野のため、最新の仕様は公式サイトでご確認ください。

-AI活用全般

← 戻る