この記事の結論
- Andrej Karpathy(OpenAI創設メンバー・元Tesla AI責任者)が2025年2月27日に公開した無料動画「How I use LLMs」は2時間11分・全17章の実用ガイド
- Karpathy公式Xポストによれば「a more practical guide of the entire LLM ecosystem」として位置づけられている
- 非エンジニア業務層が全部見るのは重い。17章のうち「思考モデル」「ツール使用」「ファイル投入」「画像入出力」の4領域を先に押さえると費用対効果が高い
ChatGPTもClaudeも毎日触っているのに、
どの機能の何割を使えているか答えられない。
この違和感を持ったまま2026年春を迎えている業務ユーザーは多いはずです。
OpenAI創設メンバーのAndrej Karpathyが、
2時間11分の無料動画でLLM活用の全体像を話しています。
タイトルは「How I use LLMs」。
この記事ではKarpathy公式Xポストと動画トランスクリプト、
英語圏のレビュー記事を引用ベースで整理して、
非エンジニア業務層向けに「どこから見るか」を絞り込みます。
日本語で体系的に解説した記事がほぼ無い領域です。
ここが狙いどころ。
Karpathy「How I use LLMs」とは何か
動画本体はYouTubeで無料公開されています。
Karpathy本人のXポストを引きます。
New 2h11m YouTube video: How I Use LLMs. This video continues my general audience series. The last one focused on how LLMs are trained, so I wanted to follow up with a more practical guide of the entire LLM ecosystem, including lots of examples of use in my own life.
ここで大事なのは「general audience series(一般向けシリーズ)」という位置づけです。
Karpathyは技術向けの「Zero to Hero」シリーズとは別に、
非エンジニア層にも届く講義動画を3本出しています。
基本情報を表で整理します。
| 項目 | 内容 |
|---|---|
| 動画タイトル | How I use LLMs |
| 公開日 | 2025年2月27日 |
| 尺 | 2時間11分(Karpathy公式Xポストで明記) |
| 言語 | 英語(YouTube自動翻訳で日本語字幕の利用可) |
| 料金 | 無料(YouTube) |
| 章数 | 17章(公式タイムスタンプ付き) |
| 位置づけ | 一般向けシリーズ第3弾。前作の訓練解説の実践編 |
| 発話者 | Andrej Karpathy(OpenAI創設メンバー、元Tesla AIディレクター) |
私がここで効くと思うのは、
尺の長さではなくKarpathyの経歴の方です。
OpenAIの創設メンバーで、
テスラの自動運転AIを5年見てきて、
スタンフォードCS231nを2015年から主任講師でやっていた人。
その人が「Karpathy自身の使い方を見せる」という構成で2時間喋っている。
ここに重みがあります。
誰が喋っているのか:Karpathyの経歴を1分で
非エンジニア業務層向けに、
Karpathyが「誰の話を聞くことになるのか」を公式プロフィールから押さえておきます。
- 1986年スロバキア生まれ、15歳でカナダ・トロントへ
- スタンフォード大博士(2015年、指導教員はFei-Fei Li)
- OpenAIに2015年〜2017年(創設メンバー・研究科学者)、2023年〜2024年に復帰
- Tesla AIディレクターとして2017年〜2022年(Elon Musk直属で自動運転チーム統括)
- スタンフォード CS231nは2015年の受講者150人が2017年には750人に拡大
- 2024年7月「Eureka Labs」設立(AIネイティブ教育)
- TIME100 Most Influential People in AI(2024年)選出
出典は karpathy.ai と Wikipedia です。
要するに、
OpenAIを立ち上げた側の人間であり、
同時に大学で「教える側」を7年やってきた人。
この組み合わせが「一般向け講義動画」の信頼の源になっています。
ここは薄めない方がいい。
17章の全貌:公式チャプター構成
Karpathy公式Xポストにチャプタータイムスタンプが掲載されています。
全17章を日本語でマッピングします。
| # | 時刻 | 章タイトル(原文) | 日本語サマリ |
|---|---|---|---|
| 1 | 00:00 | Intro into the growing LLM ecosystem | LLMエコシステム全体像のイントロ |
| 2 | 02:54 | ChatGPT interaction under the hood | ChatGPTの内部で何が起きているか |
| 3 | 13:12 | Basic LLM interactions examples | 基本的なやり取りの実例 |
| 4 | 18:03 | Be aware of the model you're using, pricing tiers | どのモデルを使ってるか意識する、料金プランの話 |
| 5 | 22:54 | Thinking models and when to use them | 思考モデル(Reasoning)とその使いどころ |
| 6 | 31:00 | Tool use: internet search | ツール使用:インターネット検索連携 |
| 7 | 42:04 | Tool use: deep research | ツール使用:Deep Research |
| 8 | 50:57 | File uploads, adding documents to context | ファイルアップロード、ドキュメント投入 |
| 9 | 59:00 | Tool use: python interpreter, messiness of the ecosystem | Pythonインタプリタ、エコシステムの煩雑さ |
| 10 | 1:04:35 | ChatGPT Advanced Data Analysis, figures, plots | ChatGPT Advanced Data Analysis、図表生成 |
| 11 | 1:09:00 | Claude Artifacts, apps, diagrams | Claude Artifacts、アプリ・図表 |
| 12 | 1:14:02 | Cursor: Composer, writing code | Cursor Composerでのコード生成 |
| 13 | 1:22:28 | Audio (Speech) Input/Output | 音声入出力 |
| 14 | 1:27:37 | Advanced Voice Mode aka true audio inside the model | Advanced Voice Mode(モデル内部の音声) |
| 15 | 1:37:09 | NotebookLM, podcast generation | NotebookLM、ポッドキャスト生成 |
| 16 | 1:40:20 | Image input, OCR | 画像入力、OCR |
| 17 | 1:47:02 | Image output, DALL-E, Ideogram, etc. | 画像出力、DALL-E、Ideogram他 |
17章全部を真正面から潰すのは、
非エンジニア業務層には重いです。
正直しんどい。
というわけで、
次のセクションで「先に見るべき4領域」に絞ります。
非エンジニア業務層が優先すべき4領域
17章を全部見なくていい。
Karpathyが動画内で強調している発言ベースで、
業務ユーザーが最初に取りにいくべきテーマを4つに絞りました。
ここが日本語圏で整理されていない角度です。
① コンテキストウィンドウ(章2・章3・章8)
Karpathyはコンテキストウィンドウを「ワーキングメモリ」と定義しています。
動画トランスクリプトから引きます。
the context window is kind of like this working memory of tokens and anything that is inside this context window is in the working memory
そして話題を切り替えるときは新しいチャットを立てろ(start a new chat when switching topics)と明確に推奨しています。
ここ、
毎日使ってる人ほど盲点です。
私の観察でも、
ChatGPTで1つのスレッドを延々と使い回してる業務ユーザーは多い。
文脈が詰まりすぎて回答が劣化するパターン。
章8の「File uploads」では、
ドキュメント投入の使い方も紹介されています。
AnalyticsVidhyaの解説記事はこの章の要点をこう書いています。
When I read The Wealth of Nations, the model helps me understand the nuances by summarizing chapters and answering my clarifying questions. It's like having a knowledgeable study partner
出典: Analytics Vidhya
Karpathyは『国富論』を読みながらLLMに章ごとの要約と質問応答をやらせていた。
業務文書にそのまま転用できる使い方。
② 思考モデル(章5)
Reasoning系モデル(o1、
Claude 3.5 Sonnet拡張思考、
Gemini Thinkingなど)の使いどころです。
Karpathyの発言を引きます。
these thinking strategies when you look at them they very much resemble kind of the inner monologue you have when you go through problem solving
要点は使い分けです。
AnalyticsVidhya要約によれば、
Karpathyは深く難しい問題には思考モデル、
日常的なクエリ(旅行の提案など)には非思考モデルという方針を明示しています。
For everyday queries like travel recommendations a non-thinking model might be preferable
出典: Analytics Vidhya
思考モデルは遅い、
高い、
でも深い。
非思考モデルは速い、
安い、
でも浅い。
当たり前のことですが、
業務層はこの使い分けを明示的にやれてない人が多い。
ここは2分で見れる章なのでコスパが高いです。
③ ツール使用:Deep Researchと複数LLMの使い分け(章6・章7)
Karpathyの有名な発言がここで出ます。
「LLM Council」という考え方。
I end up personally just paying for a lot of them and then asking all all of them the same question... refer to all these models as my llm Council
複数のLLMに同じ質問を投げて、
答えを並べて判断する。
Karpathyはこれを「個人のLLM評議会」と呼んでいます。
さらにDeep Researchについてはこう言及しています。
the ChatGPT offering is currently the best it is the most thorough... perplexity and the grok are a little bit shorter
出典: ytscribe.com トランスクリプト(動画公開時点2025年2月の評価)
ChatGPT版Deep Researchが最も網羅的で、
Perplexity・Grokは短め。
2025年2月時点の評価なので現状は変動しています。
ただし「使い分ける」という枠組み自体は通用する話。
④ ハルシネーション対策(章7内の注意喚起)
Deep Researchの便利さの裏で、
Karpathyは幻覚(ハルシネーション)への警戒を明確に促しています。
everything that is given to you here again keep in mind that even though it is doing research... can be hallucinated at any point in time
AnalyticsVidhya要約では「提供された引用を必ず確認せよ(Always check the provided citations to confirm the accuracy)」というKarpathyの指針も明確にされています。
Deep Researchの出力は「初稿として扱え」というのが実用の閾値です。
これ地味に一番大事なところ。
業務で使ってる人ほど、
Deep Researchの出力をそのまま資料にコピペしかけてる光景がある。
Karpathy本人が警告している章なので、
見ておいて損はありません。
英語圏での評価:引用で見る他者の声
動画への一次反応を英語圏から2本引きます。
This is a must-watch. Karpathy just released 'How I Use LLMs' – a 2h11m deep dive on how to better use AI with the right tools.
The video is great and is full of treasures around generative AI... It took me an entire day to write it up. Best suited for Non Data Scientists.
Mehul Guptaの一言、
効いていて、
「Best suited for Non Data Scientists(データサイエンティストではない人に最適)」という評価です。
非エンジニア業務層が見る価値があるというのは、
英語圏の解説者もそう位置づけている。
日本語ではこの位置づけがあまり流通していません。
Hacker Newsでは前作「Deep Dive into LLMs」のスレッドが582ポイント・46コメントを集めています(出典: HN)。
コメントには「スタンフォードに通わなくてもCS231nの動画で最高の講師から学べた」という声も残っています。
Karpathy動画シリーズへの英語圏の信頼は高い水準で安定しています。
限界とギャップ:動画が2025年2月公開であること
批判点として1つ押さえておくべきは、
動画が2025年2月27日時点のモデル・UI情報で喋られていることです。
2026年春の現行モデル(Claude Opus 4.7、
GPT-5系、
Gemini 3系)とはUIや料金プランが違います。
ただし、
Karpathyが扱っているのは個別モデルの比較ではなく「LLMエコシステムの使い方の枠組み」です。
ワーキングメモリとしてのコンテキスト、
思考モデルと非思考モデルの使い分け、
ツール使用、
LLM Council、
ハルシネーション対策。
この枠組みは今でも全部そのまま通用する話。
個別モデル名の新旧比較は古くなりますが、
枠組みは腐りにくい。
私は2時間動画を今見る意味は、
ここ一点に尽きると見ています。
Karpathy 2026年4月の新コンセプトとの接続
動画視聴の次に繋げるなら、
Karpathyが2026年4月2日〜3日に投稿した「LLM Knowledge Bases(LLM Wiki)」が外せません。
X上で16百万インプレッション超の大バズを記録しています。
Karpathyの2026年4月Xポスト(LLM Wiki構想)は16百万インプレッション超。
RAGの代わりに、
LLMが管理・更新し続けるMarkdownベースの知識ベースを構築するパターン。出典: Karpathy公式X / GitHub Gist
「How I use LLMs」(2025年2月)で基礎体力を作り、
「LLM Knowledge Bases」(2026年4月)で手元の知識基盤構築に進む。
この1年の流れがKarpathyの発信の中で綺麗に繋がっています。
個人的には、
2時間動画の方を先に見るのが順番として正解だと思っています。
非エンジニア業務層向けの週次視聴プラン
2時間11分を1回で消化するのは、
業務ユーザーにはしんどい。
そこで4週に分けるプランを提案します。
| 週 | 時間 | 対象章 | テーマ |
|---|---|---|---|
| Week 1 | 約30分 | 章1〜4 | LLMエコシステムとモデル選び・料金プラン |
| Week 2 | 約30分 | 章5〜7 | 思考モデル、ツール使用、Deep Research |
| Week 3 | 約30分 | 章8〜11 | ファイル投入、Pythonインタプリタ、Claude Artifacts |
| Week 4 | 約40分 | 章13〜17 | 音声・画像・NotebookLM・マルチモーダル |
非エンジニア業務層なら、
Week 1とWeek 2だけでも費用対効果は高いです。
私はここをまず押さえてから先に進むのが実務順だと見ています。
章12の「Cursor: Composer」はコード書く人向けなので、
業務層は飛ばしてOK。
字幕は英語原文+YouTube自動翻訳で日本語字幕を出す方式が現実解です。
Karpathyの話すスピードは速めなので、
0.75倍速からの入りもあり。
よくある質問(FAQ)
Q. この動画は英語ですが日本語字幕で見られますか?
YouTubeの自動翻訳機能で日本語字幕を表示できます。
Karpathyの話すスピードが速めなので、
再生速度を0.75倍に落とすと追いやすくなります。
Q. 2時間11分は長すぎます。どこから見るべきですか?
非エンジニア業務層なら「章5:思考モデル」「章6〜7:ツール使用・Deep Research」「章8:ファイルアップロード」「章16〜17:画像入出力」の4領域が優先度高めです。
合計で45〜60分前後で核が掴めます。
Q. 2025年2月公開の動画は今(2026年春)でも通用しますか?
個別モデル名(GPT-4、
Claude 3.5等)の情報は古くなっています。
ただし、
コンテキストウィンドウの扱い方、
思考モデルと非思考モデルの使い分け、
LLM Council、
ハルシネーション対策といった「枠組み」部分は今でも全部通用します。
動画の価値は枠組みにあります。
Q. Karpathyの他の動画で見るべきものは?
同じ「general audience series」の前作「Deep Dive into LLMs like ChatGPT」(3時間31分、
LLMの訓練を主題にした動画)が順番としては前です。
技術寄りに進みたいなら「Zero to Hero」シリーズ(全8本・合計14時間超)があります。
詳細は karpathy.ai に掲載されています。
Q. 動画視聴の次は何をやるべきですか?
Karpathyが2026年4月に投稿した「LLM Knowledge Bases(LLM Wiki)」が続編的な位置づけです。
X上で16百万インプレッション超の大バズとなった新コンセプトで、
GitHub Gist に原文が公開されています。
関連リンク
- 動画本体: How I use LLMs(YouTube)
- Karpathy公式サイト: karpathy.ai
- Karpathy公式Xポスト(動画発表): @karpathy
- Zero to Heroシリーズ: karpathy.ai/zero-to-hero
- LLM Knowledge Bases(2026年4月): GitHub Gist
- Apple Podcast版: Apple Podcasts
- 英語解説記事(Medium): Mehul Gupta
- 英語解説記事(Analytics Vidhya): analyticsvidhya.com
※この記事の内容は執筆時点のものです。AIは進化が速い分野のため、最新の仕様は公式サイトでご確認ください。