AI活用全般

LLM Visualization(bbycroft.net/llm)は何が凄いのか|Karpathyも採用した3D可視化を「説明役」目線で整理

この記事でわかること

  • bbycroft.net/llm が「論文を開かずにLLMの中身を他人に説明する」教材として機能する理由
  • nano-gpt(8.5万)→ GPT-2(1.24億)→ GPT-3(1,750億)のスケール差を3Dで体感できる構造
  • Andrej Karpathy が2025年2月の「Deep Dive into LLMs」動画でリソースに採用した事実
  • 教育現場・社内研修・家族への説明に使うときの「どこを開いて何を見せるか」

「AIってどう動いてるの」と子どもや上司に聞かれて、
論文のPDFを開くと相手が寝る。
これはもうAI時代のあるあるです。

そこに対して、
ブラウザひとつで「Transformerの中をぐりぐり触って見せる」ルートがあります。
それが bbycroft.net/llm
ニュージーランド出身のエンジニア Brendan Bycroft氏が本業の傍らで作った、
無料・登録不要の3D可視化ツールです。

私はこの記事を、
「AIを毎日触ってはいるが Transformer の中身は詰む」非エンジニア向けに、
引用ソース中心で組みました。
論文を読まずに相手の理解を一段ジャンプさせるための、
教材としての使い倒し方をまとめます。

bbycroft.net/llm とは何か(公式と一次情報で整理)

公式サイト bbycroft.net/llm と GitHub リポジトリ bbycroft/llm-viz の README を突き合わせると、
正体はこうなります。

  • OpenAI の GPT-2 / GPT-3(場合によって GPT-4)のネットワークトポロジーをそのまま3Dで描いた可視化ツール
  • 画面左に解説テキスト(ウォークスルー)、画面右にインタラクティブな3Dモデル
  • 説明の進行に連動して、3D側の該当ブロックが自動でハイライトされる
  • 青セル=学習で調整されるパラメータ、緑セル=入力から計算される中間値
  • セルにマウスを乗せると中の数値が出る

操作方法は作者自身の X ポストに書いてあります。引いておきます。

Oh yeah, the link is here: https://bbycroft.net/llm Works best on desktop (sorry mobile). Left-click drag, right-click rotate, scroll to zoom. And hover over the tensor cells. Blue cells are weights/parameters, green cells are intermediate values. Each cell is a single number!

— Brendan Bycroft(@BrendanBycroft, 2023/12

左クリックで移動、
右クリックで回転、
スクロールでズーム。
タッチ操作ではなくマウス操作前提、
というところだけ覚えておけば十分です。

ここが効く。
テンソルの「ひとマス」が「ひとつの数字」に対応している、
と作者本人が明言している点です。
数式として暗いまま扱われがちな行列が、
3D空間上の目に見える四角として並ぶ。
この変換自体がこのツールの発明です。

なぜ「説明する側」にとって決定打なのか

個人的には、
このツールの価値は「ひとりで理解するため」より「他人に説明するため」に寄っていると感じています。

Datasette 作者の Simon Willison は 2023年12月のレビューでこう書いています。

Brendan Bycroft's beautifully crafted interactive explanation of the transformers architecture ... step through and see a representation of the flurry of matrix algebra that occurs every time you get a Large Language Model to generate the next token.

— Simon Willison(simonwillison.net, 2023/12/04

「LLM が次の1トークンを出すたびに走る、
あの怒涛の行列演算」を1ステップずつ進められる。
これは動画でも静止画でもできない体験です。
ここはかなり強い。

Hacker News のスレッド(id=40418131)には、
こういうコメントもあります。

This type of stateful visualization was _way_ more effective at conceptualizing how an LLM works than reading code or stepping through a debugger.

— joenot443(Hacker News, 2024/05/20)

コードを読むよりも、
デバッガでステップ実行するよりも、
この状態付き可視化の方が効いた、
という評価です。
これはエンジニアサイドの声。
説明を受ける非エンジニアに効くのは、
正直当然です。

論文・本ルートと比べて何が違うか(比較表)

既存の「Transformer の学び方」と並べて比べます。
教材として選ぶ基準を明確にしたいので、
対象・インタラクション・前提知識の3軸で整理しました。

教材 形式 触れる 前提知識 「他人に見せる」用途
bbycroft.net/llm ブラウザ3D + 左側解説 ○(マウス操作) ◎ 画面共有して一緒に触れる
Illustrated Transformer(Jay Alammar, 2018) 静的ブログ記事+図解 × △ 図をスクショして渡す程度
Transformer Explainer(Georgia Tech, 2024) ブラウザ上で GPT-2 をリアルタイム推論 ◎(文字列入力可) ○ 入力を変えてデモ可能
「Attention Is All You Need」等の原論文 PDF × × 相手が離脱する
3Blue1Brown 動画 YouTube 動画 × 低〜中 ○ 見せるだけなら強い

bbycroft は「手を動かせる」かつ「前提知識が低い」ところに立っています。
Transformer Explainer は対話性では勝っていますが、
方向性が違う。
入力テキストを変えて推論結果を動かしたいなら Transformer Explainer、
推論プロセスの構造そのものを相手に見せたいなら bbycroft、
と棲み分けるのが素直です。

私なら、研修の冒頭10分に bbycroft を使います。論文は後で渡す。

nano-gpt / GPT-2 / GPT-3 のスケール差をどう使うか

このツールの隠れた主戦場は、
LLM のサイズ感の体感です。
GIGAZINE の英語版レビュー(2023/12/04)が3つのモデルのパラメータ数を以下のようにまとめています。

モデル パラメータ数 サイト上の扱い 用途(教材として)
nano-gpt 約 85,000 動作デモ(A・B・Cの3文字ソート) 最初に見せる「最小構成」
GPT-2(small) 約 1億2,400万(124M) アーキテクチャのスケール表示のみ(ウェイトは未バンドル) 「市販の会話AIの祖先」の規模感
GPT-3 約 1,750億(175B) アーキテクチャのスケール表示のみ ChatGPT登場期のサイズ感

ここに重要な注意点を1つ置きます。
GPT-2 と GPT-3 はギャラリー上で「大きさ」は見られますが、
GitHub README に明記されている通りウェイトファイル配布はされておらず、
実際に推論が走るのは nano-gpt のみ
です(出典: bbycroft/llm-viz README)。
ここを混同すると説明が崩れます。

nano-gpt と GPT-3 のパラメータ差は約200万倍。
これを数字で言っても相手には届きません。
bbycroft で実際に並べて見ると、
nano-gpt が点に見える瞬間が来ます。
そこで初めて「ChatGPT のお化けぶり」が伝わる。
数字じゃなく体積で伝わる教材、
はかなり貴重です。

Karpathy が動画で取り上げた事実(権威付け)

元 OpenAI 研究者の Andrej Karpathy が、
2025年2月公開の YouTube 動画「Deep Dive into LLMs like ChatGPT」(3時間31分)で bbycroft をリソースに採用しています。

動画のリソース一覧に「Transformer Neural Net 3D visualizer: https://bbycroft.net/llm」として収録されており、
動画後半(約3時間15分地点)でも言及されています(出典: codingscape.com / dilopa.com のノート)。

Karpathy は bbycroft 内で使われている nano-gpt の原型である minGPT 実装の作者本人です。
nano-gpt の原作者が、
その nano-gpt を可視化した教材を3時間半の解説動画の公式資料として採用している構図。
教材としての信用度はこれで十分に担保されています。

私はこの事実を、
社内で使うときの「権威カード」として置いておくのが一番賢いと思っています。
「Karpathy の Deep Dive 動画の公式リソースです」と一言添えるだけで、
相手の構えが変わる。

他人に説明する3つの場面と、見せる順番

教材としての立ち位置が確定したので、
実際の運用を3パターンに落とします。
場面ごとに「どこを開いて何を見せるか」の最低限のテンプレです。

場面1: 子ども・生徒に「AIってどうやって言葉を作ってるの」と聞かれたとき

まず nano-gpt のデモを開き、
左側のウォークスルーを最後まで進めず、
最初の「input embedding」部分だけ見せる。
「文字がまず数字の列になる」を体験させます。

ここで深追いしない。
3D空間を相手にぐるぐる回させる時間を作るのが大事です。
触らせる。
これに尽きる。

場面2: 社内AI推進や研修で「なぜ ChatGPT は賢いのに計算は苦手なのか」を説明するとき

nano-gpt の「A・B・Cの3文字ソート」タスクを見せて、
ソートという単純作業ですらこれだけのブロックを通過していると示す。
Benjamin Bengfort(Rotational Labs)もこのポイントを評価しています。

What I like most about this visualization is that it shows how much computation is involved in an LLM to achieve a relatively simple task like sorting letters.

— Benjamin Bengfort(LinkedIn, 2024

「3文字を並べ替えるためにこれだけの演算が走る」を見せてから、
「ここに GPT-3 スケールの約200万倍が乗っている」と GPT-3 のギャラリーに切り替える。
計算コストと賢さの関係が1分で伝わる流れです。

場面3: 取引先や家族に「AIは考えているの、それとも予測してるだけ?」と聞かれたとき

nano-gpt の inference パスを先頭から末尾まで通して見せる。
Karpathy が動画で強調していたのは、
このパスが「上から下へ」一方向に、
しかも「そんなに多くの層を通っていない」という点です(dilopa.com のノートより)。

「考える時間を置いているのではなく、
上から下へ1回通すだけで次の1語が決まる」という事実は、
見せれば相手の誤解が1つ消えます。
AIの怖さも便利さも、
ここを押さえておけば説明がブレません。

料金・動作要件・使い始め方

料金まわりはシンプルです。

  • 料金: 完全無料
  • アカウント登録・ログイン: 不要
  • インストール: 不要(ブラウザのみ)
  • 推奨端末: PC(デスクトップ最適)
  • 対応ブラウザ: Chrome / Safari / Edge / Firefox(WebGL 前提)
  • モバイル: 起動はするが、作者本人が「sorry mobile」と明言しており3D操作にはマウスかトラックパッド推奨

ローカルで改造して使いたい開発者向けには、
GitHub リポジトリに yarnyarn dev の2コマンドで起動できる手順が記載されています(bbycroft/llm-viz)。
TypeScript 91.8% の SPA です。

画面共有で人に見せるだけなら、
URL をそのまま開くだけ。
これ以上の前準備はいりません。

注意点と、このツールの限界

賞賛だけでは記事として片手落ちなので、批判側の声と限界を明記します。

Hacker News のスレッド(id=38505211、
スコア1592・コメント131
)には、
こういう異論もあります。

PyTorch 実装を読む方が勉強になる。

— physPop(Hacker News, 2023/12)を要約

これは技術者サイドの意見としては妥当です。
損失関数をコードで追える人は、
そちらで十分。
ただ、
本記事の読者像(非エンジニアが他人に説明する役回り)には刺さらない批判です。
宛先が違う。

ツールとしての構造的な限界も押さえておきます。

  • 可視化されるのは「推論パスのみ」。学習(バックプロパゲーションや勾配更新)の挙動はこのサイトでは見られません(bbycroft 含めて競合全体に共通する限界です)
  • 完全に動くデモは nano-gpt だけ。GPT-2 / GPT-3 はスケール表示のみ
  • UI は全英語(ただし数値の流れを見るツール性質上、言語バリアはかなり低い)
  • GitHub リポジトリに明示ライセンスがないIssues で複数問い合わせあり)。教材として紹介・画面共有する用途は問題ないと考えて良いですが、改変再頒布や商用配布はライセンス状況の確認が必要です

教材として「見せる・紹介する」用途なら問題なし。
自社プロダクトに組み込む、
は別案件、
という切り分けです。

結局どんな人におすすめできるか

Aisola Lab としての判断を整理します。

強く勧める人

  • 生徒・子どもに「AIの仕組み」を説明する先生・親
  • 社内研修で AI リテラシー教育を担当する人
  • クライアントや上司に ChatGPT の仕組みを噛み砕く必要があるライター・コンサル
  • Karpathy 動画を見始めたが Transformer のブロックごちゃ部分で詰まった人

正直、要らない人

  • PyTorch や JAX でモデルを一から書ける研究者・エンジニア(論文とコードを読んだ方が早い)
  • 「入力テキストを変えて推論結果を見たい」が目的の人 → 代わりに Transformer Explainer を選ぶべき
  • 学習(ファインチューニング)の挙動を見たい人 → このツールでは見えない

私の結論としては、
無料・登録不要・モバイル以外なら即起動。
教材ストックに1つ入れておいて損はないツールです。

FAQ

Q. bbycroft.net/llm は本当に完全無料ですか

A. 完全無料です。
アカウント登録・ログインも不要で、
ブラウザで URL を開けばそのまま動きます。
作者ページ(bbycroft.net)に寄付リンク(Stripe)が公開されていますが、
任意です。

Q. スマートフォンでも使えますか

A. 起動はします。
ただし作者本人が X で「Works best on desktop (sorry mobile)」と明言しており(出典)、
3D モデルの移動・回転・ズームにはマウスかトラックパッドが推奨です。
PCで開く前提のツールと理解しておくのが無難。

Q. ChatGPT や Claude の動きも見られますか

A. 直接は見られません。
サイトで動作デモとして動くのは nano-gpt(約85,000パラメータ)のみで、
GPT-2(124M)と GPT-3(175B)はネットワークの大きさ(アーキテクチャのスケール表示)だけが見られる構造です。
ChatGPT / Claude / GPT-4 のウェイトは公開されていないため、
このツールに限らず現時点で公開可視化ツールは存在しません。

Q. Andrej Karpathy は本当にこのサイトを紹介しているんですか

A. 2025年2月公開の YouTube 動画「Deep Dive into LLMs like ChatGPT」(3時間31分)のリソース一覧に収録されています。
動画後半(約3時間15分地点)でも言及があります(dilopa.com のノート)。

Q. GitHub からローカル環境で動かせますか

A. 動きます。
bbycroft/llm-viz リポジトリに README があり、
yarn でインストール→yarn dev で起動の2コマンドです。
TypeScript 主体の SPA で、
GitHub スター数は 5,400以上(フォーク 626)。
ただし明示ライセンスがないため、
改変版の公開配布や商用利用はリポジトリのライセンス状況を確認してください。

Q. 似たツールを他に挙げるとしたら

A. 対話型で入力テキストを変えて GPT-2 の推論を動かしたいなら Georgia Tech の Transformer Explainer
静的でじっくり読みたいなら Jay Alammar の The Illustrated Transformer
3Blue1Brown の YouTube 動画も教材として強い。
用途ごとに棲み分けるのが正解です。

参考リンク

※この記事の内容は執筆時点のものです。AIは進化が速い分野のため、最新の仕様は公式サイトでご確認ください。

-AI活用全般
-

← 戻る