AI活用全般

WeClone|チャット履歴からAIの分身を作る方法——GPU不要の軽量版とフル版の違い・始め方

WeCloneは、
TelegramやWeChatのチャット履歴をAIに学習させて、
口調・語彙・返し方のクセを再現する「デジタル分身」を作れるオープンソースツールです(GitHub 16,000スター超え、
無料、
AGPL-3.0ライセンス)。

GPU(16GB以上)を使ったフルファインチューニング版に加え、
GPU不要で始められるWeClone-Skills(軽量ペルソナパック版)もあり、
環境に応じて選べます。

この記事では、
ChatGPT/Character.AIとの違い、
フル版と軽量版の判断基準、
GPU・チャットデータの要件、
日本語環境での対応状況を整理しています。

WeCloneとは?チャット履歴から「AIの分身」を作るオープンソースツール

💬 チャット履歴
WeClone(ローカル処理)
🤖 AIの分身(口調・語彙・クセを再現)
Character.AI / Replika
設定ベース(言葉で定義)
WeClone
データベース(実際の会話で学習)

WeCloneは、
チャット履歴を学習データにしてAIモデルをファインチューニングし、
ユーザーの口調・語彙・性格を再現するチャットボットを作るツールです。

「AIチャットボット」と聞くとChatGPTやCharacter.AIを思い浮かべますが、
設計思想がまったく違います。

比較ポイントChatGPT等の汎用AICharacter.AI / ReplikaWeClone
個性の作り方プロンプトで指示設定画面で性格を選択実際のチャット履歴から学習
学習データインターネット全体プラットフォーム内データユーザーのチャット履歴のみ
再現度低い(汎用的)中(設定ベース)高い(実データベース)
データの保存先クラウドクラウドローカル(手元のPC)
料金月$20〜無料〜月$9.99無料(GPUが必要)
オープンソースいいえいいえはい(AGPL-3.0)

一番の違いは「個性の作り方」です。

Character.AIやReplikaは「こういう性格にして」と言葉で設定するアプローチ。
料理のたとえで言えば「塩を少々」と口頭で伝える方式です。

WeCloneは「実際の会話データを見せて覚えさせる」アプローチ。
塩を入れるところを実際に見せる方式です。
実例から学ぶため、
細かい口調のクセまで再現しやすい。

もう1つの大きな違いがプライバシーです。
WeCloneは全処理がローカル(手元のPC)で完結し、
チャット履歴がクラウドに送信されることはありません。
チャット履歴という個人情報を扱う以上、
これは重要な設計判断です。

WeCloneフル版とWeClone-Skills(軽量版)、どちらを選ぶべき?

⚡ WeCloneフル版
GPU: 必要(16GB以上)
再現度: 高い(実データから学習)
方式: LoRAファインチューニング
音声: クローニング対応
難易度: 高(Python/CUDA/Git)
💡 WeClone-Skills(軽量版)
GPU: 不要
再現度: 中程度(定義ベース)
方式: ペルソナパック
音声: 非対応
難易度: 低(LobeHubから導入)

WeCloneには2つのルートがあります。
GPU環境でフルファインチューニングする「フル版」と、
GPU不要でペルソナパックだけで動かす「WeClone-Skills(軽量版)」です。

比較ポイントWeCloneフル版WeClone-Skills(軽量版)
GPUの要否必要(16GB以上)不要
個性の再現方法チャット履歴でLoRAファインチューニングペルソナパック(テキスト定義)
再現度高い(実データから学習)中程度(定義ベース)
セットアップ難易度高い(Python/CUDA/Git必要)低い(LobeHubから導入可能)
対応プラットフォームTelegram/WeChat/Discord/SlackLobeHub対応チャットツール
音声クローニング対応非対応

判断基準はシンプルです。

NVIDIA GPUを16GB以上持っていて、
Python環境の構築に抵抗がない → フル版。
チャット履歴を実際に学習させるので再現度が高い。

GPUを持っていない、
またはセットアップを簡単にしたい → WeClone-Skills。
LobeHubのスキルマーケットプレイスからインストールでき、
ペルソナをテキストで定義して「この人っぽい返事」を生成する方式。
フル版ほどの再現度はないが、
手軽に始められる。

「まず試してみたい」なら、
WeClone-Skillsから始めて、
再現度を上げたくなったらフル版に進むのが合理的です。

WeCloneに必要なものは?GPU・料金・チャットデータの要件

💰
料金
無料(OSS)
🎮
GPU(フル版)
16GB〜推奨32GB
💬
チャットデータ
数百〜数千件
🔒
データ保存先
ローカル完結

WeClone自体は無料です。
オープンソース(AGPL-3.0ライセンス)なのでソフト代はかかりません。

ただしフル版にはGPUが必要です。ここが一番のハードルです。

モデルサイズ必要GPUメモリGPUの例備考
7B(デフォルト)16GBRTX 4080 / RTX A4000最低ライン。性能は平均的
14B(推奨)32GBRTX 4090 / A6000公式推奨。結果が良い傾向
30B64GBA100(クラウド)高品質だがクラウドGPU推奨
70B160GB複数GPU研究用途

公式ドキュメントに「7Bモデルの性能は平均的で、
14B以上のパラメータ数のモデルのほうがよい結果が出る傾向」と明記されています。
本気でやるなら32GBのGPUが欲しいところです。

GPUを持っていない場合は、
Google ColabやLambda LabsなどのクラウドGPUをレンタルする方法もあります。
その場合は利用時間分の課金が発生します。

チャットデータの量については、
公式に明確な数字は示されていませんが、
一般的にLoRAファインチューニングでは数百〜数千件の会話があると良い結果が出ます。
普段使っているチャットアプリに数ヶ月分のデータがあれば十分です。

その他の要件: CUDA 12.6以上、
Python 3.12以上、
Git LFS。
非エンジニアにはハードルが高めですが、
Claude Codeに1ステップずつ聞きながら進めれば対応可能な範囲です。

WeCloneの仕組み|LoRAファインチューニングとは?

STEP 1
チャット履歴
Telegram/WeChat等
STEP 2
前処理
Presidioで個人情報除去
STEP 3
LoRA学習
一部だけ微調整(16GBで可)
STEP 4
AIの分身完成
口調・語彙・クセを再現

WeCloneがやっていることは「ファインチューニング」——すでに完成したAIモデルに、
追加の学習をさせる技術です。

料理に例えると、
基本を知っているシェフに「うちの味付けを覚えて」と教えるようなもの。
ゼロから料理を教えるのではなく、
基本の上に「ユーザー流」を上乗せします。

ベースのAIモデルはQwen2.5-VL-7B(70億パラメータ)。
これにユーザーのチャット履歴をLoRA(Low-Rank Adaptation)という技術で追加学習させます。

LoRAの特徴は、
AIモデル全体を書き換えるのではなく一部だけを微調整する点です。
全体を書き換えると何百GBものGPUメモリが必要になりますが、
LoRAなら16GBで動きます。
家全体をリフォームするのではなく、
壁紙とカーテンだけ変えて雰囲気を変えるイメージです。

さらに、
データ前処理の段階でプライバシーフィルター(Microsoft Presidio)が自動的に電話番号・メールアドレス・クレジットカード番号・IPアドレスなどの個人情報を除去します。
ブロックワードリストで学習させたくない言葉を事前に除外することもできます。

日本語環境で使えるか?LINE・Discord対応と注意点

Telegram ── 公式対応。JSONエクスポートでそのまま使える
WeChat ── 公式対応。PyWxDumpで抽出→CSV形式
Discord ── 公式対応。AstrBot/LangBot経由でボット接続
Slack ── 公式対応。AstrBot/LangBot経由でボット接続
LINE ── 非公式。トーク履歴→CSV変換で技術的には可能だが保証なし

日本語環境での利用について、公式情報と技術的な可能性を整理します。

項目対応状況備考
日本語の学習可能ベースモデルQwen2.5-VLは多言語対応
Telegramチャット公式対応JSON形式でエクスポート→そのまま使える
WeChatチャット公式対応PyWxDumpで抽出→CSV形式
Discord公式対応AstrBot/LangBot経由でボット接続
Slack公式対応AstrBot/LangBot経由でボット接続
LINE非公式LINEのトーク履歴エクスポート(テキスト形式)→CSV変換で技術的には可能だが、公式サポートはない

日本語のチャット履歴での学習は可能です。
ベースモデルのQwen2.5-VLが多言語に対応しているため、
日本語の口調や語彙もファインチューニングで学習できます。

ただし、
WeCloneのドキュメントやUIは英語・中国語がメインで、
日本語チュートリアルは存在しません。
セットアップ時にClaude Codeに翻訳しながら進めてもらうのが現実的です。

LINEについては、
公式にはサポートされていません。
ただし、
LINEのトーク履歴はテキスト形式でエクスポートでき、
CSV/JSON形式に変換すればWeCloneのデータパイプラインに流し込める可能性があります。
非公式なので動作保証はありませんが、
技術的には不可能ではありません。

WeCloneの注意点|ライセンス・品質・倫理

導入前に押さえておくべき点を整理します。

AGPL-3.0ライセンス

WeCloneはAGPL-3.0ライセンスです。
個人利用は問題ありませんが、
商用サービスに組み込む場合はソースコードの公開義務が発生します。
ビジネス利用を考えている場合はライセンス条件を確認してください。

生成内容の品質リスク

公式が「ファインチューニングされたモデルは不正確、
有害、
または誤解を招くコンテンツを生成する可能性があります」と明記しています。
AIクローンが不適切な発言をするリスクはゼロではありません。
外部に公開する場合は「これはAIによる応答です」と明示してください。

倫理的な問題

他人のチャット履歴を無断で学習させる、
AIクローンが本人のふりをする——こうした行為は技術的には可能ですが、
明確な倫理違反です。
WeCloneはオープンソースだからこそ、
使い方のモラルが問われます。
必ず本人の同意のもとで利用してください。

よくある疑問

Q. チャット履歴のデータはどこかに送られますか?

送られません。
全処理がローカル(手元のPC)で完結します。
クラウドにデータを送信する仕組みはありません。
チャット履歴という個人情報を扱うツールとして、
ここは重要な設計判断です。

Q. GPUを持っていなくても使えますか?

2つの方法があります。
1つ目は、
WeClone-Skills(軽量版)を使う方法。
GPU不要で、
ペルソナパック方式で「この人っぽい返事」を生成できます。
2つ目は、
Google ColabやLambda LabsなどのクラウドGPUをレンタルしてフル版を動かす方法。
こちらは利用時間分の課金が発生します。

Q. 日本語のチャット履歴でも学習できますか?

できます。
ベースモデルのQwen2.5-VLは多言語対応で、
日本語のチャット履歴でもファインチューニングが可能です。
ただしドキュメントやUIは英語・中国語メインのため、
セットアップ時にClaude Codeの助けがあるとスムーズです。

Q. どのくらいのチャット履歴があれば「その人らしく」なりますか?

公式に明確な数字は示されていませんが、
LoRAファインチューニングでは一般的に数百〜数千件の会話があると良い結果が出ます。
普段使っているチャットアプリに数ヶ月分のデータがあれば十分です。

Q. Character.AIやReplikaとの一番の違いは?

「個性の作り方」が根本的に違います。
Character.AI/Replikaは設定画面で性格を「言葉で定義する」方式。
WeCloneは実際のチャット履歴を「データとして学習させる」方式。
WeCloneの方が細かい口調のクセまで再現しやすく、
かつデータがローカル完結でプライバシーが守られます。

まとめ

WeCloneは、
チャット履歴からAIの分身を作れるオープンソースツールです。
GitHub 16,000スター超え、
無料、
ローカル完結でプライバシーが守られます。

フル版(GPU 16GB以上必要)とWeClone-Skills(GPU不要の軽量版)の2つのルートがあります。
まず試すならWeClone-Skills、
再現度を上げたいならフル版へ進むのが合理的です。

日本語のチャット履歴でも学習可能で、
Telegram/WeChat/Discord/Slackに公式対応。
LINEは非公式ですが、
テキストエクスポート→CSV変換で技術的には可能性があります。

参考リンク

WeClone GitHub: https://github.com/xming521/WeClone

WeClone 公式ドキュメント: https://www.weclone.love/en/docs/introduce/what-is-weclone.html

WeClone-Skills(軽量版): https://github.com/xming521/WeClone-Skills

WeClone-Skills on LobeHub: https://lobehub.com/skills/xming521-weclone-skills-weclone-twin-reply

※この記事の内容は執筆時点のものです。AIは進化が速い分野のため、最新の仕様は公式サイトでご確認ください。

-AI活用全般
-

← 戻る