WeCloneは、
TelegramやWeChatのチャット履歴をAIに学習させて、
口調・語彙・返し方のクセを再現する「デジタル分身」を作れるオープンソースツールです(GitHub 16,000スター超え、
無料、
AGPL-3.0ライセンス)。
GPU(16GB以上)を使ったフルファインチューニング版に加え、
GPU不要で始められるWeClone-Skills(軽量ペルソナパック版)もあり、
環境に応じて選べます。
この記事では、
ChatGPT/Character.AIとの違い、
フル版と軽量版の判断基準、
GPU・チャットデータの要件、
日本語環境での対応状況を整理しています。
WeCloneとは?チャット履歴から「AIの分身」を作るオープンソースツール
WeCloneは、
チャット履歴を学習データにしてAIモデルをファインチューニングし、
ユーザーの口調・語彙・性格を再現するチャットボットを作るツールです。
「AIチャットボット」と聞くとChatGPTやCharacter.AIを思い浮かべますが、
設計思想がまったく違います。
| 比較ポイント | ChatGPT等の汎用AI | Character.AI / Replika | WeClone |
|---|---|---|---|
| 個性の作り方 | プロンプトで指示 | 設定画面で性格を選択 | 実際のチャット履歴から学習 |
| 学習データ | インターネット全体 | プラットフォーム内データ | ユーザーのチャット履歴のみ |
| 再現度 | 低い(汎用的) | 中(設定ベース) | 高い(実データベース) |
| データの保存先 | クラウド | クラウド | ローカル(手元のPC) |
| 料金 | 月$20〜 | 無料〜月$9.99 | 無料(GPUが必要) |
| オープンソース | いいえ | いいえ | はい(AGPL-3.0) |
一番の違いは「個性の作り方」です。
Character.AIやReplikaは「こういう性格にして」と言葉で設定するアプローチ。
料理のたとえで言えば「塩を少々」と口頭で伝える方式です。
WeCloneは「実際の会話データを見せて覚えさせる」アプローチ。
塩を入れるところを実際に見せる方式です。
実例から学ぶため、
細かい口調のクセまで再現しやすい。
もう1つの大きな違いがプライバシーです。
WeCloneは全処理がローカル(手元のPC)で完結し、
チャット履歴がクラウドに送信されることはありません。
チャット履歴という個人情報を扱う以上、
これは重要な設計判断です。
WeCloneフル版とWeClone-Skills(軽量版)、どちらを選ぶべき?
WeCloneには2つのルートがあります。
GPU環境でフルファインチューニングする「フル版」と、
GPU不要でペルソナパックだけで動かす「WeClone-Skills(軽量版)」です。
| 比較ポイント | WeCloneフル版 | WeClone-Skills(軽量版) |
|---|---|---|
| GPUの要否 | 必要(16GB以上) | 不要 |
| 個性の再現方法 | チャット履歴でLoRAファインチューニング | ペルソナパック(テキスト定義) |
| 再現度 | 高い(実データから学習) | 中程度(定義ベース) |
| セットアップ難易度 | 高い(Python/CUDA/Git必要) | 低い(LobeHubから導入可能) |
| 対応プラットフォーム | Telegram/WeChat/Discord/Slack | LobeHub対応チャットツール |
| 音声クローニング | 対応 | 非対応 |
判断基準はシンプルです。
NVIDIA GPUを16GB以上持っていて、
Python環境の構築に抵抗がない → フル版。
チャット履歴を実際に学習させるので再現度が高い。
GPUを持っていない、
またはセットアップを簡単にしたい → WeClone-Skills。
LobeHubのスキルマーケットプレイスからインストールでき、
ペルソナをテキストで定義して「この人っぽい返事」を生成する方式。
フル版ほどの再現度はないが、
手軽に始められる。
「まず試してみたい」なら、
WeClone-Skillsから始めて、
再現度を上げたくなったらフル版に進むのが合理的です。
WeCloneに必要なものは?GPU・料金・チャットデータの要件
WeClone自体は無料です。
オープンソース(AGPL-3.0ライセンス)なのでソフト代はかかりません。
ただしフル版にはGPUが必要です。ここが一番のハードルです。
| モデルサイズ | 必要GPUメモリ | GPUの例 | 備考 |
|---|---|---|---|
| 7B(デフォルト) | 16GB | RTX 4080 / RTX A4000 | 最低ライン。性能は平均的 |
| 14B(推奨) | 32GB | RTX 4090 / A6000 | 公式推奨。結果が良い傾向 |
| 30B | 64GB | A100(クラウド) | 高品質だがクラウドGPU推奨 |
| 70B | 160GB | 複数GPU | 研究用途 |
公式ドキュメントに「7Bモデルの性能は平均的で、
14B以上のパラメータ数のモデルのほうがよい結果が出る傾向」と明記されています。
本気でやるなら32GBのGPUが欲しいところです。
GPUを持っていない場合は、
Google ColabやLambda LabsなどのクラウドGPUをレンタルする方法もあります。
その場合は利用時間分の課金が発生します。
チャットデータの量については、
公式に明確な数字は示されていませんが、
一般的にLoRAファインチューニングでは数百〜数千件の会話があると良い結果が出ます。
普段使っているチャットアプリに数ヶ月分のデータがあれば十分です。
その他の要件: CUDA 12.6以上、
Python 3.12以上、
Git LFS。
非エンジニアにはハードルが高めですが、
Claude Codeに1ステップずつ聞きながら進めれば対応可能な範囲です。
WeCloneの仕組み|LoRAファインチューニングとは?
WeCloneがやっていることは「ファインチューニング」——すでに完成したAIモデルに、
追加の学習をさせる技術です。
料理に例えると、
基本を知っているシェフに「うちの味付けを覚えて」と教えるようなもの。
ゼロから料理を教えるのではなく、
基本の上に「ユーザー流」を上乗せします。
ベースのAIモデルはQwen2.5-VL-7B(70億パラメータ)。
これにユーザーのチャット履歴をLoRA(Low-Rank Adaptation)という技術で追加学習させます。
LoRAの特徴は、
AIモデル全体を書き換えるのではなく一部だけを微調整する点です。
全体を書き換えると何百GBものGPUメモリが必要になりますが、
LoRAなら16GBで動きます。
家全体をリフォームするのではなく、
壁紙とカーテンだけ変えて雰囲気を変えるイメージです。
さらに、
データ前処理の段階でプライバシーフィルター(Microsoft Presidio)が自動的に電話番号・メールアドレス・クレジットカード番号・IPアドレスなどの個人情報を除去します。
ブロックワードリストで学習させたくない言葉を事前に除外することもできます。
日本語環境で使えるか?LINE・Discord対応と注意点
日本語環境での利用について、公式情報と技術的な可能性を整理します。
| 項目 | 対応状況 | 備考 |
|---|---|---|
| 日本語の学習 | 可能 | ベースモデルQwen2.5-VLは多言語対応 |
| Telegramチャット | 公式対応 | JSON形式でエクスポート→そのまま使える |
| WeChatチャット | 公式対応 | PyWxDumpで抽出→CSV形式 |
| Discord | 公式対応 | AstrBot/LangBot経由でボット接続 |
| Slack | 公式対応 | AstrBot/LangBot経由でボット接続 |
| LINE | 非公式 | LINEのトーク履歴エクスポート(テキスト形式)→CSV変換で技術的には可能だが、公式サポートはない |
日本語のチャット履歴での学習は可能です。
ベースモデルのQwen2.5-VLが多言語に対応しているため、
日本語の口調や語彙もファインチューニングで学習できます。
ただし、
WeCloneのドキュメントやUIは英語・中国語がメインで、
日本語チュートリアルは存在しません。
セットアップ時にClaude Codeに翻訳しながら進めてもらうのが現実的です。
LINEについては、
公式にはサポートされていません。
ただし、
LINEのトーク履歴はテキスト形式でエクスポートでき、
CSV/JSON形式に変換すればWeCloneのデータパイプラインに流し込める可能性があります。
非公式なので動作保証はありませんが、
技術的には不可能ではありません。
WeCloneの注意点|ライセンス・品質・倫理
導入前に押さえておくべき点を整理します。
AGPL-3.0ライセンス
WeCloneはAGPL-3.0ライセンスです。
個人利用は問題ありませんが、
商用サービスに組み込む場合はソースコードの公開義務が発生します。
ビジネス利用を考えている場合はライセンス条件を確認してください。
生成内容の品質リスク
公式が「ファインチューニングされたモデルは不正確、
有害、
または誤解を招くコンテンツを生成する可能性があります」と明記しています。
AIクローンが不適切な発言をするリスクはゼロではありません。
外部に公開する場合は「これはAIによる応答です」と明示してください。
倫理的な問題
他人のチャット履歴を無断で学習させる、
AIクローンが本人のふりをする——こうした行為は技術的には可能ですが、
明確な倫理違反です。
WeCloneはオープンソースだからこそ、
使い方のモラルが問われます。
必ず本人の同意のもとで利用してください。
よくある疑問
Q. チャット履歴のデータはどこかに送られますか?
送られません。
全処理がローカル(手元のPC)で完結します。
クラウドにデータを送信する仕組みはありません。
チャット履歴という個人情報を扱うツールとして、
ここは重要な設計判断です。
Q. GPUを持っていなくても使えますか?
2つの方法があります。
1つ目は、
WeClone-Skills(軽量版)を使う方法。
GPU不要で、
ペルソナパック方式で「この人っぽい返事」を生成できます。
2つ目は、
Google ColabやLambda LabsなどのクラウドGPUをレンタルしてフル版を動かす方法。
こちらは利用時間分の課金が発生します。
Q. 日本語のチャット履歴でも学習できますか?
できます。
ベースモデルのQwen2.5-VLは多言語対応で、
日本語のチャット履歴でもファインチューニングが可能です。
ただしドキュメントやUIは英語・中国語メインのため、
セットアップ時にClaude Codeの助けがあるとスムーズです。
Q. どのくらいのチャット履歴があれば「その人らしく」なりますか?
公式に明確な数字は示されていませんが、
LoRAファインチューニングでは一般的に数百〜数千件の会話があると良い結果が出ます。
普段使っているチャットアプリに数ヶ月分のデータがあれば十分です。
Q. Character.AIやReplikaとの一番の違いは?
「個性の作り方」が根本的に違います。
Character.AI/Replikaは設定画面で性格を「言葉で定義する」方式。
WeCloneは実際のチャット履歴を「データとして学習させる」方式。
WeCloneの方が細かい口調のクセまで再現しやすく、
かつデータがローカル完結でプライバシーが守られます。
まとめ
WeCloneは、
チャット履歴からAIの分身を作れるオープンソースツールです。
GitHub 16,000スター超え、
無料、
ローカル完結でプライバシーが守られます。
フル版(GPU 16GB以上必要)とWeClone-Skills(GPU不要の軽量版)の2つのルートがあります。
まず試すならWeClone-Skills、
再現度を上げたいならフル版へ進むのが合理的です。
日本語のチャット履歴でも学習可能で、
Telegram/WeChat/Discord/Slackに公式対応。
LINEは非公式ですが、
テキストエクスポート→CSV変換で技術的には可能性があります。
参考リンク
WeClone GitHub: https://github.com/xming521/WeClone
WeClone 公式ドキュメント: https://www.weclone.love/en/docs/introduce/what-is-weclone.html
WeClone-Skills(軽量版): https://github.com/xming521/WeClone-Skills
WeClone-Skills on LobeHub: https://lobehub.com/skills/xming521-weclone-skills-weclone-twin-reply
※この記事の内容は執筆時点のものです。AIは進化が速い分野のため、最新の仕様は公式サイトでご確認ください。