チャット履歴をAIに食わせて、自分と同じように話すデジタルツインをトレーニングする。ブラックミラー的なこのアイデアに、オープンソースの実装が現れた。
WeCloneが今日GitHub Trendingに登場。ポジションは明確:チャット履歴からAIデジタルツインまでのワンストップソリューション。
v0.2.0の変更
最新バージョンは5つのアップデートをもたらし、重点是トレーニング効率の向上。具体的な数字は発表されていないが、「効率倍増」なら同じデータ・同じハードウェアでトレーニング時間が半減する。
プロジェクトはLoRAファインチューニングをサポート——現在最も主流な軽量ファインチューニング方式で、モデル重みの全量更新は不要、コンシューマー向けハードウェアで実行可能。
倫理的境界
デジタルツインの倫理的境界はどこにあるのか?
技術的には完全に可能:チャット履歴には言語習慣、価値観の傾向、さらには感情パターンが含まれる。ファインチューニングされたモデルは返信スタイルを大幅に再現できる。
しかし未回答の質問がある:
- 相手はAIと話していることを知っているか?
- トレーニングデータの所有権とプライバシーはどのように保護されるか?
- デジタルツインの行動責任は誰にあるか?
プロジェクト自体はこれらの質問に答えていない。ツールだけを提供する——使うかどうか、どう使うかはユーザー次第。
私の判断
技術的には難しくない。難しいのは境界線だ。微信チャット履歴→LLMファインチューニング→微信ボットバインディング——チェーン全体は動作するが、すべてのステップがグレーゾーンにある。
見ておくだけで、急いで使わないほうがいい。少なくともコミュニティが倫理フレームワークを整理するのを待ってから。
主な情報源: