LM
Open-LLM-VTuber 詳細
AI VTuberツール比較
← ツール比較に戻る Project AIRI ダッシュボード
★ GitHubスター 6,000+

Open-LLM-VTuber

完全オフライン動作可能なAI VTuberフレームワーク。Live2D対応・モジュラー設計・日本語ドキュメント完備。コスト0円でのローカル完結運用が可能。

6,000+
GitHubスター
JP
日本語対応
README.JP.md 提供
$
0円〜
完全ローカル運用可
GitHub で見る →
概要

Open-LLM-VTuber(Open-LLM-VTuber/Open-LLM-VTuber)は、完全にオフラインでも動作するAI VTuberフレームワークです。Live2Dアバターを持ち、テキスト・音声で会話し、OBS経由で配信画面に組み込むことができます。

最大の特徴は「完全無料・完全オフライン」での運用が可能な点です。NVIDIA・AMD・Apple Siliconに対応したローカルLLM(Ollama等)と組み合わせることで、APIコストゼロのシステムが構築できます。Raspberry Piでの動作報告もあり、低スペック環境への対応も実績があります。

Python製のモジュラー設計で、LLM・STT・TTS・アバターシステムを独立したモジュールとして組み合わせ可能。日本語READMEが提供されており、日本語環境での導入がスムーズです。Docker対応により、環境構築の手間も軽減できます。

Python Live2D対応 完全オフライン 日本語ドキュメント Docker対応 モジュラー設計
特徴
O
完全オフライン動作
Ollamaなどのローカルモデル + ローカルSTT/TTSを組み合わせることで、インターネット接続なしの完全ローカル運用が可能。コスト0円を実現。
H
クロスプラットフォーム GPU 対応
NVIDIA CUDA・AMD ROCm・Apple Silicon(Metal)の3プラットフォームすべてに対応。持っているPCのGPUをそのまま活用できる。
D
Docker対応
Docker Composeで環境構築が完結。Pythonの依存関係の衝突やバージョン問題を回避できる。本番環境にも向いている。
P
デスクトップペットモード
配信だけでなく、デスクトップ上に常駐するAIキャラクターとして利用可能。作業中に話しかけると応答する「デスクトップペット」として動作する。
JP
日本語ドキュメント完備
README.JP.mdが提供されており、日本語での導入手順・設定方法が確認できる。英語ドキュメントが苦手な方でも安心。
M
モジュラー設計で柔軟な構成
LLM・音声認識(STT)・音声合成(TTS)・アバターシステムをそれぞれ独立して選択・変更できる。好みのコンポーネントの組み合わせが自由。
R
低スペック環境でも動作実績
Raspberry Piでの動作報告があるなど、ハイスペックPCがなくても動作可能。クラウドAPIを使えばGPUなしでも利用できる。
L
Live2Dアバター対応
Live2Dアバターに対応し、感情表現・口パクなどのアニメーションが可能。既存のLive2Dモデルを流用できる。
メリット・デメリット
メリット
  • ローカルLLM使用時は月額コスト0円の完全無料運用が可能
  • 完全オフライン動作でプライバシーを確保できる
  • 日本語READMEがあり日本語環境での導入がスムーズ
  • NVIDIA・AMD・Apple Siliconの全GPU対応
  • Docker対応で環境構築が安定・再現しやすい
  • モジュラー設計でコンポーネントの入れ替えが自由
  • デスクトップペットモードで配信以外にも活用できる
デメリット
  • 配信プラットフォームへの直接統合はなく、OBS経由での合成が必要
  • v1.0.0以降で破壊的変更があり、旧バージョンの設定は移行が必要
  • ゲーム連携機能(Minecraft等)はなし
  • Discord・Telegramなどのマルチプラットフォーム展開には非対応
  • コミュニティ規模はProject AIRIより小さい(スター6,000+)
システム要件
項目 要件・推奨値
GPU クラウドAPI使用時は不要。ローカルLLM使用時はVRAM 6〜8GB推奨(7Bモデルの場合)。Raspberry Piでの動作報告あり(量子化モデル使用)。
OS Windows 10/11・macOS 12以上・Linux(Ubuntu 20.04以上確認済み)。クロスプラットフォーム対応が最も充実している。
メモリ(RAM) クラウドAPI時: 8GB以上推奨。ローカルLLM時: 16GB以上推奨。量子化モデル(GGUF)使用時は8GBでも動作報告あり。
GPU 種別 NVIDIA(CUDA対応)・AMD(ROCm対応)・Apple Silicon(Metal対応)の3プラットフォームすべてに対応。
Python Python 3.10以上が必要。pip でパッケージインストール。Dockerを使う場合は不要。
ストレージ 基本インストール: 約1GB。ローカルLLMモデル追加時: 4〜40GB追加(モデルサイズによる)。
Docker(任意) Docker Desktop 4.0以上またはDocker Engine + Compose。使用する場合はPython環境構築が不要。
料金・コスト
軽量API運用
~¥600
/ 月($4程度)
Gemini Flash等の低コストAPIを使用。週2〜3回配信であれば十分なコスト感。
本格API運用
~¥7,000
/ 月($50程度)
GPT-4oやClaude Sonnet等の高品質APIで毎日配信。コメント返答を積極的に行う場合。
コスト優位点: ローカルLLM(Ollama + Llama / Gemma等)を使えばAPIコストが完全に0円になります。GPU付きPCを既に持っている場合は、最もコスト効率の高い選択肢です。本ツール自体は無料。
導入手順
1
リポジトリのクローン
GitHubからソースコードを取得します。
git clone https://github.com/Open-LLM-VTuber/Open-LLM-VTuber.git cd Open-LLM-VTuber
2
依存パッケージのインストール
Python仮想環境を作成してパッケージをインストールします。Dockerを使う場合はこの手順をスキップできます。
# 仮想環境の作成(推奨) python -m venv venv source venv/bin/activate # Windowsは: venv\Scripts\activate # パッケージインストール pip install -r requirements.txt
2-alt
Docker を使う場合(代替手順)
Dockerを使う場合はPython環境構築が不要です。
# Docker Composeで起動(GPU有りの場合) docker compose up -d # GPU無しの場合 docker compose -f docker-compose.cpu.yml up -d
3
設定ファイルの編集
conf.yamlを編集してLLMプロバイダ・STT・TTSの設定を行います。日本語READMEに詳しい説明があります。
cp conf.default.yaml conf.yaml # conf.yamlをエディタで開いて設定 # 例: クラウドAPIを使う場合 # llm: # provider: openai # api_key: sk-xxxxx # model: gpt-4o-mini # # ローカルOllamaを使う場合 # llm: # provider: ollama # base_url: http://localhost:11434 # model: llama3.2
4
Live2Dアバターの配置(任意)
使用したいLive2Dモデルを所定のディレクトリに配置します。
# Live2Dモデルを配置するディレクトリ mkdir -p assets/live2d/your-model # モデルファイル(.model3.json等)を配置 cp -r /path/to/your/live2d/model/* assets/live2d/your-model/ # conf.yamlでモデルを指定 # avatar: # type: live2d # model_path: assets/live2d/your-model/model.model3.json
5
起動して動作確認
メインスクリプトを実行して動作確認します。ブラウザが自動的に開きます。
python main.py # → ブラウザが自動的に開く(または http://localhost:12393) # マイクに向かって話しかけてみてください
6
OBSへの組み込み(配信用)
OBSのブラウザソースとしてOpen-LLM-VTuberの画面を追加します。
# OBSのブラウザソースに追加 # URL: http://localhost:12393 # 背景透過: チェックON(クロマキー合成) # 幅・高さ: 配信解像度に合わせて設定 # ↑ 設定後、アバターが配信画面に重なって表示される
運営イメージ

どんな配信スタイルに向いているか: 雑談配信・勉強配信・作業配信との相性が良いです。デスクトップに常駐するAIキャラとして、作業BGMのような存在感も発揮します。コスト重視でローカル完結したい個人クリエイターに最適です。

起動時
デスクトップ常駐 — PCを起動するとAIキャラがデスクトップに表示される。配信していなくても話しかけると音声で返答。
配信前
配信準備 — OBSのブラウザソースにAIキャラのURLを追加済み。配信開始ボタンを押すだけで画面にAIキャラが合成される。
配信中
視聴者との会話 — YouTubeチャットのコメントをAIが読み取り、Live2Dアバターが口パクしながら音声で返答。自然な会話が展開される。
深夜
ローカル処理 — ローカルLLMを使用しているためAPIコストはゼロ。深夜の長時間配信も追加費用なし。電気代のみ。
配信後
引き続きデスクトップで活動 — 配信が終わってもデスクトップペットとして稼働継続。一人作業のお供になる。
こんな人におすすめ / おすすめしない人
おすすめの人
  • 月額コストをできる限り抑えたい・0円で始めたい人
  • プライバシー重視でオフライン動作にこだわる人
  • 日本語環境で導入したい・英語ドキュメントが苦手な人
  • 雑談配信・作業配信・勉強配信など穏やかな配信スタイルの人
  • NVIDIA・AMD・Apple Silicon のGPUを持っておりローカルLLMを活用したい人
  • Dockerを使って環境を安定させたい人
おすすめしない人
  • Minecraft・Factorioなどゲーム連携機能が欲しい人
  • YouTube以外にDiscord・Telegramでもマルチプラットフォーム展開したい人
  • モバイル(iOS等)からもアクセスしたい人
  • 大きなコミュニティのサポートを活用したい人(AIRIのほうが規模が大きい)