ローカル環境で完結するマルチエージェントAIシステム。
Ollama(ローカルLLM)+ ChromaDB(RAG)+ FastAPI バックエンド + Phaser.js ピクセルアートUIで構成される。
モデル
状態
備考
qwen3:1.7b
デフォルト(稼働中)
メモリ効率重視。約1GB
qwen3:8b
ダウンロード済み・要メモリ確保
6.1GB必要。RAM不足時はロード不可
qwen2.5:14b
ダウンロード済み
9GB必要
qwen2.5:0.5b
ダウンロード済み
テスト用軽量版
モデル切替 : OLLAMA_MODEL=qwen3:8b docker compose --profile phase3 up -d backend
フロントエンド : React 18 + Vite + Phaser.js 3(ピクセルアートオフィスUI)
バックエンド : FastAPI + Python 3.11 + WebSocket
LLMランタイム : Ollama(Apple Silicon Metal GPU加速)
ベクトルDB : ChromaDB(RAG用)
コンテナ : Docker Compose(プロファイル段階起動)
LocalOpenClaw/
├── backend/ # FastAPI バックエンド
│ ├── app/ # エージェント基盤・WSエンドポイント
│ ├── config/ # エージェント設定ミラー
│ ├── Dockerfile
│ └── requirements.txt
├── config/ # エージェント定義・システム設定
│ ├── agents/ # 各エージェントのYAML定義
│ ├── templates/ # プロンプトテンプレート
│ └── openclaw.json # システム設定
├── frontend/ # React + Phaser.js フロントエンド
│ └── src/
│ ├── App.jsx # ルート。WS管理・状態統合
│ ├── components/
│ │ └── ControlPanel.jsx # チャットUI・タスクキュー
│ └── game/
│ ├── PhaserGame.jsx # Phaserラッパー(React統合)
│ └── scenes/
│ └── OfficeScene.js # ピクセルアートオフィス
├── pipeline/ # データ取り込み(RAG用)
├── tests/ # テスト
├── docs/ # ドキュメント
├── data/ # データ(.gitignore対象)
├── logs/ # ログ(.gitignore対象)
└── docker-compose.yml
コードネーム
名前
役割
leader
ゼネラル
オーケストレーター。タスク割り振り・統合
detective
シャーロック
情報収集・フィールド調査
researcher
究
検証・分析
engineer
匠
AI実装(LLM・RAG・エージェント)
sales
—
セールス
secretary
—
秘書
Phase 1: インフラのみ(Ollama + ChromaDB)
docker compose --profile phase2 up -d
docker compose --profile phase3 up -d
docker exec local-openclaw-ollama ollama pull qwen3:1.7b
バックエンド /ws エンドポイントは以下のイベントを送受信する。
イベント
説明
token
LLMストリーミングトークン
done
応答完了
agent_status
エージェント状態変化(idle / thinking / busy)
task_created
タスク生成
agent_thinking
タスク実行開始
task_done
タスク完了
orchestration_result
オーケストレーション結果(全エージェント統合)
# バックエンド・モデル確認
curl http://localhost:8080/health
# Ollamaモデル一覧
curl http://localhost:8080/health/ollama
# エージェント一覧
curl http://localhost:8080/agents
agent_memory ボリュームはエージェントの記憶が格納される重要データ。削除禁止。
qwen3:8b は約6.1GBのRAMが必要。メモリ不足の場合は qwen3:1.7b を使用。
.env.production は設定でアクセス禁止(secrets管理)。