OpenClaw にチャットするだけ:「Xを研究して」→ 完了。
🇺🇸 English · 🇨🇳 中文 · 🇯🇵 日本語 · 🇰🇷 한국어 · 🇫🇷 Français · 🇩🇪 Deutsch · 🇪🇸 Español · 🇧🇷 Português · 🇷🇺 Русский · 🇸🇦 العربية
🏆 論文ショーケース · 🧑
|
|
🏆 生成論文ショーケース 8つの分野にわたる8本の論文 — 数学、統計、生物学、コンピューティング、NLP、RL、ビジョン、ロバスト性 — 完全自律生成、またはHuman-in-the-Loopコパイロットガイダンスによる。 |
🧪 テスターを募集しています! あなた自身の研究アイデアで — どの分野からでも — パイプラインをお試しください。ご意見をお聞かせください。あなたのフィードバックが次のバージョンに直接反映されます。 → Testing Guide | → 中文测试指南 | → 日本語テストガイド
- [04/08/2026] 倫理と責任ある利用ガイドライン! — 学術的誠実性、透明性、引用検証、悪用防止、デュアルユースに関する包括的な倫理ガイドラインを追加しました。AI生成論文は下書きであり、完成品ではありません。人間によるレビューが不可欠です。
- [04/01/2026] v0.4.0 — Human-in-the-Loop コパイロットシステム — AutoResearchClawは完全自律だけではなくなりました。新しいHITLシステムにより、6つの介入モード(
full-auto、gate-only、checkpoint、step-by-step、co-pilot、custom)、ステージごとのポリシー、人間とAIの深い協調が追加されます。仮説の共同作成のためのアイデアワークショップ、実験設計レビューのためのベースラインナビゲーター、協調的ドラフト作成のための論文コライター、SmartPause(信頼度駆動の動的介入)、ALHF介入学習、反幻覚クレーム検証、コスト予算ガードレール、並列仮説探索のためのパイプラインブランチ、CLIコマンド(attach/status/approve/reject/guide)を含みます。→ 完全HITLガイド - [03/30/2026] フレキシブルスキルローディング — AutoResearchClawは、研究体験をさらに向上させるために、オープンソースおよびカスタムスキルのロードに対応しました。科学的ライティング、実験設計、化学、生物学などをカバーする19のプリロードスキルがすぐに使えるリファレンスとして含まれており、コミュニティ提供のA-Evolveエージェント進化スキルも含まれています。
researchclaw skills installでインストールするか、.claude/skills/にSKILL.mdを配置してください。スキルライブラリを参照。 - [03/22/2026] v0.3.2 — クロスプラットフォーム対応 + 安定性大幅向上 — ACP互換AIエージェントバックエンド(Claude Code、Codex CLI、Copilot CLI、Gemini CLI、Kimi CLI)に対応し、OpenClawブリッジ経由でメッセージングプラットフォーム(Discord、Telegram、Lark、WeChat)もサポート。新しいCLIエージェントコード生成バックエンドにより、ステージ10と13を外部CLIエージェントに委任し、予算制御とタイムアウト管理に対応。反データ捏造システム(VerifiedRegistry + 実験診断・修復ループ)、100件以上のバグ修正、モジュラーexecutorリファクタリング、
--resume自動検出、LLMリトライ強化、コミュニティ報告の修正を含む。
過去のリリース
- [03/18/2026] v0.3.1 — OpenCode Beast Mode + Community Contributions — New "Beast Mode" routes complex code generation to OpenCode with automatic complexity scoring and graceful fallback. Added Novita AI provider support, thread-safety hardening, improved LLM output parsing robustness, and 20+ bug fixes from community PRs and internal audit.
- [03/17/2026] v0.3.0 — MetaClaw Integration — AutoResearchClaw now supports MetaClaw cross-run learning: pipeline failures → structured lessons → reusable skills, injected into all 23 stages. +18.3% robustness in controlled experiments. Opt-in (
metaclaw_bridge.enabled: true), fully backward-compatible. See Integration Guide. - [03/16/2026] v0.2.0 — Three multi-agent subsystems (CodeAgent, BenchmarkAgent, FigureAgent), hardened Docker sandbox with network-policy-aware execution, 4-round paper quality audit (AI-slop detection, 7-dim review scoring, NeurIPS checklist), and 15+ bug fixes from production runs.
- [03/15/2026] v0.1.0 — We release AutoResearchClaw: a fully autonomous 23-stage research pipeline that turns a single research idea into a conference-ready paper. No human intervention required.
# 完全自律 — 人間の介入なし
pip install -e . && researchclaw setup && researchclaw init && researchclaw run --topic "Your research idea here" --auto-approve
# コパイロットモード — 重要な意思決定ポイントでAIと協調
researchclaw run --topic "Your research idea here" --mode co-pilotあなたが考える。AutoResearchClawが書く。重要な判断はあなたが導く。
研究トピックを入力するだけで — OpenAlex、Semantic Scholar、arXivからの実際の文献、ハードウェア対応のサンドボックス実験(GPU/MPS/CPUを自動検出)、統計分析、マルチエージェント査読、NeurIPS/ICML/ICLR対応の学会グレードLaTeXを含む完全な学術論文が得られます。完全自律で実行するか、コパイロットモードを使って重要な意思決定ポイントでAIを導きます — 研究方向の選択、実験設計のレビュー、論文の共同執筆が可能です。幻覚された参考文献なし。
| 📄 | paper_draft.md | 完全な学術論文(序論、関連研究、手法、実験、結果、結論) |
| 📐 | paper.tex | 学会対応LaTeX(NeurIPS / ICLR / ICMLテンプレート) |
| 📚 | references.bib | OpenAlex、Semantic Scholar、arXivからの実際のBibTeX参考文献 — 本文中の引用に合わせて自動整理 |
| 🔍 | verification_report.json | 4層の引用整合性 + 関連性検証(arXiv、CrossRef、DataCite、LLM) |
| 🧪 | experiment runs/ | 生成されたコード + サンドボックス実行結果 + 構造化JSONメトリクス |
| 📊 | charts/ | 誤差棒と信頼区間付きの条件比較チャートを自動生成 |
| 📝 | reviews.md | 手法-証拠の一貫性チェック付きマルチエージェント査読 |
| 🧬 | evolution/ | 各実行から抽出された自己学習の教訓 |
| 📦 | deliverables/ | すべての最終成果物を1フォルダに集約 — Overleafですぐにコンパイル可能 |
パイプラインはエンドツーエンドで実行されます — 完全自律、またはhuman-in-the-loopの協調で。実験が失敗すれば自己修復します。仮説が成り立たなければ方向転換します。引用が偽物なら削除します。あなたが舵を取りたいときは、一時停止して待ちます。
🌍 どこでも実行可能。 AutoResearchClaw は特定のプラットフォームに縛られません。CLI でスタンドアロン実行、OpenClaw に接続、または ACP 互換の AI エージェント —— 🤖 Claude Code、💻 Codex CLI、🐙 Copilot CLI、♊ Gemini CLI、🌙 Kimi CLI など —— と連携できます。さらに OpenClaw のメッセージブリッジにより、💬 Discord、
# 1. クローン & インストール
git clone https://github.com/aiming-lab/AutoResearchClaw.git
cd AutoResearchClaw
python3 -m venv .venv && source .venv/bin/activate
pip install -e .
# 2. セットアップ(対話式 — OpenCode Beast Modeのインストール、Docker/LaTeXの確認)
researchclaw setup
# 3. 設定
researchclaw init # 対話式:LLMプロバイダーを選択、config.arc.yamlを作成
# または手動:cp config.researchclaw.example.yaml config.arc.yaml
# 4. 実行
export OPENAI_API_KEY="sk-..."
researchclaw run --config config.arc.yaml --topic "Your research idea" --auto-approve出力先 → artifacts/rc-YYYYMMDD-HHMMSS-<hash>/deliverables/ — コンパイル可能なLaTeX、BibTeX、実験コード、チャート。
📝 最小限の必要設定
project:
name: "my-research"
research:
topic: "Your research topic here"
llm:
base_url: "https://api.openai.com/v1"
api_key_env: "OPENAI_API_KEY"
primary_model: "gpt-4o"
fallback_models: ["gpt-4o-mini"]
experiment:
mode: "sandbox"
sandbox:
python_path: ".venv/bin/python"| 機能 | 仕組み |
|---|---|
| 🧑 |
6つの介入モード — 完全自律からステップバイステップまで。重要な判断(仮説、ベースライン、論文執筆)でAIを導くか、自由に実行させます。SmartPauseが人間の入力が有益な場面を自動検出。 |
| 🔄 PIVOT / REFINE ループ | ステージ15が自律的に判定:PROCEED、REFINE(パラメータ調整)、またはPIVOT(新方向)。成果物は自動バージョン管理。 |
| 🤖 マルチエージェント討論 | 仮説生成、結果分析、査読のそれぞれで構造化された多視点討論を実施。 |
| 🧬 自己学習 | 各実行から教訓を抽出(判定根拠、ランタイム警告、メトリクス異常)、30日の時間減衰付き。将来の実行が過去のミスから学習。 |
| 📚 知識ベース | 各実行で6カテゴリ(判定、実験、発見、文献、質問、レビュー)にわたる構造化知識ベースを構築。 |
| 🛡️ Sentinel Watchdog | バックグラウンド品質モニター:NaN/Inf検出、論文-証拠の一貫性、引用関連性スコアリング、捏造防止ガード。 |
| 🔍 クレーム検証 | インラインファクトチェック:AI生成テキストからクレームを抽出し、収集した文献と照合。根拠のない引用や捏造された数値をフラグ。 |
| 🌿 ブランチ探索 | パイプラインをフォークして複数の研究方向を同時に探索し、結果を並べて比較し、最良のパスをマージ。 |
AutoResearchClawはOpenClaw互換サービスです。 OpenClawにインストールして、メッセージ1つで自律研究を開始できます — CLI、Claude Code、その他のAIコーディングアシスタントを使ってスタンドアロンでも利用可能です。
OpenClawをすでにAIアシスタントとしてお使いの場合:
1️⃣ GitHubリポジトリのURLをOpenClawに共有
2️⃣ OpenClawがRESEARCHCLAW_AGENTS.mdを自動読み込み → パイプラインを理解
3️⃣ 「Research [あなたのトピック]」と話しかける
4️⃣ 完了 — OpenClawがクローン、インストール、設定、実行、結果の返却まですべて自動実行
以上です。 OpenClawがgit clone、pip install、設定、パイプライン実行を自動的に処理します。チャットするだけです。
💡 内部で何が起きているか
- OpenClawが
RESEARCHCLAW_AGENTS.mdを読み取り → 研究オーケストレーターの役割を学習 - OpenClawが
README.mdを読み取り → インストールとパイプライン構造を理解 - OpenClawが
config.researchclaw.example.yaml→config.yamlにコピー - LLMのAPIキーを要求(または環境変数を使用)
pip install -e .+researchclaw run --topic "..." --auto-approveを実行- 論文、LaTeX、実験、引用を返却
より深い統合のために、AutoResearchClawには6つのオプション機能を備えたブリッジアダプターシステムが含まれています:
# config.arc.yaml
openclaw_bridge:
use_cron: true # ⏰ スケジュール実行
use_message: true # 💬 進捗通知(Discord/Slack/Telegram)
use_memory: true # 🧠 セッション間の知識永続化
use_sessions_spawn: true # 🔀 並列サブセッションの生成
use_web_fetch: true # 🌐 文献レビュー中のライブWeb検索
use_browser: false # 🖥️ ブラウザベースの論文収集各フラグは型付きアダプタープロトコルをアクティブにします。OpenClawがこれらの機能を提供する場合、アダプターはコード変更なしにそれらを利用します。詳細はintegration-guide.mdをご覧ください。
AutoResearchClawは任意のACP互換コーディングエージェントをLLMバックエンドとして使用できます — APIキーは不要です。エージェントはacpxを介して通信し、全23パイプラインステージにわたって単一の永続セッションを維持します。
| エージェント | コマンド | 備考 |
|---|---|---|
| Claude Code | claude |
Anthropic |
| Codex CLI | codex |
OpenAI |
| Copilot CLI | gh |
GitHub |
| Gemini CLI | gemini |
|
| OpenCode | opencode |
SST |
| Kimi CLI | kimi |
Moonshot |
# config.yaml — ACP例
llm:
provider: "acp"
acp:
agent: "claude" # 任意のACP互換エージェントCLIコマンド
cwd: "." # エージェントの作業ディレクトリ
# base_urlやapi_keyは不要 — エージェントが独自の認証を処理します。# そのまま実行 — エージェントは独自の認証情報を使用
researchclaw run --config config.yaml --topic "Your research idea" --auto-approve| 方法 | 手順 |
|---|---|
| スタンドアロンCLI | researchclaw run --topic "..." --auto-approve(自律)または --mode co-pilot(協調) |
| Python API | from researchclaw.pipeline import Runner; Runner(config).run() |
| Claude Code | RESEARCHCLAW_CLAUDE.mdを読み取り — *「Run research on [トピック]」*と言うだけ |
| Copilot CLI | researchclaw run --topic "..." で llm.acp.agent: "gh" を使用 |
| OpenCode | .claude/skills/を読み取り — 同じ自然言語インターフェース |
| 任意のAI CLI | RESEARCHCLAW_AGENTS.mdをコンテキストとして提供 → エージェントが自動ブートストラップ |
フェーズ A: 研究スコーピング フェーズ E: 実験実行
1. TOPIC_INIT 12. EXPERIMENT_RUN
2. PROBLEM_DECOMPOSE 13. ITERATIVE_REFINE ← 自己修復
フェーズ B: 文献探索 フェーズ F: 分析と判定
3. SEARCH_STRATEGY 14. RESULT_ANALYSIS ← マルチエージェント
4. LITERATURE_COLLECT ← 実API 15. RESEARCH_DECISION ← PIVOT/REFINE
5. LITERATURE_SCREEN [ゲート]
6. KNOWLEDGE_EXTRACT フェーズ G: 論文執筆
16. PAPER_OUTLINE
フェーズ C: 知識統合 17. PAPER_DRAFT
7. SYNTHESIS 18. PEER_REVIEW ← 証拠チェック
8. HYPOTHESIS_GEN ← 討論 19. PAPER_REVISION
フェーズ D: 実験設計 フェーズ H: 最終処理
9. EXPERIMENT_DESIGN [ゲート] 20. QUALITY_GATE [ゲート]
10. CODE_GENERATION 21. KNOWLEDGE_ARCHIVE
11. RESOURCE_PLANNING 22. EXPORT_PUBLISH ← LaTeX
23. CITATION_VERIFY ← 関連性チェック
ゲートステージ(5, 9, 20)は人間の承認を待つか、
--auto-approveで自動承認されます。却下時にはパイプラインがロールバックします。
コパイロットモード(
--mode co-pilot):ステージ7-8(アイデアワークショップ)、ステージ9(ベースラインナビゲーター)、ステージ16-17(論文コライター)で人間とAIの深い協調を実現。その他のステージはSmartPauseモニタリング下で自動実行。
判定ループ: ステージ15はREFINE(→ ステージ13)またはPIVOT(→ ステージ8)をトリガーでき、成果物のバージョン管理が自動的に行われます。
📋 各フェーズの詳細
| フェーズ | 処理内容 |
|---|---|
| A: スコーピング | LLMがトピックを研究質問を含む構造化された問題ツリーに分解 |
| A+: ハードウェア | GPU(NVIDIA CUDA / Apple MPS / CPUのみ)を自動検出、ローカルハードウェアが限定的な場合は警告、コード生成を適応 |
| B: 文献 | マルチソース検索(OpenAlex → Semantic Scholar → arXiv)で実際の論文を取得、関連性でスクリーニング、知識カードを抽出 |
| C: 統合 | 発見事項をクラスタリング、研究ギャップを特定、マルチエージェント討論で検証可能な仮説を生成 |
| D: 設計 | 実験計画を設計、ハードウェア対応の実行可能Python(GPUティア→パッケージ選択)を生成、リソース需要を推定 |
| E: 実行 | サンドボックスで実験を実行、NaN/Infとランタイムバグを検出、LLMによる的確な修復で自己修復 |
| F: 分析 | マルチエージェントによる結果分析;根拠付きの自律的PROCEED / REFINE / PIVOT判定 |
| G: 執筆 | アウトライン → セクション別ドラフト(5,000〜6,500語)→ 査読(手法-証拠の一貫性付き)→ 文字数ガード付き改訂 |
| H: 最終処理 | 品質ゲート、知識アーカイブ、学会テンプレート付きLaTeXエクスポート、引用の整合性 + 関連性検証 |
| 機能 | 説明 |
|---|---|
| 📚 マルチソース文献 | OpenAlex、Semantic Scholar、arXivからの実際の論文 — クエリ拡張、重複排除、三状態サーキットブレーカーとグレースフルデグラデーション |
| 🔍 4層引用検証 | arXiv IDチェック → CrossRef/DataCite DOI → Semantic Scholarタイトルマッチ → LLM関連性スコアリング。幻覚された参考文献は自動削除。 |
| 🖥️ ハードウェア対応実行 | GPU(NVIDIA CUDA / Apple MPS / CPUのみ)を自動検出し、コード生成、インポート、実験スケールを適応 |
| 🦾 OpenCode Beast Mode | 複雑な実験を自動的にOpenCodeにルーティング — カスタムアーキテクチャ、トレーニングループ、アブレーション研究を含むマルチファイルプロジェクトを生成。researchclaw setupでインストール。 |
| 🧪 サンドボックス実験 | AST検証済みコード、不変ハーネス、NaN/Inf早期停止、自己修復、反復的改良(最大10ラウンド)、部分結果の保持 |
| 📝 学会グレード執筆 | NeurIPS/ICML/ICLRテンプレート、セクション別ドラフト(5,000〜6,500語)、捏造防止ガード、改訂文字数ガード、免責事項抑制 |
| 📐 テンプレート切り替え | neurips_2025、iclr_2026、icml_2026 — Markdown → LaTeX(数式、表、図、相互参照、\cite{}対応) |
| 🛡️ 捏造防止 | VerifiedRegistryが論文中で検証済みの実験データの使用を強制。失敗した実験を自動診断し、執筆前に修復。未検証の数値はサニタイズ。 |
| 🚦 品質ゲート | 3つのHuman-in-the-loopゲート(ステージ5, 9, 20)、ロールバック対応。--auto-approveでスキップ。 |
| 🧑 |
6つの介入モードとステージごとのポリシー。アイデアワークショップ、ベースラインナビゲーター、論文コライターで深い協調を実現。SmartPause、コストガードレール、エスカレーションポリシー、介入学習でプロダクション環境の安全性を確保。CLI/WebSocket/MCPアダプター。 |
| 💰 コストガードレール | 設定可能な閾値アラート(50%/80%/100%)付きの予算モニタリング。コストが予算を超えるとパイプラインが自動一時停止。 |
| 🔐 再現性 | 全ステージ成果物のSHA256チェックサム。検証のための不変マニフェスト。バージョン付きスナップショットによるマルチレベルのアンドゥ。 |
AutoResearchClaw v0.4.0は完全なHuman-in-the-Loop(HITL)システムを導入し、パイプラインを純粋な自律実行から人間とAIの協調的研究エンジンに変革します。関与のレベルを選択してください:
| モード | コマンド | 機能 |
|---|---|---|
| 完全自動 | --auto-approve |
従来の動作 — 人間の介入なし |
| ゲートのみ | --mode gate-only |
3つのゲートステージ(5, 9, 20)で承認のため一時停止 |
| チェックポイント | --mode checkpoint |
各フェーズ境界で一時停止(8つのチェックポイント) |
| コパイロット | --mode co-pilot |
重要なステージで深い協調、その他は自動 |
| ステップバイステップ | --mode step-by-step |
各ステージ後に一時停止 — パイプラインを学習 |
| エクスプレス | --mode express |
クイックレビュー — 最も重要な3つのゲートのみ |
You: researchclaw run --topic "量子ノイズによるニューラルネットワーク正則化" --mode co-pilot
パイプラインがステージ1-7を自動実行...
┌─────────────────────────────────────────────────────────────┐
│ HITL | Stage 08: HYPOTHESIS_GEN │
│ Post-stage review │
│ │
│ Hypotheses mentioned: 3 │
│ Novelty score: 0.72 (moderate) │
│ │
│ [a] Approve [r] Reject [e] Edit [c] Collaborate │
│ [i] Inject guidance [v] View output [q] Abort │
└─────────────────────────────────────────────────────────────┘
You: c (協調チャットを開始)
You: 仮説3は興味深いが、Dropout/Label Smoothingをベースラインに追加すべき
AI: 更新しました — Dropout、Label Smoothing、MixUp、CutMixをベースラインに追加...
You: approve
あなたの改良した仮説でパイプラインが続行...
# HITLモードで開始
researchclaw run --topic "..." --mode co-pilot
# 一時停止中のパイプラインにアタッチ(別のターミナルから)
researchclaw attach artifacts/rc-2026-xxx
# パイプラインとHITLのステータスを確認
researchclaw status artifacts/rc-2026-xxx
# 別のターミナルやスクリプトから承認/却下
researchclaw approve artifacts/rc-2026-xxx --message "LGTM"
researchclaw reject artifacts/rc-2026-xxx --reason "重要なベースラインが不足"
# ステージへのガイダンスを注入(実行前でも可能)
researchclaw guide artifacts/rc-2026-xxx --stage 9 --message "ResNet-50をプライマリベースラインとして使用"| 機能 | 説明 |
|---|---|
| アイデアワークショップ | 仮説の共同ブレインストーミング、評価、改良(ステージ7-8) |
| ベースラインナビゲーター | AIがベースラインを提案 + 人間が追加/削除 + 再現性チェックリスト(ステージ9) |
| 論文コライター | セクション別ドラフトで人間の編集とAIのポリッシュ(ステージ16-19) |
| SmartPause | 信頼度駆動の動的一時停止 — 人間の入力が有益な場面を自動検出 |
| クレーム検証 | 収集した文献に対するインラインファクトチェック — 根拠のないクレームをフラグ |
| コストガードレール | 50%/80%/100%閾値アラート付き予算モニタリング |
| 介入学習 | ALHF — レビューパターンから学習して将来の一時停止判断を最適化 |
| ブランチ探索 | パイプラインをフォークして複数の仮説を探索、比較、最良をマージ |
| エスカレーションポリシー | 無人時の段階的通知(ターミナル → Slack → メール → 自動停止) |
| 3つのアダプター | CLI(ターミナル)、WebSocket(Webダッシュボード)、MCP(外部エージェント) |
# config.arc.yaml
hitl:
enabled: true
mode: co-pilot # full-auto | gate-only | checkpoint | co-pilot | custom
cost_budget_usd: 50.0 # コストが予算を超えたら一時停止(0 = 制限なし)
notifications:
on_pause: true
on_quality_drop: true
channels: ["terminal"] # terminal | slack | webhook
timeouts:
default_human_timeout_sec: 86400 # デフォルト24時間待機
auto_proceed_on_timeout: false
collaboration:
max_chat_turns: 50
save_chat_history: true
# ステージごとのカスタムポリシー(オプション、'custom'モード用)
stage_policies:
8: { require_approval: true, enable_collaboration: true }
9: { require_approval: true, allow_edit_output: true }- デフォルト: オフ。
hitl.enabled: trueまたは--modeなしでは、パイプラインは以前と全く同じように動作します。 --auto-approveは引き続き動作。 HITLモードをオーバーライドします。- 既存の2,699テストすべてがパス(HITLコードを含む)。
AutoResearchClaw + MetaClaw = すべての実行から学習するパイプライン。
MetaClawはAutoResearchClawにクロスラン知識転移を追加します。有効にすると、パイプラインは失敗や警告から自動的に教訓を抽出し、再利用可能なスキルに変換し、後続の実行で全23ステージに注入します — 同じ過ちを二度と繰り返しません。
Run N executes → failures/warnings captured as Lessons
↓
MetaClaw Lesson → Skill conversion
↓
arc-* Skill files stored in ~/.metaclaw/skills/
↓
Run N+1 → build_overlay() injects skills into every LLM prompt
↓
LLM avoids known pitfalls → higher quality, fewer retries
# 1. MetaClawをインストール(未インストールの場合)
pip install metaclaw
# 2. 設定で有効化# config.arc.yaml
metaclaw_bridge:
enabled: true
proxy_url: "http://localhost:30000" # MetaClawプロキシ(オプション)
skills_dir: "~/.metaclaw/skills" # スキルの保存場所
fallback_url: "https://api.openai.com/v1" # 直接LLMフォールバック
fallback_api_key: "" # フォールバックURLのAPIキー
lesson_to_skill:
enabled: true
min_severity: "warning" # warning + errorを変換
max_skills_per_run: 3# 3. 通常通り実行 — MetaClawは透過的に動作
researchclaw run --config config.arc.yaml --topic "Your idea" --auto-approve各実行後、~/.metaclaw/skills/arc-*/SKILL.mdを確認して、パイプラインが学習したスキルを確認できます。
対照A/B実験(同じトピック、同じLLM、同じ設定):
| メトリクス | ベースライン | MetaClaw使用時 | 改善 |
|---|---|---|---|
| ステージリトライ率 | 10.5% | 7.9% | -24.8% |
| Refineサイクル数 | 2.0 | 1.2 | -40.0% |
| パイプラインステージ完了率 | 18/19 | 19/19 | +5.3% |
| 総合ロバスト性スコア(複合) | 0.714 | 0.845 | +18.3% |
複合ロバスト性スコアは、ステージ完了率(40%)、リトライ削減(30%)、Refineサイクル効率(30%)の加重平均です。
- デフォルト: オフ。
metaclaw_bridgeが存在しないかenabled: falseの場合、パイプラインは以前と全く同じように動作します。 - 新しい依存関係なし。 MetaClawはオプションです — コアパイプラインはMetaClawなしで動作します。
- 既存の2,699テストすべてがパス(統合コードを含む)。
AutoResearchClawは、研究体験をさらに向上させるためにオープンソースおよびカスタムスキルのロードに対応しました。また、19のプリロード組み込みスキル(科学的ライティング、文献検索、化学、生物学など)をすぐに使えるリファレンスとして搭載しており、高い柔軟性を提供します。スキルのフロントマターにenabled: falseを追加することで無効化できます。
組み込みスキルの例:
| カテゴリ | スキル | 説明 |
|---|---|---|
| ライティング | scientific-writing |
IMRAD構造、引用フォーマット、報告ガイドライン |
| ドメイン | chemistry-rdkit |
分子分析、SMILES、フィンガープリント、創薬 |
| 実験 | literature-search |
体系的レビュー、PRISMAメソドロジー |
全19スキルは
researchclaw skills listで確認できます。
# オプション1: スキルをインストール(プロジェクト間で永続化)
researchclaw skills install /path/to/my-skill/
# オプション2: プロジェクトにSKILL.mdを配置
mkdir -p .claude/skills/my-custom-skill
# YAMLフロントマター(name, description, trigger-keywords, applicable-stages)付きのSKILL.mdを作成
# オプション3: config.arc.yamlで共有スキルディレクトリを設定
# skills:
# custom_dirs:
# - /path/to/team-shared-skillsスキルは自動的にロードされLLMプロンプトに注入されます — 手動でのアクティベーションは不要です。CLIで確認:
researchclaw skills list # ロード済みスキルをソース付きで表示
researchclaw skills validate ./my-skill # SKILL.mdのフォーマットをチェックコミュニティスキルを閲覧: K-Dense-AI/claude-scientific-skills(150以上の科学スキル、複数の分野にわたる)。
クリックして設定リファレンスの全体を展開
# === プロジェクト ===
project:
name: "my-research" # プロジェクト識別子
mode: "docs-first" # docs-first | semi-auto | full-auto
# === 研究 ===
research:
topic: "..." # 研究トピック(必須)
domains: ["ml", "nlp"] # 文献検索の研究ドメイン
daily_paper_count: 8 # 検索クエリあたりの目標論文数
quality_threshold: 4.0 # 論文の最小品質スコア
# === ランタイム ===
runtime:
timezone: "America/New_York" # タイムスタンプ用
max_parallel_tasks: 3 # 同時実験数の上限
approval_timeout_hours: 12 # ゲートステージのタイムアウト
retry_limit: 2 # ステージ失敗時のリトライ回数
# === LLM ===
llm:
provider: "openai-compatible" # openai | openrouter | deepseek | minimax | acp | openai-compatible
base_url: "https://..." # APIエンドポイント(openai-compatible必須)
api_key_env: "OPENAI_API_KEY" # APIキーの環境変数(openai-compatible必須)
api_key: "" # またはここにキーを直接記入
primary_model: "gpt-4o" # プライマリモデル
fallback_models: ["gpt-4o-mini"] # フォールバックチェーン
s2_api_key: "" # Semantic Scholar APIキー(オプション、レート制限緩和)
acp: # provider: "acp" の場合のみ使用
agent: "claude" # ACP Agent CLIコマンド(claude, codex, gemini等)
cwd: "." # エージェントの作業ディレクトリ
# === 実験 ===
experiment:
mode: "sandbox" # simulated | sandbox | docker | ssh_remote
time_budget_sec: 300 # 実行あたりの最大実行時間(デフォルト: 300秒)
max_iterations: 10 # 最大最適化反復回数
metric_key: "val_loss" # プライマリメトリクス名
metric_direction: "minimize" # minimize | maximize
sandbox:
python_path: ".venv/bin/python"
gpu_required: false
allowed_imports: [math, random, json, csv, numpy, torch, sklearn]
max_memory_mb: 4096
docker:
image: "researchclaw/experiment:latest"
network_policy: "setup_only" # none | setup_only | pip_only | full
gpu_enabled: true
memory_limit_mb: 8192
auto_install_deps: true # importを自動検出 → requirements.txt
ssh_remote:
host: "" # GPUサーバーのホスト名
gpu_ids: [] # 利用可能なGPU ID
remote_workdir: "/tmp/researchclaw_experiments"
opencode: # OpenCode Beast Mode(`researchclaw setup`で自動インストール)
enabled: true # マスタースイッチ(デフォルト: true)
auto: true # 確認なしで自動トリガー(デフォルト: true)
complexity_threshold: 0.2 # 0.0-1.0 — 高い = 複雑な実験のみトリガー
model: "" # モデルのオーバーライド(空 = llm.primary_modelを使用)
timeout_sec: 600 # OpenCode生成の最大秒数
max_retries: 1 # 失敗時のリトライ回数
workspace_cleanup: true # 収集後に一時ワークスペースを削除
code_agent: # CodeAgent v2 — 多段階コード生成
enabled: true # レガシー単一プロンプトの代わりにCodeAgentを使用
architecture_planning: true # コーディング前に詳細な実装設計図を生成
sequential_generation: true # 依存関係DAGに従いファイルを1つずつ生成
hard_validation: true # ASTベースのバリデーションゲート(同一アブレーション、ハードコードメトリクスをブロック)
hard_validation_max_repairs: 2 # バリデーション失敗時の最大修復試行回数
exec_fix_max_iterations: 3 # 実行ループ内修正の試行回数
exec_fix_timeout_sec: 60 # 実行修正1回あたりのタイムアウト
benchmark_agent: # BenchmarkAgent — 自動データセット&ベースライン選択
enabled: true # 4エージェントベンチマークパイプラインを有効化(Surveyor→Selector→Acquirer→Validator)
enable_hf_search: true # HuggingFace Datasetsを検索
enable_web_search: true # Google Scholarでベンチマークを検索
tier_limit: 2 # データセットティアフィルタリング(1=小/キャッシュ, 2=中, 3=大)
min_benchmarks: 1 # 必要最小データセット数
min_baselines: 2 # 必要最小ベースライン手法数
figure_agent: # FigureAgent — 学術図表生成
enabled: true # 5エージェント図表パイプラインを有効化(Planner→CodeGen→Renderer→Critic→Integrator)
min_figures: 3 # 生成する最小図表数
max_figures: 8 # 最大図表数
max_iterations: 3 # Critic駆動の改良イテレーション数
dpi: 300 # 出力解像度
strict_mode: false # 図表生成失敗時にパイプラインを停止するか
repair: # 捏造防止の実験修復
enabled: true # 失敗した実験を自動診断・修復
max_cycles: 3 # 修復リトライループ数
min_completion_rate: 0.5 # 続行するには50%以上の条件が完了する必要あり
min_conditions: 2 # 有効な実験に最低2条件が必要
use_opencode: true # 修復をOpenCode Beast Mode経由でルーティング
# === Web検索(オプション)===
web_search:
enabled: true # Web拡張文献検索を有効化
tavily_api_key_env: "TAVILY_API_KEY" # Tavily APIキーの環境変数(オプション)
enable_scholar: true # Google Scholar検索
enable_pdf_extraction: true # PDFからテキストを抽出
max_web_results: 10 # クエリあたりの最大Web検索結果数
# === エクスポート ===
export:
target_conference: "neurips_2025" # neurips_2025 | iclr_2026 | icml_2026
authors: "Anonymous"
bib_file: "references"
# === プロンプト ===
prompts:
custom_file: "" # カスタムプロンプトYAMLのパス(空 = デフォルト)
# === HITL コパイロット(v0.4.0新機能)===
hitl:
enabled: false # trueに設定してHITLを有効化
mode: co-pilot # full-auto | gate-only | checkpoint | step-by-step | co-pilot | custom
cost_budget_usd: 0.0 # USD単位のコスト制限(0 = 制限なし)
notifications:
on_pause: true # パイプライン一時停止時に通知
on_quality_drop: true # 品質問題時に通知
channels: ["terminal"] # terminal | slack | webhook
timeouts:
default_human_timeout_sec: 86400 # 人間の入力を最大24時間待機
auto_proceed_on_timeout: false # trueの場合、タイムアウト時に自動承認
collaboration:
max_chat_turns: 50 # 協調セッションあたりの最大ターン数
save_chat_history: true # チャットログを永続化
stage_policies: {} # ステージごとのオーバーライド('custom'モード用)
# === セキュリティ ===
security:
hitl_required_stages: [5, 9, 20] # 人間の承認が必要なステージ
allow_publish_without_approval: false
redact_sensitive_logs: true
# === 知識ベース ===
knowledge_base:
backend: "markdown" # markdown | obsidian
root: "docs/kb"
# === 通知 ===
notifications:
channel: "console" # console | discord | slack
target: ""
# === MetaClaw Bridge(オプション)===
metaclaw_bridge:
enabled: false # trueに設定してクロスラン学習を有効化
proxy_url: "http://localhost:30000" # MetaClawプロキシURL
skills_dir: "~/.metaclaw/skills" # arc-*スキルの保存場所
fallback_url: "" # プロキシがダウン時の直接LLMフォールバック
fallback_api_key: "" # フォールバックエンドポイントのAPIキー
lesson_to_skill:
enabled: true # 教訓をスキルに自動変換
min_severity: "warning" # 変換する最小重大度
max_skills_per_run: 3 # パイプライン実行あたりの最大新規スキル数
prm: # プロセス報酬モデル品質ゲート(オプション)
enabled: false # LLM-as-judgeでステージ出力をスコアリング
model: "gpt-5.4" # PRMジャッジモデル
votes: 3 # 多数決投票数
gate_stages: [5, 9, 15, 20] # PRMゲートを適用するステージ
# === OpenClaw Bridge ===
openclaw_bridge:
use_cron: false # スケジュール研究実行
use_message: false # 進捗通知
use_memory: false # セッション間の知識永続化
use_sessions_spawn: false # 並列サブセッションの生成
use_web_fetch: false # ライブWeb検索
use_browser: false # ブラウザベースの論文収集以下のプロジェクトに着想を得ています:
- 🔬 AI Scientist (Sakana AI) — 自動研究のパイオニア
- 🧠 AutoResearch (Andrej Karpathy) — エンドツーエンドの研究自動化
- 🌐 FARS (Analemma) — 完全自動研究システム
AutoResearchClaw は研究支援ツールであり、人間の研究者の代替ではありません。すべてのユーザーに以下の原則を遵守していただくようお願いします:
学術的誠実性。 AutoResearchClaw が生成した論文は草稿として扱い、投稿前に十分な人間によるレビュー、検証、修正を行う必要があります。論文に記載された著者は、その内容、主張、正確性について全責任を負います。十分な人間の監督や開示なしに AI 生成テキストを使用することは、所属機関や対象学会の学術的誠実性ポリシーに違反する可能性があります。
透明性と開示。 対象学会のポリシーに従い、原稿における AutoResearchClaw(またはあらゆる AI 支援)の使用を開示することを強く推奨します(例:NeurIPS、ICML、ICLR などの主要学会は現在 AI ライティング支援の開示を求めています)。人間参加型 Co-Pilot は、研究上の意思決定に対する有意義な人間の制御を維持するために存在します。
引用と帰属。 AutoResearchClaw は4層パイプラインで引用を検証しますが、完璧な自動化システムはありません。ユーザーは投稿前にすべての引用が実在し、関連性があり、正しく引用されていることを手動で確認する必要があります。偽造または誤帰属の引用は科学的信頼を損ないます。
悪用リスク。 あらゆる強力なツールと同様に、AutoResearchClaw は低品質または誤解を招く研究の大量生産に悪用される可能性があります。論文工場、不正投稿、または査読を操作するためのコンテンツの生成に本システムを使用することを支持しません。組織的な悪用が発見された場合、ライセンスまたは利用規約を更新する権利を留保します。
二重用途。 自律型研究システムは、科学的労働の将来、著者資格の規範、査読プロセスに関するより広い問題を提起します。これらのトピックについてのコミュニティの議論を歓迎し、本技術の責任ある開発に取り組んでいます。
AutoResearchClaw を使用することにより、これらの原則ならびに所属機関および研究コミュニティの倫理ガイドラインに沿った方法で使用することに同意したものとみなされます。
MIT — 詳細はLICENSEをご覧ください。
AutoResearchClawが役に立った場合は、以下を引用してください:
@misc{liu2026autoresearchclaw,
author = {Liu, Jiaqi and Xia, Peng and Han, Siwei and Qiu, Shi and Zhang, Letian and Chen, Guiming and Tu, Haoqin and Yang, Xinyu and Zhou, Jiawei and Zhu, Hongtu and Li, Yun and Zhang, Jiaheng and Zhou, Yuyin and Zheng, Zeyu and Xie, Cihang and Ding, Mingyu and Yao, Huaxiu},
title = {AutoResearchClaw: Fully Autonomous Research from Idea to Paper},
year = {2026},
organization = {GitHub},
url = {https://github.com/aiming-lab/AutoResearchClaw},
}Built with 🦞 by the AutoResearchClaw team

