
Nous Research はオープンソースの AI エージェント フレームワーク Hermes Agent を正式にリリースし、OpenClaw に直接対標しています。公式では OpenClaw の記憶およびスキル移行のための完全なツールも提供します。Hermes Agent には、SQLite ベースの長期記憶メカニズムと、「クローズド・ラーニング・ループ(Closed Learning Loop)」による自己進化アーキテクチャがあります。
従来のチャットボットは、質問と回答のやり取りを行う設計で、毎回の会話が終わるとコンテキストが消去されます。Hermes Agent の位置づけは根本的に異なります――それは「継続稼働するエージェント・システム」であり、ユーザー環境において長期にわたり稼働し、SQLite + FTS5 の全文検索による記憶メカニズムを通じて会話をまたいで情報を保持することで、エージェントが毎回ゼロからコンテキストを作り直す必要がありません。
Hermes Agent の中核的な差異は、クローズド・ラーニング・ループです。毎回のタスク完了後、システムは実行プロセスを自動で整理し、再利用可能なスキル(Skills)ファイルを生成します。以降の類似シナリオではそれを直接呼び出し、ユーザーの行動や好みに対する深い理解を段階的に形成します。モデル提供者の面では、OpenAI、Anthropic、OpenRouter、Ollama、ならびにすべての互換 OpenAI API 形式のカスタムエンドポイント(Custom Endpoint)に対応しており、vLLM と SGLang も含まれます。後者はローカルにモデルをデプロイする必要がある開発者にとって特に実用的です。
Hermes Agent のインストール手順は公式 Quickstart を軸とし、9 つのステップで環境設定、モデル選択、プラットフォーム連携、ツール拡張をカバーします:
ステップ 1:基本環境のインストール:公式の curl インストール指示を実行し、その後 Shell パスを再読み込み(source ~/.bashrc または ~/.zshrc)
ステップ 2:モデル提供者の設定:hermes model コマンドで LLM の提供者を選択します。Nous Portal、OpenAI、Anthropic、OpenRouter に対応、または Custom Endpoint を通じてローカルモデルを接続します
ステップ 3:CLI 対話の起動:hermes を実行してエージェントのインターフェースに入ります。システムが Web 検索、ファイル操作、終端機(ターミナル)コマンドなどのツールを自動で読み込みます
ステップ 4:コア実行能力のテスト:自然言語で終端機コマンドをトリガーします(例:ディスク使用量の照会)。ツール実行能力を検証します。前回の会話コンテキストを復元するために hermes -c を使用します
ステップ 5:メッセージプラットフォームの連携:hermes gateway setup を実行し、Telegram、Discord、Slack、WhatsApp などの各プラットフォームの対話式設定を完了します
ステップ 6:音声モードの有効化:voice パッケージをインストール後、/voice on でオンにします。マイク入力と TTS 音声出力に対応し、Discord の音声チャンネルにも拡張できます
ステップ 7:Skills とスケジューラ自動化の導入:hermes skills install で機能モジュールをインストールします。自然言語で Cron Job を作成します。たとえば「毎朝 9 時に AI ニュースを調べて Telegram に送信」
ステップ 8:開発者向けエディタ統合(ACP):ACP をインストールした後に hermes acp を実行し、VS Code、Zed、JetBrains などのエディタでエージェントが直接能力を提供できるようにします
ステップ 9:MCP 外部ツールの連携:設定ファイルに MCP Server(例:GitHub)を追加し、Model Context Protocol により外部ツール統合の拡張機能を利用します
セキュリティ面では、公式は終端機の実行バックエンドを Docker コンテナに切り替えるよう推奨しています。隔離された環境内で代理コマンドのすべてを実行し、ホストシステムに影響しないようにします。
Hermes Agent の公式は hermes claw migrate コマンドを提供しており、~/.openclaw/ からデータを読み取り、人格(SOUL)、長期記憶、スキルモジュール、モデル設定、通信プラットフォーム、API キーを新しいシステムへ一括で取り込みます。実行前に --dry-run パラメータを追加して変更内容をプレビューし、確認後に完全移行を実行できます。
移行の過程では、複数の記憶ファイルが統合されて重複排除されたうえで Hermes の記憶アーキテクチャに書き込まれます。互換性のない旧システムの設定項目(例:plugins や複雑な channel 設定)は archive に格納され、手動で調整できるようにします。移行完了後は、API キーの有効性を確認し、gateway を再起動して通信機能をテストすることが公式から推奨されており、Hermes 環境でエージェント全体が正常に動作することを確実にします。
両者はいずれもオープンソースの AI エージェント フレームワークですが、Hermes Agent は SQLite + FTS5 に基づく長期記憶メカニズムとクローズド・ラーニング・ループを備えており、エージェントが会話をまたいで経験を保持し、段階的に進化できるようになっています。公式は完全な一括移行ツールも同時に提供しているため、OpenClaw のユーザーは既存の記憶設定やスキルモジュールを損なうことなく移行できます。
サポートしています。Custom Endpoint の設定により、Hermes Agent は Ollama、vLLM、SGLang、またはあらゆる互換 OpenAI API 形式のローカル推論サービスに接続できます。データのプライバシーを重視する、またはオフライン環境が必要なユーザーに適しており、コードを何ら変更せずに提供者の切り替えができます。
公式は、終端機のバックエンドを Docker コンテナのモードに切り替えることを推奨しています。これにより、エージェントのすべてのコマンドの実行が完全に隔離された環境で行われ、ホストのファイルやシステム設定に影響しません。さらに高い安全な隔離が必要なシナリオでは、SSH バックエンドに切り替えてリモート実行することもサポートされます。
関連記事
カリフォルニア大学の研究論文:AIエージェント・ルーターに重大な脆弱性、26件の秘密から暗号化された認証情報を窃取