連邦学習から分散型エージェントネットワークへ:ChainOperaプロジェクト解析
?``` 著者:https://linktr.ee/0xjacobzhao
```
6月の研究報告《Crypto AIの聖杯:分散型トレーニングの最前線探索》において、分散トレーニングと分散型トレーニングの間に位置する「制御された分散型」ソリューションであるフェデレーテッドラーニング(Federated Learning)について言及しました。その核心はデータのローカル保持とパラメータの集中集約であり、医療や金融などのプライバシーとコンプライアンスのニーズを満たします。同時に、私たちは過去の複数の研究報告においてエージェント(Agent)ネットワークの台頭に継続的に注目してきました------その価値は、複数のエージェントの自治と分業を通じて、複雑なタスクを協力して完了し、「大モデル」から「多エージェントエコシステム」への進化を促進することにあります。
フェデレーテッドラーニングは「データがローカルに留まり、貢献に応じてインセンティブを与える」ことによって多者協力の基盤を築き、その分散型の遺伝子、透明なインセンティブ、プライバシー保護とコンプライアンスの実践がエージェントネットワークに直接再利用可能な経験を提供します。FedMLチームはこの道を進み、オープンソースの遺伝子をTensorOpera(AI産業基盤インフラ層)にアップグレードし、さらにChainOpera(分散型エージェントネットワーク)へと進化させています。もちろん、エージェントネットワークはフェデレーテッドラーニングの必然的な延長ではなく、その核心は複数のエージェントの自治協力とタスク分業にあり、マルチエージェントシステム(MAS)、強化学習(RL)、またはブロックチェーンインセンティブメカニズムに基づいて直接構築することも可能です。
一、フェデレーテッドラーニングとAIエージェント技術スタックアーキテクチャ
フェデレーテッドラーニング(Federated Learning, FL)は、データを集中させることなく協調トレーニングを行うフレームワークであり、その基本原理は各参加者がローカルでモデルをトレーニングし、パラメータや勾配を調整端にアップロードして集約することによって「データがドメイン外に出ない」プライバシーコンプライアンスを実現することです。医療、金融、モバイル端末などの典型的なシナリオでの実践を経て、フェデレーテッドラーニングは比較的成熟した商用段階に入っていますが、通信コストが高い、プライバシー保護が不完全、デバイスの異種性が収束効率を低下させるなどのボトルネックに直面しています。他のトレーニングモードと比較して、分散トレーニングは効率と規模を追求するために計算能力の集中を強調し、分散型トレーニングはオープンな計算ネットワークを通じて完全な分散協力を実現しますが、フェデレーテッドラーニングはその中間に位置し、「制御された分散型」ソリューションとして表れます:産業のプライバシーとコンプライアンスのニーズを満たすだけでなく、機関間協力の実行可能な道を提供し、工業界の移行的なデプロイメントアーキテクチャにより適しています。

AIエージェントプロトコルスタック全体において、私たちは以前の研究報告でそれを3つの主要なレベルに分類しました。
- 基盤層(Agent Infrastructure Layer):この層はエージェントに最も基本的な運用サポートを提供し、すべてのエージェントシステム構築の技術的基盤です。
コアモジュール:エージェントフレームワーク(エージェント開発と運用フレームワーク)とエージェントOS(より低レベルのマルチタスクスケジューリングとモジュール化されたランタイム)を含み、エージェントのライフサイクル管理にコア能力を提供します。
サポートモジュール:エージェントDID(分散型アイデンティティ)、エージェントウォレット&抽象化(アカウント抽象と取引実行)、エージェント支払い/決済能力など。
- 調整とスケジューリング層(Coordination & Execution Layer)は、複数のエージェント間の協調、タスクスケジューリング、システムインセンティブメカニズムに焦点を当て、エージェントシステムの「集団知能」を構築するための鍵となります。
エージェントオーケストレーション:指揮メカニズムであり、エージェントのライフサイクル、タスク割り当て、実行プロセスを統一的に調整および管理するために使用され、中央制御のワークフローシナリオに適しています。
エージェントスワーム:協調構造であり、分散型エージェントの協力を強調し、高度な自治性、分業能力、弾力的な協力を持ち、動的環境での複雑なタスクに対応するのに適しています。
エージェントインセンティブ層:エージェントネットワークの経済的インセンティブシステムを構築し、開発者、実行者、検証者の積極性を引き出し、エージェントエコシステムに持続可能な動力を提供します。
アプリケーション層(Application & Distribution Layer)
配信サブクラス:エージェントランチパッド、エージェントマーケットプレイス、エージェントプラグインネットワークを含む。
アプリケーションサブクラス:エージェントFi、エージェントネイティブDApp、エージェント-as-a-Serviceなどを含む。
消費サブクラス:エージェントソーシャル/消費者エージェントが主で、消費者向けのソーシャルなどの軽量シナリオに向けられています。
ミーム:エージェントの概念を利用したマーケティングで、実際の技術実装やアプリケーションの落とし込みが欠けており、単にマーケティング駆動です。
二、フェデレーテッドラーニングのベンチマークFedMLとTensorOpera全スタックプラットフォーム
FedMLは、フェデレーテッドラーニング(Federated Learning)と分散トレーニングに向けた最初のオープンソースフレームワークの1つであり、学術チーム(USC)に起源を持ち、徐々に企業化されてTensorOpera AIのコア製品となりました。これは、研究者と開発者に対して機関間、デバイス間のデータ協力トレーニングツールを提供します。学術界では、FedMLはNeurIPS、ICML、AAAIなどの主要な会議に頻繁に登場し、フェデレーテッドラーニング研究の一般的な実験プラットフォームとなっています。産業界では、FedMLは医療、金融、エッジAI、Web3 AIなどのプライバシーに敏感なシナリオで高い評価を得ており、フェデレーテッドラーニング分野のベンチマークツールチェーンと見なされています。

TensorOperaは、FedMLが商業化の道を進む中で、企業と開発者向けの全スタックAIインフラストラクチャプラットフォームにアップグレードされました。フェデレーテッドラーニングの能力を維持しつつ、GPUマーケットプレイス、モデルサービス、MLOpsに拡張し、大モデルとエージェント時代のより大きな市場に切り込んでいます。TensorOperaの全体的なアーキテクチャは、Compute Layer(基盤層)、Scheduler Layer(スケジューラー層)、MLOps Layer(アプリケーション層)の3つのレベルに分けられます。
1. Compute Layer(基盤層)
Compute層はTensorOperaの技術的基盤であり、FedMLのオープンソース遺伝子を引き継ぎ、コア機能にはParameter Server、Distributed Training、Inference Endpoint、Aggregation Serverが含まれます。その価値は、分散トレーニング、プライバシー保護のフェデレーテッドラーニング、拡張可能な推論エンジンを提供し、「Train / Deploy / Federate」の3つのコア能力を支え、モデルのトレーニング、デプロイメントから機関間協力までの完全なリンクをカバーすることにあります。
2. Scheduler Layer(中間層)
Scheduler層は計算力の取引とスケジューリングの中枢に相当し、GPUマーケットプレイス、Provision、Master Agent、Schedule & Orchestrateで構成され、パブリッククラウド、GPUプロバイダー、独立した貢献者間のリソース呼び出しをサポートします。この層はFedMLがTensorOperaにアップグレードされる際の重要な転換点であり、スマートな計算力のスケジューリングとタスク編成を通じて、より大規模なAIトレーニングと推論を実現します。LLMと生成AIの典型的なシナリオをカバーしています。同時に、この層のShare & Earnモデルはインセンティブメカニズムのインターフェースを予約しており、DePINやWeb3モデルとの互換性のある潜在能力を持っています。
3. MLOps Layer(上層)
MLOps層はプラットフォームが直接開発者と企業に向けたサービスインターフェースを提供し、Model Serving、AI Agent、Studioなどのモジュールを含みます。典型的なアプリケーションにはLLMチャットボット、マルチモーダル生成AI、開発者コパイロットツールが含まれます。その価値は、基盤の計算力とトレーニング能力を高レベルのAPIと製品に抽象化し、使用のハードルを下げ、即用型エージェント、ローコード開発環境、拡張可能なデプロイ能力を提供することにあり、Anyscale、Together、Modalなどの新世代AIインフラプラットフォームに対抗する位置付けとなり、基盤からアプリケーションへの橋渡しを行います。

2025年3月、TensorOperaはAIエージェント向けの全スタックプラットフォームにアップグレードされ、コア製品にはAgentOpera AIアプリ、フレームワーク、プラットフォームが含まれます。アプリケーション層はChatGPTのようなマルチエージェントの入口を提供し、フレームワーク層はグラフ構造のマルチエージェントシステムとOrchestrator/Routerの進化を「Agentic OS」とし、プラットフォーム層はTensorOperaモデルプラットフォームとFedMLと深く統合され、分散型モデルサービス、RAG最適化、ハイブリッドエッジクラウドデプロイを実現します。全体の目標は「1つのオペレーティングシステム、1つのエージェントネットワーク」を構築し、開発者、企業、ユーザーがオープンでプライバシー保護された環境で新世代のAgentic AIエコシステムを共に構築することです。
三、ChainOpera AIエコシステム全景:共創者から技術基盤へ
もしFedMLが技術的コアであり、フェデレーテッドラーニングと分散トレーニングのオープンソース遺伝子を提供しているなら、TensorOperaはFedMLの研究成果を商用可能な全スタックAIインフラストラクチャに抽象化し、ChainOperaはTensorOperaのプラットフォーム能力を「ブロックチェーン上に載せ」、AIターミナル + エージェントソーシャルネットワーク + DePINモデルと計算層 + AIネイティブブロックチェーンを通じて分散型エージェントネットワークエコシステムを構築します。その核心的な変化は、TensorOperaが主に企業と開発者を対象としているのに対し、ChainOperaはWeb3化されたガバナンスとインセンティブメカニズムを利用して、ユーザー、開発者、GPU/データ提供者を共に構築し、共に管理することを可能にし、AIエージェントが「使用される」だけでなく「共創され、共同所有される」ことを目指しています。
共創者エコシステム(Co-creators)
ChainOpera AIはModel & GPUプラットフォームとエージェントプラットフォームを通じてエコシステム共創のためのツールチェーン、基盤、調整層を提供し、モデルのトレーニング、エージェントの開発、デプロイメント、拡張協力をサポートします。
ChainOperaエコシステムの共創者には、AIエージェント開発者(エージェントの設計と運用)、ツールとサービス提供者(テンプレート、MCP、データベース、API)、モデル開発者(モデルカードのトレーニングと公開)、GPU提供者(DePINとWeb2クラウドパートナーを通じて計算力を提供)、データ提供者と注釈者(マルチモーダルデータのアップロードと注釈)が含まれます。3つのコア供給------開発、計算力、データ------が共同でエージェントネットワークの持続的成長を推進します。
共有人エコシステム(Co-owners)
ChainOperaエコシステムはまた、共有人メカニズムを導入し、協力と参加を通じてネットワークを共同で構築します。AIエージェントの創作者は個人またはチームであり、エージェントプラットフォームを通じて新しいタイプのエージェントを設計し、デプロイし、構築、オンライン化、持続的なメンテナンスを担当し、機能とアプリケーションの革新を推進します。AIエージェントの参加者はコミュニティから来ており、アクセスユニット(Access Units)を取得し、保持することでエージェントのライフサイクルに参加し、使用と普及の過程でエージェントの成長と活性化を支援します。2つの役割はそれぞれ供給側と需要側を代表し、エコシステム内の価値共有と協調発展のモデルを形成します。
エコシステムパートナー:プラットフォームとフレームワーク
ChainOpera AIは多くのパートナーと協力し、プラットフォームの可用性と安全性を強化し、Web3シナリオの統合に注力しています:AIターミナルアプリを通じてウォレット、アルゴリズム、集約プラットフォームを統合し、スマートサービスの推奨を実現;エージェントプラットフォームに多様なフレームワークとノーコードツールを導入し、開発のハードルを下げ;TensorOpera AIを利用してモデルのトレーニングと推論を行い;FedMLと独占的な協力を確立し、機関間、デバイス間のプライバシー保護トレーニングをサポートします。全体として、企業向けアプリケーションとWeb3ユーザー体験を兼ね備えたオープンエコシステムを形成します。
ハードウェア入口:AIハードウェアとパートナー(AI Hardware & Partners)
DeAI Phone、ウェアラブル、ロボットAIなどのパートナーを通じて、ChainOperaはブロックチェーンとAIをスマート端末に統合し、dAppインタラクション、端側トレーニング、プライバシー保護を実現し、徐々に分散型AIハードウェアエコシステムを形成します。
中枢プラットフォームと技術基盤:TensorOpera GenAI & FedML
TensorOperaはMLOps、スケジューラー、計算をカバーする全スタックGenAIプラットフォームを提供します。そのサブプラットフォームFedMLは学術オープンソースから産業化フレームワークに成長し、AIが「どこでも実行され、任意に拡張される」能力を強化しました。
ChainOpera AIエコシステム

四、ChainOperaコア製品および全スタックAIエージェント基盤
2025年6月、ChainOperaはAIターミナルアプリと分散型技術スタックを正式に立ち上げ、「分散型版OpenAI」として位置付けられ、そのコア製品には4つの主要モジュールが含まれます:アプリケーション層(AIターミナル & エージェントネットワーク)、開発者層(エージェントクリエイターセンター)、モデルとGPU層(モデル & 計算ネットワーク)、およびCoAIプロトコルと専用チェーンで、ユーザーの入口から基盤の計算力とチェーン上のインセンティブまでの完全なクローズドループをカバーします。

AIターミナルアプリはBNBChainを統合しており、チェーン上の取引とDeFiシナリオのエージェントをサポートします。エージェントクリエイターセンターは開発者向けに開放され、MCP/HUB、知識ベース、RAGなどの機能を提供し、コミュニティエージェントが継続的に参加しています。同時にCO-AIアライアンスを発起し、io.net、Render、TensorOpera、FedML、MindNetworkなどのパートナーと連携しています。

BNB DApp Bayの最近30日のチェーン上のデータによると、独立ユーザーは158.87K、最近30日の取引量は260万で、BSCの「AIエージェント」カテゴリで全体の2位にランクインしており、強力なチェーン上の活性度を示しています。
Super AI Agent App -- AI Terminal (https://chat.chainopera.ai/)
分散型ChatGPTとAIソーシャルの入口として、AIターミナルはマルチモーダル協力、データ貢献インセンティブ、DeFiツールの統合、クロスプラットフォームアシスタントを提供し、AIエージェントの協力とプライバシー保護(Your Data, Your Agent)をサポートします。ユーザーはモバイル端末でオープンソースの大モデルDeepSeek-R1とコミュニティエージェントを直接呼び出すことができ、インタラクションの過程で言語トークンと暗号トークンがチェーン上で透明に流通します。その価値は、ユーザーが「コンテンツ消費者」から「スマート共創者」に変わり、DeFi、RWA、PayFi、eコマースなどのシナリオで専用のエージェントネットワークを使用できるようにすることにあります。
AIエージェントソーシャルネットワーク (https://chat.chainopera.ai/agent-social-network)
LinkedIn + Messengerに似た位置付けですが、AIエージェントコミュニティを対象としています。仮想作業空間とエージェント間協力メカニズム(MetaGPT、ChatDEV、AutoGEN、Camel)を通じて、単一のエージェントがマルチエージェント協力ネットワークに進化することを促進し、金融、ゲーム、eコマース、研究などのアプリケーションをカバーし、記憶と自主性を徐々に強化します。
AIエージェント開発者プラットフォーム (https://agent.chainopera.ai/)
開発者に「レゴ式」の創作体験を提供します。ノーコードとモジュール式の拡張をサポートし、ブロックチェーン契約が所有権を保証し、DePIN + クラウドインフラストラクチャがハードルを下げ、マーケットプレイスが配布と発見のチャネルを提供します。その核心は、開発者が迅速にユーザーにアクセスできるようにし、エコシステムへの貢献が透明に記録され、インセンティブを得ることができるようにすることです。
AIモデル & GPUプラットフォーム (https://platform.chainopera.ai/)
基盤層として、DePINとフェデレーテッドラーニングを組み合わせ、Web3 AIが集中型計算力に依存するという課題を解決します。分散型GPU、プライバシー保護データトレーニング、モデルとデータ市場、エンドツーエンドMLOpsを通じて、マルチエージェント協力と個別化AIをサポートします。そのビジョンは「大企業の独占」から「コミュニティ共建」へのインフラストラクチャのパラダイムシフトを推進することです。

五、ChainOpera AIのロードマップ計画
全スタックAIエージェントプラットフォームが正式に立ち上がったことを除いて、ChainOpera AIは汎用人工知能(AGI)がマルチモーダルで多エージェントの協力ネットワークから生まれると信じています。したがって、その長期的なロードマップ計画は4つの段階に分かれています。

段階一(Compute → Capital) :分散型基盤を構築し、GPU DePINネットワーク、フェデレーテッドラーニング、分散トレーニング/推論プラットフォームを含み、モデルルーター(Model Router)を導入して多端推論を調整します。インセンティブメカニズムを通じて、計算力、モデル、データ提供者が使用量に応じて収益を得られるようにします。
段階二(Agentic Apps → Collaborative AI Economy) :AIターミナル、エージェントマーケットプレイス、エージェントソーシャルネットワークを導入し、マルチエージェントアプリケーションエコシステムを形成します。CoAIプロトコルを通じてユーザー、開発者、リソース提供者を接続し、ユーザーのニーズと開発者のマッチングシステムと信用体系を導入し、高頻度のインタラクションと持続的な経済活動を推進します。
段階三(Collaborative AI → Crypto-Native AI) :DeFi、RWA、支払い、eコマースなどの分野において実現し、KOLシナリオや個人データ交換にも拡大します。金融/暗号向けの専用LLMを開発し、エージェント間の支払いとウォレットシステムを導入し、「Crypto AGI」のシナリオ化アプリケーションを推進します。
段階四(Ecosystems → Autonomous AI Economies) :徐々に自治子ネットワーク経済に進化し、各子ネットワークがアプリケーション、基盤、計算力、モデル、データに基づいて独立してガバナンスし、トークン化された運営を行い、子ネットワーク間のプロトコル協力を通じてマルチ子ネットワーク協調エコシステムを形成します。同時に、エージェントAIからフィジカルAI(ロボット、自動運転、宇宙)へと進化します。
免責事項:本ロードマップは参考用であり、タイムラインや機能は市場環境に応じて動的に調整される可能性があり、納品保証を構成するものではありません。
七、トークンインセンティブとプロトコルガバナンス
現在、ChainOperaは完全なトークンインセンティブ計画を発表していませんが、そのCoAIプロトコルは「共創と共同所有」を核心としており、ブロックチェーンとProof-of-Intelligenceメカニズムを通じて透明で検証可能な貢献記録を実現します:開発者、計算力、データ、サービス提供者の投入は標準化された方法で測定され、報酬を得ます。ユーザーはサービスを使用し、リソース提供者は運営を支援し、開発者はアプリケーションを構築し、すべての参加者が成長の利益を共有します。プラットフォームは1%のサービス料、報酬分配、流動性サポートを通じて循環を維持し、オープンで公平な協力的な分散型AIエコシステムを推進します。
Proof-of-Intelligence学習フレームワーク
Proof-of-Intelligence(PoI)は、ChainOperaがCoAIプロトコルの下で提案したコアコンセンサスメカニズムであり、分散型AI構築のために透明で公平かつ検証可能なインセンティブとガバナンスシステムを提供することを目的としています。これは、Proof-of-Contribution(貢献証明)に基づくブロックチェーン協力機械学習フレームワークであり、フェデレーテッドラーニング(FL)の実際のアプリケーションにおけるインセンティブ不足、プライバシーリスク、検証性の欠如といった問題を解決することを目指しています。この設計はスマートコントラクトを中心に、分散型ストレージ(IPFS)、集約ノード、ゼロ知識証明(zkSNARKs)を組み合わせて、5つの目標を達成します:① 貢献度に応じた公平な報酬分配を行い、トレーニング者が実際のモデル改善に基づいてインセンティブを得られるようにする;② データのローカルストレージを維持し、プライバシーを漏洩させない;③ 悪意のあるトレーニング者による毒性や集約攻撃に対抗するためのロバスト性メカニズムを導入する;④ ZKPを通じてモデル集約、異常検出、貢献評価などの重要な計算の検証可能性を確保する;⑤ 効率と汎用性の面で異種データや異なる学習タスクに適用可能であること。

全スタックAIにおけるトークンの価値
ChainOperaのトークンメカニズムは、5つの価値の流れ(LaunchPad、Agent API、Model Serving、Contribution、Model Training)を中心に運営されており、コアはサービス料、貢献確認、リソース分配であり、投機的なリターンではありません。
AIユーザー:トークンを使用してサービスにアクセスしたり、アプリケーションを購読したりし、データを提供/注釈/ステーキングすることでエコシステムに貢献します。
エージェント/アプリケーション開発者:プラットフォームの計算力とデータを使用して開発し、貢献したエージェント、アプリケーション、データセットに対してプロトコルの認識を得ます。
リソース提供者:計算力、データ、モデルを提供し、透明な記録とインセンティブを得ます。
ガバナンス参加者(コミュニティ & DAO):トークンを通じて投票、メカニズム設計、エコシステム調整に参加します。
プロトコル層(COAI):サービス料を通じて持続可能な発展を維持し、自動化された分配メカニズムを利用して供給と需要のバランスを取ります。
ノードと検証者:検証、計算力、安全サービスを提供し、ネットワークの信頼性を確保します。
プロトコルガバナンス
ChainOperaはDAOガバナンスを採用し、トークンをステーキングすることで提案と投票に参加し、意思決定の透明性と公平性を確保します。ガバナンスメカニズムには、評判システム(貢献を検証し定量化する)、コミュニティ協力(提案と投票を通じてエコシステムの発展を推進する)、パラメータ調整(データ使用、安全性、検証者の責任)があります。全体の目標は権力集中を避け、システムの安定性とコミュニティの共創を維持することです。
八、チームの背景とプロジェクトの資金調達
ChainOperaプロジェクトは、フェデレーテッドラーニング分野で深い専門知識を持つSalman Avestimehr教授と何朝陽(Aiden)博士によって共同設立されました。他のコアチームメンバーは、UCバークレー、スタンフォード、USC、MIT、清華大学、Google、Amazon、Tencent、Meta、Appleなどのトップの学術機関とテクノロジー機関にまたがる背景を持ち、学術研究と産業実践の能力を兼ね備えています。現在までに、ChainOpera AIチームの規模は40人を超えています。
共同創設者:Salman Avestimehr
Salman Avestimehr教授は南カリフォルニア大学(USC)電気工学とコンピュータ工学部のDean's Professorであり、USC-Amazon Trusted AIセンターの創設ディレクターを務め、USC情報理論と機械学習ラボ(vITAL)を率いています。彼はFedMLの共同創設者兼CEOであり、2022年にTensorOpera/ChainOpera AIを共同設立しました。
Salman Avestimehr教授はUCバークレーEECSで博士号を取得(最優秀論文賞)。IEEEフェローとして、情報理論、分散コンピューティング、フェデレーテッドラーニングの分野で300以上の高水準の論文を発表し、引用数は30,000を超え、PECASE、NSF CAREER、IEEE Massey Awardなどの国際的な栄誉を受けています。彼はFedMLオープンソースフレームワークの創設を主導し、医療、金融、プライバシー計算に広く応用され、TensorOpera/ChainOpera AIのコア技術基盤となっています。
共同創設者:Dr. Aiden Chaoyang He
Dr. Aiden Chaoyang HeはTensorOpera/ChainOpera AIの共同創設者兼社長であり、南カリフォルニア大学(USC)コンピュータサイエンス博士、FedMLの原始的な創設者です。彼の研究分野は分散型およびフェデレーテッドラーニング、大規模モデルのトレーニング、ブロックチェーンとプライバシー計算を含みます。起業前には、Meta、Amazon、Google、Tencentで研究開発に従事し、Tencent、Baidu、Huaweiでコアエンジニアリングおよび管理職を務め、複数のインターネット規模の製品とAIプラットフォームの実現を主導しました。
学術と産業の両面で、Aidenは30篇以上の論文を発表し、Google Scholarでの引用数は13,000を超え、Amazon Ph.D. Fellowship、Qualcomm Innovation Fellowship、NeurIPS、AAAI最優秀論文賞を受賞しています。彼が主導して開発したFedMLフレームワークは、フェデレーテッドラーニング分野で最も広く使用されているオープンソースプロジェクトの1つであり、日平均270億回のリクエストを支えています。また、彼はFedNLPフレームワーク、混合モデル並列トレーニング手法のコア著者として、Sahara AIなどの分散型AIプロジェクトに広く応用されています。














