非集中環境における機械学習に関する論文がICPR’20に採録されました

Ryo Yonetani
OMRON SINIC X (JP)
Published in
Jan 4, 2021

オムロンサイニックエックスで実施された、非集中環境における機械学習に関する研究が、International Conference on Pattern Recognition (ICPR) に採録されました!本内容は ポスターセッション T1.13 (11 pm — 12pm JST on Jan. 15) において発表予定です。

Jiaxin ma, Ryo Yonetani, and Zahid Iqbal, “Adaptive Distillation for Decentralized Learning from Heterogeneous Clients”, Proc. ICPR, 2020 [arXiv] [Video presentation]

ICPRは1973年から開催されているパターン認識に関する歴史的な国際会議です。2年に一度開催されており、毎回数千件の投稿があるアクティブな会議となっています。本成果はUniversiti Sains MalaysiaからのインターンZahid Iqubalとの成果です。

非集中環境における学習

ディープニューラルネットをはじめとする機械学習モデルを学習するためには、大量のデータが必要になります。とりわけ、入力されたサンプルがどのカテゴリに属するかを判定する分類モデルを学習するためには、「サンプルと正解ラベル」の組が大量に必要となります。このようなラベル付きデータを比較的簡易に収集する方法として、最近ではクラウドソーシングが注目を集めていますが、プライバシーやセキュリティーに関する要求からデータを外に出せない状況(たとえば、製造業、医療、ライフログなど)での活用は容易ではありません。

このような問題意識のもと、オムロンサイニックエックスでは「データではなくモデルを現場のクライアントから収集し、統合するDecentralized X」というプロジェクトを推進してきました。同技術は大きくはFederated Learning と呼ばれる分散協調学習の枠組みの一つであり、多数のクライアントの保有データに直接アクセスすることなく、大規模な機械学習が実現可能というメリットがあります。Federated Learningは特に通信・機械学習分野で流行を極めており、実用方面でもGoogleWeBank, Siemens が活発な取り組みをはじめています。

Federated Learningを構成する学習ステップ

Federated Learningでは基本的に1) サーバがクライアントに対して学習対象となるモデルを配布し、2) クライアントは自身のデータを用いて配布モデルを学習、サーバに送り返す、3) サーバはクライアントが学習したモデル複数を統合し、大元のモデルを更新 —このステップを何度も繰り返すことで、学習対象となるモデルの性能を向上させていきます。我々は、既存のFederated Learningを実シーンに直接応用することを目指すのではなく、そこに潜む以下のような技術的課題を解決することに取り組みました。

  1. Federated Learningでは基本的に各クライアントが同じモデルを学習する必要があります。これはたとえば、あるクライアントはGPUを積んだハイエンドマシンを利用しているが、別のクライアントはスマートフォンしか利用できない、といった状況において「あるクライアントはすぐに学習が終わったが、別のクライアントはいつまでたっても終わらず、サーバはいつまで経ってもモデル統合を開始できない」といった問題を引き起こします。
  2. また、Federated Learningでは基本的にサーバとクライアントは継続的にモデルを通信し続ける必要があります。この通信を効率的にするために各種研究が進められていますが、一方で「クライアントは一度だけモデルを通信したらおしまい」といったより通信負荷の小さな状況設定については、まだそれほど考えられていません。

適応的なモデル統合による非集中環境学習

適応的モデル統合による非集中環境学習

このような問題意識のもと、本研究ではDecentralized Learning via Adaptive Distillation (DLAD) と呼ばれる新たな学習の枠組みを提案しました。通常のFederated Learningではクライアントモデルの重みデータを統合します。これに対してDLADはサーバ・クライアントが何らかの追加データを共有している(共有データ)という状況を想定し、 1) その共有データに対するクライアントモデルの出力結果を適応的に統合し、 2) サーバはその統合された結果が出力できるようなモデルを新たに学習する — というステップを実行します。こうすることで、クライアントは出力結果のフォーマットさえあっていればどのような構造のモデルを学習することもできるようになります。また、クライアントは自身のデータで学習済のモデルを一度だけサーバに送るだけで良いことになります。

適応的重みの計算

このようにアイデア自体は非常にシンプルではあるのですが、「多様なクライアントが多様なデータで多様な構造のモデルを学習した」というような状況になってくると、サーバ側はそれらのモデルの出力をどのように統合するのが良いか、ということが問題になってきます。これに対して本研究は、各クライアントに自身のデータと共有データを区別できるような識別器を別途学習してもらうことで、この問題を解決しています。いったんこのような識別器が学習されれば、その出力は「共有データ中のあるサンプルが、クライアントの持つデータにどれだけ類似していたか」、言い換えれば「クライアントがそのサンプルの識別をどれだけうまく出来そうかという信頼度」を表すことになります。論文中では、この信頼度スコアを先の出力統合における重みとして利用することで、最終的な学習結果のパフォーマンスを大幅に改善できることを示しました。

ICPR’20における発表はこちらでもみることができます。

なお、本研究自体は教師あり識別の問題のみに着目していますが、別の研究では同様の枠組みで転移強化学習ができるアプローチを提案しています。ご興味がある方はこちらもぜひご覧ください

今後の取り組み

オムロンサイニックエックスでは、実社会で人々と協調・共存して活動するロボットの実現を目指し、コンピュータビジョンと機械学習、ロボティクスに関する基礎研究を継続していきます。弊社でのインターシップにご興味のある方は、履歴書とともにinternships@sinicx.com までご連絡ください。

関連プロジェクト

--

--

Ryo Yonetani
OMRON SINIC X (JP)

Research Scientist at CyberAgent AI Lab. Ex-Principal Investigator at OMRON SINIC X, Japan