線虫に着想を得たデータ入力に継続的に適応する柔軟なニューラルネットワーク
MITの研究者は、トレーニング段階だけでなく、推論中にも学習する一種のニューラルネットワーク(NN)を開発した。Liquid Networkと呼ばれるこの柔軟なアルゴリズムは、基礎となる方程式を変化させ、新しいデータ入力に継続的に適応することで、現状のNNの欠点を満たすことが企図されている。
MITの研究者は、トレーニング段階だけでなく、推論中にも学習する一種のニューラルネットワーク(NN)を開発した。Liquid Networkと呼ばれるこの柔軟なアルゴリズムは、基礎となる方程式を変化させ、新しいデータ入力に継続的に適応することで、現状のNNの欠点を満たすことが企図されている。この進歩は、医療診断や自律運転など、時間の経過とともに変化するデータストリームに基づいた意思決定を支援する可能性がある。この研究は、2月初旬に開催されたAAAI(アメリカ人工知能学会)で発表された。
MITコンピュータ科学・人工知能研究所(CSAIL)のポスドクであるRamin Hasaniらが提案する、新しい種類の時間連続リカレントニューラルネットワークモデルは、医療、産業、ビジネスの設定でユビキタスに使用されている時系列データをモデリングするための有効なアルゴリズムになると、Hasaniらは主張している。この常微分方程式(ODE, 一変数関数とその導関数からなる方程式)によって決定される連続時間の隠れた状態を持つリカレントニューラルネットワークは、学習システムの力学を暗黙の非線形性によって宣言するのではなく、非線形相互リンクゲートを介して変調された線形一次力学系のネットワークを構築する。
結果として得られるモデルは、その隠れた状態に結合された変化する(すなわち、液体 liquid の)時定数を持つ力学系を表現し、その出力は数値微分方程式ソルバーによって計算される。これらのニューラルネットワークは、安定した束縛された挙動を持ち、ニューラル常微分方程式のファミリーの中で優れた表現力を持ち、時系列予測タスクでの性能向上をもたらす、と主張している、Hasaniらは主張している。
ニューラルネットワークは、一連の「訓練」例を分析することでパターンを認識するアルゴリズムである。ニューラルネットワークは、しばしば脳の処理経路を模倣していると言われているが、HasaniはLiquid Networkを作る上で微細な線虫のカエノラブディティス・エレガンス(アイキャッチ写真)からインスピレーションを得たという。この線虫は神経系に302個のニューロンしか持っていない。
Hasaniは、エノラブディティス・エレガンスのニューロンが電気的インパルスを介してどのように活性化し、互いに通信するかに注意を払って神経回路網をコード化した。彼がニューラルネットワークを構築するために使用した方程式では、入れ子になった微分方程式のセットの結果に基づいて、時間の経過とともにパラメータを変化させることができるようにした。
この柔軟性が鍵となる。ほとんどのニューラルネットワークの動作は、訓練段階の後に固定されているため、入ってくるデータストリームの変化に適応するのが苦手だ。Hasaniによると、彼の「液体」ネットワークは流動性があるため、大雨で自動運転車のカメラの視野が見えなくなった場合など、予期せぬデータやノイズの多いデータに対してより強い耐性を持っているという。
ネットワークの柔軟性にはもう一つの利点がある。それは「より解釈しやすい」ということだ。Hasaniによると、彼の液体ネットワークは、他のニューラルネットワークにありがちな不明瞭さを回避しているという。ニューロンの表現を変えるだけで、微分方程式で行ったように、他の方法では探索できない複雑さを探索することができる。表現力の高いニューロンの数が少ないおかげで、ネットワークの意思決定の「ブラックボックス」を覗き込んで、なぜネットワークが特定の特徴を持つようになったのかを診断することが容易になった。
Hasaniのネットワークは、さまざまなテストで優れた性能を発揮した。大気化学から交通パターンに至るまでのデータセットにおいて、将来の値を正確に予測するという点では、他の最先端の時系列アルゴリズムを数%ポイント上回っていた。「本研究では、線形ODEニューロンと特殊な非線形重み設定を組み合わせて得られる新しいクラスの時間連続ニューラルネットワークモデルの使用を検討した。このモデルは、任意の変数と固定ステップのODEソルバーで効果的に実装でき、時間を通じたバックプロパゲーションによって学習できることを示した。我々は、標準的なディープラーニングモデルや最新のディープラーニングモデルと比較して、拘束された安定したダイナミクス、優れた表現力、教師付き学習時系列予測タスクでの上位性能を実証した」とHasaniらは書いている。
Hasaniは、システムを改良し続け、産業用アプリケーションに対応できるようにすることを計画している。課題は、これをどうやって拡張するかことだ。この種のネットワークは、将来の知能システムの重要な要素になるかもしれない。
Photo: Image obtained with an optical microscope of two C. elegans stained to detect lipids (in black) during the study, via Neurocience Institute UAB
参考文献
Ramin Hasani et al. Liquid Time-constant Networks. [v4] Mon, 14 Dec 2020 22:23:52 UTC (5,852 KB). arXiv:2006.04439 [cs.LG]
Daniel Ackerman. “Liquid” machine-learning system adapts to changing conditions. MIT News. January 28, 2021.
Special Thanks to Supportes.
Shogo Otani, 林祐輔, 鈴木卓也, Mayumi Nakamura, Kinoco, Masatoshi Yokota, Yohei Onishi, Tomochika Hara, 秋元 善次, Satoshi Takeda, Ken Manabe, Yasuhiro Hatabe, 4383, lostworld, ogawaa1218, txpyr12, shimon8470, tokyo_h, kkawakami, nakamatchy, wslash, TS, ikebukurou, 太郎, bantou.
700円/月のサポーター
Axionは吉田が2年無給で、1年が高校生アルバイトの賃金で進めている「慈善活動」です。有料購読型アプリへと成長するプランがあります。コーヒー代のご支援をお願いします。個人で投資を検討の方はTwitter(@taxiyoshida)までご連絡ください。
投げ銭
投げ銭はこちらから。金額を入力してお好きな額をサポートしてください。