Deep Forest: Towards An Alternative to Deep Neural Networks

【一言】Deep Learningの代替手段となるか?


In this paper, we propose gcForest, a decision tree ensemble approach with performance highly competitive to deep neural networks. In contrast to deep neural networks which require great effort in hyper-parameter tuning, gcForest is much easier to train. Actually, even when gcForest is applied to different data from different domains, excellent performance can be achieved by almost same settings of hyper-parameters. The training process of gcForest is efficient and scalable. In our experiments its training time running on a PC is comparable to that of deep neural networks running with GPU facilities, and the efficiency advantage may be more apparent because gcForest is naturally apt to parallel implementation. Furthermore, in contrast to deep neural networks which require large-scale training data, gcForest can work well even when there are only small-scale training data. Moreover, as a tree-based approach, gcForest should be easier for theoretical analysis than deep neural networks.

本稿では、深層ニューラルネットワークに匹敵するパフォーマンスを持つ意思決定木アンサンブル手法であるgcForestを提案する。 ハイパーパラメータチューニングに大きな労力を必要とする深層ニューラルネットワークとは対照的に、gcForestは訓練することがずっと簡単です。 実際、gcForestを異なるドメインの異なるデータに適用しても、ほぼ同じハイパーパラメータの設定で優れたパフォーマンスを達成できます。 gcForestのトレーニングプロセスは効率的でスケーラブルです。 我々の実験では、PC上で実行されるトレーニング時間は、GPU機能を実行する深層ニューラルネットワークのトレーニング時間に匹敵し、gcForestは自然に並列実装に適しているため、効率の利点がより明らかになる可能性があります。 さらに、大規模な訓練データを必要とする深層ニューラルネットワークとは対照的に、gcForestは、小規模な訓練データしかない場合でもうまく機能します。 さらに、ツリーベースのアプローチとして、gcForestは、深層ニューラルネットワークよりも理論的解析が容易です。



【Hacker News】