これまで取り組んできた学習シミュレーター開発での気づきや、GAN(Generative adversarial networks 略称: GAN)による画像生成AIのような新技術の登場によりどのような展開が期待されるか、バーチャルヒューマンエージェントの行動制御を担当する染谷洋介とCEO石井敦が語ります。
エンジニア視点での学習シミュレーター開発の難しさ
石井:AI学習シミュレーターが最近いくつか出ています。我々が作っているバーチャルヒューマンエージェントもそうですが、AIは様々な状況を学習する必要があります。現実世界で的確に学習もテストできるに越したことはないですが、学習すべき色々な状況をすべて作るのは非常に難しい。例えば渋谷の街を自動運転車のAIに学習させようとした場合、そこで起きうる全ての状況を実際に作り出してカメラで撮ることはできないわけです。そういう意味で学習シミュレーターのニーズは上がってきています。
学習シミュレーターを適切に作ることができれば、学習データを無限に作ることができます。さらに、これが人であるとか、車であるというような、アノテーション作業も自動化できます。そして、あらゆる状況を作り出すことができます。天気は雨だったり、風だったり雪が降っていたり、あるいは渋滞だったり、人が多かったり少なかったりとかですね。
クーガーもバーチャルヒューマンエージェントの学習をさせるという点から、これまで学習シミュレーターの開発をやってきました。染谷くんはまさにその一員でしたが、学習データ作りで大変だった点はなんですか。
染谷:まず、それが本当に人に見えるかどうかですね。シミュレーターなので、人に見えて当たり前なのですが一番大変でした。
石井:人から見て「人に見えるか」という話だけでなく、学習するAIから見て、本物の人と差がないかという点ですか。
染谷:そうですね。例えばCGで作るとどれも表情が似た感じになるがそれでいいのか、同じ表情でも数があれば精度が上がるのか、微妙に変えた方が精度が上がるのか、とかですね。
しかも、一度学習させないとどれが良いか分からないので。服は一緒がいいのか、色を変えればいいのか、サイズ感を変えればいいのかなど、本当に色々なパターンがあります。もちろん、あらゆるパターンを作れたら楽ですが、そう簡単には作れないので、どこまでやるかの見極めが本当に大変でしたね。
石井:モーションもですよね。あとは、持っている荷物や、何かを持っているときの体の姿勢とか。
染谷:はい。一番大変なのは、やっぱり人に関するモデリング、調整が大変ですね。