ロボットによる粉体自動粉砕に関する研究をIROS2022で発表いたします

Masashi Hamaya
OMRON SINIC X (JP)
Published in
Oct 12, 2022

シニアリサーチャーの濱屋と申します。

オムロン サイニックエックス(OSX)と大阪大学小野研究室(研究開始時は総合研究大学院大学)の共同研究において、材料科学自動化のための、ロボット粉体粉砕に関する論文が、2022 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS 2022)に採択されました。

Yusaku Nakajima, Masashi Hamaya, Yuta Suzuki, Takafumi Hawai, Felix Wolf Hans Erich von Drigalski, Kazutoshi Tanaka, Yoshitaka Ushiku, and Kanta Ono, “Robotic Powder Grinding with a Soft Jig for Laboratory Automation in Material Science”

本ブログでは、第一著者である大阪大学特任研究員の中島優作さんに本研究の解説を行っていただきます。

研究背景

大阪大学の中島と申します。私は材料研究を自動化するためのロボットについて研究しています。材料科学とは、スマホやパソコンのディスプレイ, バッテリーといった素材の開発や機能解明に取り組む研究分野です。材料は生活のあらゆる場面で使われており非常に身近なものですが、その裏側では材料を開発するために膨大な数の手作業による実験が行われています。我々の研究室ではロボットや情報科学を活用することで材料研究を効率化し、究極的には人の手を介さない完全自律型の実験システムの実現を目指しています。私は高専で材料科学の研究と高専ロボコンに取り組んだ経験があり、材料研究の課題をロボットで解決できるのではと考え現在の研究をはじめました。

IROS2022では、ガラスやセラミックスといった固体材料合成で重要となる粉体粉砕を自動化するためのロボットシステムを開発しました。材料合成では粉の粒子サイズが小さいほど粉同士の接する面積が大きくなり化学反応が起こりやすいため、高品質な材料を作るには粉体粉砕が非常に重要な工程となります。従来の粉砕は経験に基づいて行われており、長い場合は2時間以上手作業で粉砕を続けることもあります。自動で粉体を粉砕する機械も開発されていますが、材料科学実験で必要とされる数グラム程度の粉体粉砕や、粉砕のための力・速度・挙動など細かい条件の変更が困難である可能性があります。

以上の背景から、我々は材料科学に適した粉砕ロボットシステムを開発しました。

本研究では、乳棒と乳鉢の接触によるロボットへ過大な負荷を避けるための治具の開発や、効率的な粉砕を実現するための画像処理と動作へのフィードバックを提案しました。本手法を用いることでロボットの手先位置のみのシンプルな制御で粉体粉砕を実現できます。また視覚情報のフィードバックから粉砕または粉集めの動作を選択することで、粉体を効率的に粉砕することができます。

以下では、粉体粉砕に関わる2つの課題と本研究のアプローチについて解説します。

ロボットアームによる粉体粉砕

ロボットアームを用いて粉砕を行うには、乳棒と乳鉢の隙間にある粉の厚みに応じて適切な力で乳棒を動かす必要があります。乳棒が乳鉢に近すぎると接触による大きな力がロボットにかかり、ロボットの故障や道具の破損につながります。一方で乳棒が乳鉢から遠すぎると粉と乳棒が接触しないため粉砕が進みません。力制御により適切な力で粉体を粉砕することも可能ですが、専用のロボットやセンサが必要となります。そこで、本研究ではロボットの手先に柔らかいゲルを使うことで接触に伴う大きな力の発生を抑え、位置制御による粉体粉砕を実現しました。このゲルを使った機構をSoft jigと呼び、以下に図を示します。

上図のSoft jigは乳棒とロボットアームの手先の間に、左右均等に配置されたゲルが入っており、粉砕で生じる様々な力を吸収することでロボットへの過大な力の発生を抑え、スムーズな粉砕を実現しています。また、粉砕を続けると粉が乳鉢の周囲へと広がり粉砕の効率も下がるため、ロボットの手先には粉を中央に集めるためのシリコンのヘラも取り付けています。

視覚情報を用いた粉砕の効率化

Soft jigを用いることで粉砕動作は実現できますが、ロボットは乳鉢のどこを粉砕すればよいのかが分かりません。人が乳棒と乳鉢を用いて粉砕した場合を考えると、粉がどこに分布しているのかという視覚情報を主に活用して粉砕していると考えられます。そこでロボットでも同様の情報を活用するために、カメラで得た画像から粉が多く分布している場所を計算し、ロボットの粉砕動作に反映させました。

上図は粉砕時の画像と視覚フィードバックについて示したものです。ロボットは円を描く動作で粉砕を行い、粉はほぼ円形を保ちながら外側に広がりますがどうしても偏りが生じます。黒い円は粉とそれ以外を分けるように二値化した画像の粉部分の最大内接円であり、粉が密集しているエリアであると考えられます。青い円の内側がロボットの動作可能範囲であり、粉が密集したエリアの中心(赤点)が青い円よりも内側の場合は粉砕を続行し、外側の場合は粉が密集したエリアの粉砕が不可能であるため粉を集めるという動作選択によって、粉砕を効率化しています。

以上の視覚情報フィードバックの効果を確かめるために、粉砕結果の比較を行いました。本実験では塩を粉砕し1000μm, 500μm, 250μm, 100μm, 20μmの5つの目のふるいで大きさごとに粉を分け、各重さを測定しました。その結果が以下になります。

グラフの縦軸は累積重量分率であり、数値が高い場合はその粒子サイズ以下の大きさの粉が多いことを示しています。材料科学で重要となる250μm以下の粉の割合に注目すると、粉砕のみ行った赤のグラフは250μm以下の割合が57%であったのに対して、視覚フィードバックを取り入れた黄色のグラフは79%であるため、視覚フィードバックが粉体粉砕に効果的であることが確認されました。

まとめと今後の展望

本研究の貢献は以下の通りです。

  • Soft jigと視覚フィードバックを活用したロボット粉砕システムを開発した。これはロボットアームに乳棒と乳鉢を用いた初の試みである。
  • 位置制御で粉体粉砕を実現できる、柔らかいゲル用いたSoft jigを開発した。
  • 視覚情報のフィードバックを評価し粉砕効率の向上を確認した。

今後は、材料科学への活用を念頭に様々な種類の粉体の粉砕評価に取り組みたいと考えています。今後も材料科学へのロボット応用に向けて研究を続けていきます。

中島さんご解説ありがとうございました。OSXでは今後も自動化におけるニーズ・課題を抽出し、社会実装につなげる研究を進めていきたいと思います。

--

--