読者です 読者をやめる 読者になる 読者になる

最近の高専ロボコンに感動したブログ

高専ロボコン第30回大会も近いということで最近の高専ロボコンに感動した自分が満足できそうなデータベース構築のために情報を蓄積していくためのブログです。

都立産業技術高専荒川キャンパスB わんちゃん丸(ワンチャンマル)

 最近、ちょっと前の大会映像を見ることが多く、何かを思い起こさせるシーンが増えてきました。例えば2012年第25回大会「ベストペット」から蓄積していた技術を2015年第28回大会「輪花繚乱」で咲かせたと言ってもよいチームや、構成要素が殆ど一緒のように見えるロボットなどがありました。後日そのことについて書いてみようと思います。

試合内容

 初戦、2回戦 第2試合。木更津高専Bチームの「玉輪(タマリン)」との対戦。スタートさせると自動的にポールに輪を入れていく予定であったのだが、スタートゾーンから動けず、0対3で負けてしまった。動くところを見てみたかった。

都立産業技術高専荒川キャンパスB わんちゃん丸(ワンチャンマル) 画像URL

関東甲信越地区大会 出場校データチェック ページより

上記サイトの都合で画像が閲覧できないことがあります。

特徴

  • 移動システム:四輪メカナムホイール
  • 射出エネルギー源と格納方法1:圧縮空気(ペットボトル)
  • 射出装置1:エアシリンダ押出カタパルト(押出方)(汎用)x1
  • 照準/測位システム:Kinnect、測域センサーを併用し、検出した二本のポールとロボットとで三角測量を応用して測位し、照準にも利用。
  • 通信システム:未確認
  • コントローラー:なし
  • 操縦者:0名
  • 自律機能/自動機能:スタートさせると、全自動で、測位して位置を確かめながら予め入力しておいたルートを進み、ポールに自動的に輪を入れていく。
  • 妨害装置:なし

全自動

 わんちゃん丸は自己の位置と方向を推定するためにkinectと測域センサー(恐らくLIDAR)を併用しているようだ。想像でしかないが、kinect単体だけでは解決できない照明の光量を調節する問題、そして複数の物体までの測距を可能な限り簡単な構成で実現するために測域センサーを組み合わせたのではないか。kinect単体ではロボット正面にある物体までの距離情報を三次元的に捉えることは可能ではあるが、その情報だけではどちらを向いているのか判断できない状況が殆どであるため*1、ロボットの正面がスローゾーンのどちらを向いているのかを推定するのに測域センサーを併用しているのではないか。

 出来ることなら、Device Plusのロボット解剖計画のような企画でどういうシステムであったのか公開して欲しいところである。*2

参考:

news.mynavi.jp

*1:正面にある物体が、例えば右にいった、左にいったということを推定するのは簡単であるし、2012年第25回大会「ベストペット」に出場した小山のフレンドルフィンや鈴鹿のエンペラーで実現されている。

*2:交流会などでは明かされたことがあるのだろうか?