
フィクションの世界ではおなじみでも、現実には解決すべき課題が山積みともいわれる完全自動運転。その開発に挑むテスラ社の最新機能に関する映像がネットをにぎわせている。
映像は、完全自動運転の実現のために段階的に開発中の自動運転機能「オートパイロット」の視界をそのまま示しているという。
まるでターミネーターになった気分だが、画像認識のデモとおぼしきこの映像からは、視界に入ったあらゆる情報から運転にまつわるすべてを素早く処理・判断して走行する車の様子がうかがえる。
【自動運転機能オートパイロットの視界】
こちららはテスラ社が求人募集ページで公開中の最新機能、オートパイロット(Autopilot)に関する映像だ。
What unreleased FSD Autopilot sees. Straight from Tesla Autopilot recruiting website. pic.twitter.com/EaI5DzKbYs
— The Tesla Show (@TheTeslaShow) January 31, 2020
未発表の完全自動運転ソフトウエアFSD(Full Self Driving)の一部とみられる映像は、自動運転中のオートパイロットの視界をそのまま示している。
前方のトラックや停止線ストップサインなどを認識
[画像を見る]
車線や物や人、停止車両や道路の境界も識別
[画像を見る]
道路を横切る車の速度や車までの距離もみているようだ
[画像を見る]
走行中も目の前の車や人や物などをマークすると同時に、刻々と変わる交通状況に判断を下すオートパイロット。
テスラ社はオートパイロットの知覚から制御にかかわるディープニューラルネットワークのトレーニングに最先端の研究を応用している。
【ニューラルネットワークによる画像認識機能】
なお、完全自動運転の達成の一助となるオートパイロットのさらなる開発について、テスラ社は以下のようなビジョンや計画を掲げている。
カメラのネットワークが直接画像を分析、そこに映ったひとかたまりの像ごとではなく、その画素一つひとつをラベリングして分類しカテゴリを関連付ける画像認識や物体検出のほか、単眼カメラでとらえた画像から物体までの距離を推定する深度推定の実行。
Birds-eye-view(鳥の視界)と呼ばれる俯瞰ネットワークが、すべてのカメラの映像を取り込み、道路のレイアウトや静的インフラストラクチャ、および立体的な物体を俯瞰のままで出力。
世界で最も複雑かつ多様なシナリオを学習したこれらのネットワークは、およそ100万台の車からリアルタイムの反復的な供給を受ける。
オートパイロットのニューラルネットワークの完全構築には、画像処理に特化した半導体チップGPUによるトレーニングで70,000時間を費やす48ものネットワークが含まれる。それらのネットワークは各時間ごとに1,000通りの異なる予測を出力する。
人間の運転よりも安全性が高いとされる完全自動運転に向け、さまざまな先端技術の開発を続けるテスラ社。その目標が現実になった時、人間はあらゆる運転リスクから解放されることになるのだろうか?
References:boingboingなど /written by D/ edited by parumo
記事全文はこちら:完全自動運転車はどのようにまわりを見ているのか?その視界をターミネーター感覚で見ることができる動画 http://karapaia.com/archives/52287433.html