冷ややか目線と期待、「ソニー・ホンダ」が貫く我流 1年の取り組みで見えた実験場としてのクルマ
川西社長がCESの発表会で使った資料には、4つの大きなSoC(システム・オン・チップ)ブロックが掲載され、そのうち2つがADASに振り分けられているように見えた。
発表時の講演ではサラリと流したが、「資料に盛り込んだ処理ブロックは、見る人が見てくれればという想いでしたが、それぞれが独立した高性能のSoCであることをイメージしています」と川西社長。
ADAS向けだけでも、業界トップクラスの能力を持つSoCが2つ使われる。45個のセンサーが同時に並行して読み取っている膨大な情報を受け止めるためだ。
「AFEELAは当初から、高速道路など特定条件下での自動運転機能である“レベル 3”のADASを実現し、それ以外の市街地などでも運転支援機能としては最高クラスの”レベル 2+”を実現することを前提に開発してきました。そのために必要な資源は徹底して投入しています」(川西社長)
状況識別にAIの機械学習を活用
周囲の状況を判別し、どのように運転するかについて、当初はセンサーからの情報を基に”ルール”で判別する手法を用いていたが、いくら多くのセンサーを使っても、明るさや光源の方向、天候や路面状況、路肩やレーンを示す特徴などは、想定条件から逸脱することは避けられない。
そこでAFEELAには、ニューラルネットワーク処理を強化した半導体を搭載し、機械学習を進めることで状況を識別する精度を上げていくようだ。
雑多な情報を有益な情報へと変えることは、機械学習処理が最も得意とする応用領域だ。ルールベースでは、情報過多が誤動作を引き出すことも少なくないため、テスラのようにイメージセンサーだけに絞るほうがよい結果を得やすいこともある。しかしAI処理ならば、センサーからの情報は多ければ多いほど高い精度が得られる。
無料会員登録はこちら
ログインはこちら