カギは「LLM」、完全自動運転を目指す大実験の中身 半導体チップも自前で開発するTuringの挑戦

著者フォロー
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小

ただ、これらの手法では完全自動運転を目指すうえで限界があった。

TuringでAI開発全般のマネジメントを行う山口祐氏は「従来の手法でも9割程度は実現できるが、道路では子供の飛び出しや、見たことないような標識などが当然のようにいろんなところで出てくる」と話す。

完全自動運転では、このような稀なケースにも完璧に対応しないといけない。視覚情報だけでの対処には限界があり、人間が普段運転しているときに頭で考えるような、幅の広い認知・思考能力などが必要になるという。

そこでTuringが考えたのが、LLMの活用だった。

Turingでは、まず言語を理解するLLMから画像や音声なども認識するマルチモーダルへ、そして空間把握や身体性を認識するAIを経て、完全自動運転AIへの発展を目指す。

難しい場面でも人間に近い選択が可能

Turingは昨年、OpenAIのLLM「GPT-3.5 Turbo」を使って車を制御する実験に取り組んだ。

例えば車のカメラが前方の状況を撮影し、ドライバーが「○○してください」などと話すと、それを音声認識技術でテキストに起こしてGPT-3.5 Turboに渡す。GPT-3.5 Turboは、撮影された画像やテキストの情報に基づいて、目的地までの経路などに関するパスを出し、計算する。

TuringのLLMを活用した自動運転の実験の様子
LLMを用いて行った実験の様子(写真:Turing)

この実験では赤色、青色、黄色のカラーコーンを設置して、「バナナと同じ色のコーンに行って」と抽象的な命令を出しても、正解を選ぶことができた。

また、トロッコ問題のようにどの進行方向を選んでも犠牲者が出てしまうような場面では「どっちに行ってもけがをするので、一旦停止します」と動かない状態になった。

複雑な状況を解釈できるマルチモーダル生成AIや高速な半導体、車体制御まで行える自動運転AIシステムなどがそろえば、将来的にはこのような倫理的な判断もできるようになる。

「われわれ人間は、運転中に稀なシチュエーションに遭遇しても、運転していないときに学習した経験などを応用して対応できる。それと同じ対応を目指すには、非常に広範な知識や常識のようなもの、さらに思考能力が必要になってくる」(山口氏)

関連記事
トピックボードAD
自動車最前線の人気記事