市場情報と雑学と 〜明日使える知識を〜

某大手電気メーカーに勤める社内SE。マーケティング的なことも業務の中に入ってきているなかで有望な市場分析を発信していきます。また、導入してきたなかで便利な小物があれば紹介していきたいと思います。

自動運転に必要な技術とロードマップ

 

自動運転技術レベルとロードマップ



大企業のトップから「AIやIoT、自動運転で市場が広がる!製品を売ってこい」みたいな指示があります。

 

おそらく、指示を受けた大体の人は勝手に車が走る、ぐらいの認識ではないでしょうか。ここでは無茶振りをされた社員のために自動運転に絞って概要から技術、どのような需要が見込まれるか、どういう企業が開発をしているかNVIDIAパートナーを中心に説明します。

 

 

自動運転のレベルとロードマップ

米国の自動車技術者協会(SAE)が「自動運転化レベル」としてレベル0~レベル5までの6段階に区分けされたレベルをもとにシステムが介入する頻度を定義しています。

現状Lv2までの自動運転が実用化されており、2020年に限定地域での無人運転サービスを目標としています。基本的には都会より田舎、市街地より高速のほうがイレギュラーは少ないため実証は人が少ない地域で行われます。

自動運転の現在導入状況とレベル解説



出典:国土交通省

LV 概要 運転操作の主体
0 ドライバーが全ての運転操作を実行。 ドライバー
1 システムがアクセル・ブレーキ操作またはハンドル操作のどちらかを部分的に行う。 ドライバー
2 システムがアクセル・ブレーキ操作またはハンドル操作の両方を部分的に行う。 ドライバー
3 決められた条件下で、全ての運転操作を自動化。
ただし運転自動化システム作動中も、システムからの要請でドライバーはいつでも運転に戻れなければならない。
システム
(システム非作動の場合はドライバー)
4 決められた条件下で、全ての運転操作を自動化。 システム
(システム非作動の場合はドライバー)
5 条件なく、全ての運転操作を自動化。 システム

 

自動運転の仕組みと3つの重要技術

2000年代初頭から車のパーツはECUという電装装置により制御されるように変化してきました。エンジンやエアコン、ウィンドウに至るまで様々な電装制御がECUにより行われ、CANという車内ネットワークにより統合され車両が制御されています。

ECUの増加に比例して電子部品の必要数も爆発的に増加してきました。

現在の車体制御部品のほか、自動運転車にはカメラやセンサーなどが必要になります。カメラ・センサーから得た入力情報をAIが分析し最も良い行動をとる、ということが自動運転の仕組みとなります。

 

ではどのような情報をAIが処理するのでしょうか?変化点となる技術として、下記の3つが挙げられます。

1.位置情報検知

自動運転とGPSを利用した地図情報



車両の目的地、現在位置をGPSと車々間通信で誤差なく認識することが必要です。

GPSを利用した分野では地図を取り扱う企業が開発を行っております。

 

システム補助が介入するレベル3以上の自動運転では、従来の地図情報のほか事故・工事情報、標識情報、渋滞情報、駐車情報、燃料情報(ガソリン価格やEV用充電器の空き情報)、天候情報などを集積し車に渡します。

こうしたさまざまな情報を統合化した地図情報は「ダイナミックマップ」と呼ばれ日本では内閣府主導のもと官民連携して構築に取り組んでいます。

自動運転で地図情報を扱う企業

日本ではゼンリンIncrementPが代表的です。

世界で見るとhereTomTomなどが開発を行っています。

2.白線などのライン検知・社内外認識

自動運転でカメラが認識する物(車両・信号・人)



出典:NVIDIA

全方位カメラやセンサーから車・人・標識、中央分離線、レーン、標識、信号機などを検知します。

※2018年のGAN(敵対性ネットワーク)あたりから画像の深度を測るdeepthに風向きが変わっております。以前は2カメラによる差異分析が主流でしたが、近年はコスト低減のため単カメラの差分により物体検知する論文が多いと感じます。

 

自動運転に搭載されるカメラ・センサ・Lidar



2次元カメラは2.0Mpixel 30枚/秒と容量が大きくストレージについても搭載の必要があります。レーダー、ミリ波Lidar(光線)と言った機器が必要になります。

 

聞き慣れないLidarというのは物体に光線を当てて周辺の3次元地図を作成する装置です。カメラやレーダーと比べ新しい技術のため、悪路・風雨などの実証データが少ないという課題があります。物体の影となっている人物を透過することができるため自動運転車のほうが人間より安全と言われるキーパーツと言えます。

高解像度高価格のミラー式のものと低価格低解像度のミラーレスのものがあり国内ではミラーレスのものを開発し、2020年に工場向けを量産、2025年に車載向けを目指すのが多いようです。(車載の開発スパンは5年であり、2020年に間に合わないためと思われます。)

 

また、車内においてもドライバーの操作状況などをカメラが検知します。車内においてはよそ見運転の防止や緊急状態の確認に用いられます。

自動運転車のセンシング技術を開発する企業

ここでは、実際にセンシング技術を開発している企業を紹介します。

日本勢も続々参戦してきており、おそらくまだまだあるような気もしますが、有名所について説明していきます。

ベロダイン

米国のLider世界最大手。2005年に創業し、世界のLider市場を席巻。Liderの課題であるコストについても低減を勧めています。小型で取り付けが容易であり、昼夜を問わずリアルタイムに周りの情報を得ることができます。

 

ルミナー

米国のトヨタに認められたスタートアップ。既に採用が決定しており、次期トヨタの自動運転車に採用されます。ルミナーが開発している靴箱大のライダーは、Lidarの壁といえる200mを超えた248mを見通すことができます。

ただし、テスラには高コストであると判断されており、コストは課題と言えるでしょう。

Lidarの視野がどのようなものかを体験するにはルミナーのHPを見るのが一番だと思います。

 

セプトンテクノロジーズ

2016年にベロダインOBにより開業されたシリコンバレーのスタートアップ企業です。

回転部品や摩擦部品を必要としない構造で軽量でコンパクトな筐体を可能にし、さらに特殊なカスタム部品を使用していないため従来のLidarに比べて小型・低価格を実現しています。自動運転のほかドローン、農業、都市警備に経営戦略をたてており、長距離向け、広域向け、低価格帯、マッピング向けと用途別にラインナップされていることも特徴です。MEMSミラー方式を採用しています。

日本では小糸製作所とパートナーシップを結んでおり、サンプル提供をしています。

小糸製作所はヘッドライトを開発しており、小型のセプトン製Lidarをヘッドライトを組み合わせた製品を開発しています。)

 

SONY

CMOSカメラの知見を活かし、車載用全方位カメラの開発を進めています。

高速道路を走っているときに、街灯もないような暗いところを通行する。この時に感度を上げていけば、光が少ないところでも物体などの認識ができるが、そうするとノイズが増えてしまいます。

イメージセンサー半導体なので温度が上がるとノイズが増えてしまう。ところがクルマは言うまでもなくエンジンなどの熱などにより高温になってしまいます。ソニーS/N比などのパラメータを設定するためヤマハ発動機と協業し私有地での実証を進めています。

 

ソニーが沖縄で開発する「自動運転車」の正体
スマホが車に」映像技術モリモリの壮大計画

https://toyokeizai.net/articles/-/310191

日本電産(旧オムロンオートモーティブエレクトロニクス)

2019年11月から株式譲渡により日本電産に合併されたオムロンオートモーティブですが同社も3DLidarを開発しています。

2020年の量産を目処に開発を進めており周辺状況監視・前方監視用(150m)をラインナップしています。

 

パナソニック

自動運転の前方監視には200mの性能が要求されますが、パナソニックは現時点ではそこの需要は狙わず50mの広域Lidarで確実な人感を行えるようラインナップしています。主には工場の自動搬送機向けで2020年を目処に開発しており、2025年に自動車向け狭域200mを開発したい考えです。

同社は夜間でも250m先距離情報を画像化できるTOF(Time of Flight)方式の長距離画像センサーを発表しています。工場用のみならず車載用途に向けても開発を進めています。

視認性の悪い夜間で250m先の物体を検知

TOF方式長距離画像センサを開発
APD採用の25万画素で高解像度を実現

https://news.panasonic.com/jp/press/data/2018/06/jn180619-2/jn180619-2.html

 

パイオニアスマートセンシングイノベーションズ

前方遠距離監視・前方広域監視・周辺監視2種を2020年量産を目処にラインナップしています。2025年には前方距離を伸ばす・高解像度・低コストの3点に注目して開発を行っています。同社は現在のナビ事業と組み合わせたLidarによるロケーションマップの作成も行い自動運転用地図の作成に強みがあります。

地デジで扱ったデジタル信号処理技術を活かし、悪天候時の検出に優れています。

 

 

 

京セラ 

従来では難しかった画像センサとLidarを複合した製品をラインナップ。

カメラとLidarは解像度の差が大きく、有効なデータとして重ね合わせるためにはLidar側の解像度を上げる必要がありました。画像処理技術や独自の光学構成を採用することで高解像度のデータ作成に成功しています。

 

コニカミノルタ

TOF(Time of flight)方式を採用。光が戻ってくるまでの時間差により物体の3次元画像を取得(毎秒10フレーム)のリアルタイム測定が可能です。また、反射光の強度情報も取得できます。

独自のレーザー投受光技術と走査技術により、検出可能領域は水平画角最大120度の広画角を実現。垂直方向にも高い分解能を実現しており、垂直方向24ライン分を取得できます。遠方のスキャンでもライン間の隙間が生じない広域走査技術で、データの抜けがない高精度な測定が可能です。50m先の人物、車両(リフレクター)であれば100m先まで検知でき、最大検出距離は約200mの広範囲をカバーします。

Tier1メーカー各社

Tier1は総合的な開発環境を持っていることからどちらかと言うと総合プラットフォームとしての戦略を取っています。

 Continental

ドイツのTier1最大手。Lidarのほか、自動運転向けカメラやレーダーも作成しています。Tier1として統括的なパッケージを作成できることが強みです。

 

デンソー

1997年に世界で初めてのLidarを開発しています。ダイハツの前方衝突回避システムであるスマートアシストに採用されています。2020年度にはADAS分野で売上高2000億円、インフォメーション&セーフティシステム事業グループ全体で売上高1兆円を達成することを目標としています。

 

ボッシュ

大手Tier1メーカーの中では唯一Lidarのラインナップのなかったボッシュですが米スタートアップのTetraVue社へ1000万ドルの投資を完了したことで技術提携をはじめました。標準のCMOSセンサーを利用して光学的強度(depth)を探る「ライトスライサー」技術の特許を持っており、幅広い距離にわたり超高解像度のイメージを補足できるとのことです。

 

 

3.学習モデル作成までのシミュレーション

自動運転とAIの関係および学習方法



さて、ここまでセンサーに注力して記載してきましたが、実際にセンサーより得たデータはどのように処理されるのでしょうか。

自動運転学習に利用されるGPU

2000年代初頭までは、演算装置というとCPUを指し、インテルAMDが主導してマーケットを作ってきました。機械学習からディープラーニングに移行するにつれて演算方法は行列計算が高速に行える画像処理装置(GPU)が有効であることが判明します。

数学的には行列は多次元のベクトルとみなすことができます。センサーの入力をn次元のベクトルとして計算します。行列計算には並列処理が有効でプロセッサコア数が重要となります。CPUが32コア程度となっているのに対しGPUは4096コアと桁違いに多くなっています。

そこに目を付けたGPUトップメーカーのNvidia(エヌビディア)が自動運転向けのプラットフォームを開発します。

自動運転とGPUメーカーNvidiaの学習モデル



実車両から得られるセンサーデータと正解データをもとにトレーニングを行います。ここで運転に必要なモデルを作成します。

しかし、限定条件でのモデルはイレギュラーな対応な可能かどうかの実証ができません。そこで次に様々な環境を模したシミュレーションを行います。

サーバー上に仮想的に作られた環境でモデル性能を評価します。実際の運転と違い、高速化された世界の中で24時間、自動運転車は走り続けます。

こうして作られたモデルと、実際に走る車のセンサを処理するパーツを計算するGPUが車に搭載されるのです。

自動運転実用化に向けた課題

自動運転の課題



完全な自動運転は職業ドライバーを淘汰し、社会構造を変える可能性を大いに秘めていると思います。しかしながら商用販売においてはいくつかの課題があります。

法整備

レベル3の自動運転ではシステムの判断に対し、人的介入が必要となります。ここでの責任はメーカーにあるのか、人にあるのか。そこは議論のもとであり、実際はレベル3を飛ばしてレベル4自動運転が商用化されると見られています。

また、センサー類は自動運転車の命とも言えるのでメンテナンスについても法整備が必要になると筆者は考えます。

製造された自動運転車は国際的な輸出が行われることからこれらの定義は国ごとに定められるものではなく、国際的なルール作りが必要と考えます。

国内のみではないため迅速な決定は難しく、2025年まで、というのは難しいのでは無いでしょうか。

緊急避難の問題

俗にいうトロッコ問題です。AIが命の選択を迫れられる場面ではどのようにすれば良いか、責任はどこにあるのか、を定義できないことです。命を守るためにルールを曲げることは可能かとは思いますが、最小限に被害を抑える行動を行った際の求償はどうなるのでしょうか。

自動運転とトロッコ問題 AIに命の選択はできるか



(a) 線路を走っていたトロッコの制御が不能になった。このままでは前方で作業中だった5人が猛スピードのトロッコに避ける間もなく轢き殺されてしまう。

そしてA氏が以下の状況に置かれているものとする。

(1) この時たまたまA氏は線路の分岐器のすぐ側にいた。A氏がトロッコの進路を切り替えれば5人は確実に助かる。しかしその別路線でもB氏が1人で作業しており、5人の代わりにB氏がトロッコに轢かれて確実に死ぬ。A氏はトロッコを別路線に引き込むべきか?

消費電力

これはあまり注視されていませんが、GPUでは20W、Lidarでは200Wを使用する製品もあります。電装部品が増えることにより消費電力は爆発的に増加します。

65kWhのリーフを2時間運転すると自動運転装置だけでEV電池容量の2%程度を消費するのではないでしょうか。日本の発電外部依存度は95%と高く、増加する消費電力は大きな問題となると想定できます。EV化に伴う消費電力の増加も考慮すると決して無視できない数字ではないでしょうか。

 

自動運転車が持つ可能性

世界にある車の台数は2016年時点で13億2,421万台、生産台数は2017年に9,729万9千台となっています。保有数は年々増加すると見られます。

ここでは一般的に取られている自動運転による生活環境変化のほか、新しい可能性について考察します。

JAMA 日本自動車工業会 統計データ

http://www.jama.or.jp/world/world/index.html

車が持つ計算能力の爆発的な増加

f:id:ysky24:20191028084447p:plain

自動運転車が搭載するGPUにより車の計算能力というものが定義されます。搭載確実なNvidiaGPUは25TFLOPSの処理性能があります。これは25兆回を1秒で処理することを意味します。

仮に13億の車が現行のGPUを積んで全自動運転車に置き換わると30.25ゼタFLOPSとなります。これは2018年インターネットトラフィックの20万倍、2019年のスパコン1位の16万台分となります。(実際には自動運転搭載車はより少なく、GPUはより処理性能はあがるでしょうが)

画像保存用にストレージを搭載することを考えると、ネットワークに接続された車は将来的には分散型サーバーとしての役割を担う可能性は多いにあります。半導体需要は爆発的に増加することでしょう。

スマートグリッドへの参加

自動運転車のEV化に伴い、電力の売買需要というものが生まれます。これはすでにトヨタソフトバンクエナジーが協業して2017年より実証実験を初めています。

電力の受給を特定地域でおこない、V2Hと太陽光、蓄電システム、エコキュート等でブロックチェーンを用いて売買する仕組み(VPP:仮想発電所)です。

将来的には市町村、県、国レベルで需給調整が行われるのではないでしょうか。

 

V2H・蓄電システムについては過去記事を参照ください。

 

ysky24.hatenablog.com

 

さて、自動運転について現在の状況を記載してみましたが、いかがでしたでしょうか。

ほかにもこんな企業が開発しているよ。という情報があればコメント欄に記載お願いいたします。

 

くまねこは自動運転車の普及を応援しています。

 

にほんブログ村 投資ブログ 投資情報へ
にほんブログ村