コネクトの命運を握るコンピュータ革命 ―前編―


日立製作所・柏山氏インタビュー

車のコネクティビティや自動運転技術の発展に、コンピュータの進化は切り離せない。日立製作所産業・流通ビジネスユニットモビリティ&マニュファクチャリング本部のビジネス推進センタ長で、モバイルコンピューティング推進コンソーシアムでAI&ロボット副委員長を務める柏山正守氏に、コネクテッド関連技術の変化や近年のトレンドなどについて話を伺った。

Date:2018/03/07

Text & Photo:ReVision Auto&Mobility編集部

聞き手:友成匡秀

 

コネクテッドは10年でどう変わったのか

――市場ではコネクテッドカーに対する関心が高まっています。

柏山氏: 何を持ってコネクテッドカーというか、その定義は難しいところですが、現状、コネクテッドカーと呼べるのはほんの一部です。ほとんどのメーカーはコネクテッドのための基盤を持っていません。ただ、トヨタさんが2016年11月にコネクテッド戦略を発表されましたよね。車に関わる様々な価値をつなげていこうという動きです。コネクテッドカンパニーを統括する友山茂樹専務(当時)が語られた理念は説得力があり、それを受けて「トヨタがやるなら、我々も」という機運が高まりましたから、いままさに基盤作りを加速させていると思います。

 日産自動車「リーフ」に搭載されているコネクテッド基盤は実証実験段階も含めると約10年前の技術ですが、いま考えてもかなり先進的だと言えます。もちろん開発当時の構想のすべてを実現できているわけではありません。しかし、コネクテッドやデータ活用に関するコンセプトは今も十分に通用するものです。たとえば、リーフには通信モジュールTCU(Telematics Control Unit)が搭載されているので、車両からダイレクトに通信キャリアのネットワーク網に入ることが可能です。通信方式は4GやLTEなどですが、将来的には5Gに移行するでしょう。

日立製作所 柏山正守氏

――約10年前にコネクテッド基盤を開発されたころと、現在で違っていることはありますか。

柏山氏: 当時は"クラウド"という言葉もなかったんですよ。我々が構想したコネクテッドは車両とサーバーのデータセンターをつなぐというもの。現代に置き換えればデータセンターがクラウドで、車両がIoTのthingですね。用語だけでなく、ファンクションが増えたり、サービスレベルが上がったりといった変化もありますが、根幹的な構成は何も変わっていません。

――コネクテッドにまつわる課題についてはいかがでしょうか。

柏山氏: 自動車メーカーはクルマ中心に物事を考えます。コネクテッドと言いながらも、やはりクルマを作ることが優先なんです。我々コンピュータ業界の人間はあるデバイスをネットワークに組み入れれば、その全体をシステムとして捉えます。だから、コネクテッドシステムいえば車内のシステムを指すのではなく、社会という大きなシステムを指し、クルマはそのなかのノードの一つとして捉えるわけです。そんな考え方の違いは実感してきました。

 スマートフォンにたとえてみましょう。スマホはデバイスですが、システムの一部として考えることもできます。スマホにはOSがあり、アプリケーションが動き、クラウドにつながりますよね。スマホからはあらゆる情報がクラウドに上がっていますから、地図アプリを立ち上げると、すぐに現在地が表示され、道案内をしてもらえるわけです。しかも、過去の行動履歴も記録されていたりします。コネクテッドカーになれば、スマホと同じことができるわけです。

CO2排出量管理が個別車両ベースに

――なるほど、分かりやすいですね。一方で、クルマでしかできないコネクテッドサービスというものがあるのではないかと思うのですが。

柏山氏: エミッションの管理、なかでもCO2のテレメトリ(遠隔測定法)システムが注目されるのではないかと思います。CO2排出規制に関しては欧州や米国カリフォルニア州が特に熱心ですよね。日本の場合は発売前にCO2排出量を計測してカタログに記載していますが、将来は個々の車両のCO2排出量を管理するようになるかもしれません。コネクテッド基盤とテレメトリシステムが整備されていけば、容易に個々の車両データを収集することが可能だからです。

 コネクテッド基盤がプラットフォームとして整備されれば、エミッション以外にもさまざまなデータ活用案が出てくると思います。そのためにも、まずはコネクテッドカーに対する見方を変える必要があります。最近になってようやくクルマをモノではなくシステムとして捉える人が増えてきました。2014年くらいからセミナーなどで「コネクテッドからデータ活用へ」「これからはシステム・オブ・システム(複数のシステムが1つのシステムとして機能すること)」だと言い続けてきたことが、ようやく実りつつあると思っています(笑)。

――データ活用の重要性は自動車メーカーも気づいていますよね。

柏山氏: そうでしょうね。ハンドルやブレーキのデータから運転者の使用状況が分かりますし、エンジンの状態やシャーシーのひずみなどのデータがあれば、車両開発や生産、アフターサービスにも生かせそうです。現状ではまだお客さんが違和感を持つポイントのデータが十分に拾えていません。

 個人的には三つのストリームに注目しています。一つはコネクテッド基盤とデータ活用。二つ目は技術進化のロードマップと、そのあとに決めるルール。そして三つ目は自らのドメイン。自社の事業やビジネスをどう考えていくのか、いつころどのような製品を開発して、市場に投ずるのかといったことです。

 これらを個別ではなく、トータルで考えることのできる人材が必要ですが、おそらくいないでしょうね。なぜなら個別のことをやらせ過ぎているからです。日本人はオーバーオールで横串を通すのが好きですが、分野に捉われず、広い視野で社会と社会の変化を捉えて、変化に対応するためにはいまこうすべきという見立てができる目利きはいません。そのあたりはコンサルティングに任せがちですが、残念ながらコンサルタントは最先端の実務経験を持っている人がいないんですよね。

機械学習に必要なデータの質と量

――今後、コネクテッドカーの進展に伴い、取り扱うデータ量は爆発的に増えると考えられます。通信インフラや機器類に及ぶ負荷は相当なものになるのではないでしょうか。

柏山氏: データ量が膨大になるのはカメラセンサーの進化によるところが大きいですね。スマートフォンで考えてみましょう。2007年にiPhoneが登場したときのカメラは200万画素でしたが、その後の10年間で技術が飛躍的に進化し、昨年発売のiPhone8は1200万画素です。

 これほどカメラの性能が上がり、画素数が増えれば、当然のことながら画像データ量は膨大になります。しかも、静止画ではなく動画なら、通信の負荷はさらに大きく、通信コストも莫大です。そこにかかるコストは一体誰が負担するのでしょうか。そこがクリアになるまでは広く一般車両からデータを集めることは難しいでしょう。しかし、データは量を集めることに意味があって、ある海外サプライヤはひたすらデータ収集をしていると聞きました。

――インプットするデータの量を増やすことで、アウトプットの質が高まるということでしょうか。

柏山氏: そうです。自動運転の開発に直接かかわっていない立場で偉そうなことは言えませんが、確実に言えることは、画像認識の精度向上には"経験"が重要だということです。ある実験で阪急電車の識別に挑戦することになり、鉄道マニアに写真を撮ってもらったところ、どれもこれもカッコいい写真でしたが、結果はさっぱりだったそうです。実際の電車の走行シーンは雨天だったり、日陰だったり、中途半端な角度から見ていたり、多様ですから、いろいろなシーンの画像データを学習させないと認識率は向上しないのです。

 クルマでも同様で、どんどん走らせて、あらゆるシーンを経験させないと、学習の質は向上しません。とはいえ、画像データが増えれば処理にかかる負荷も増大し、そこから特徴量を抽出してアルゴリズムを作り込む作業も大変さを増します。だからこそ、コネクテッド基盤やデータ処理プロセスを進化させていかなければなりません。

 また、OEM各社が収集したデータは共有化が理想です。もちろん他社との差別化のために譲れない部分もあるでしょうが、共有できるデータはコネクテッド基盤を通して融通し合えるほうが社会的な意義は大きい。他社と共有化したくないデータについては別のコネクテッド基盤を介して収集することになると思います。

――将来的にはAI(人工知能)もここに入ってくることになるんですよね。

柏山氏: いまのところはAIというより機械学習ですね。近年は機械学習の使い勝手が良くなり、それなりの結果も出せるので、いろいろなところで使われ始めています。その先はディープ・ニューラルネットワーク(Deep Neural Network、DNN)とディープラーニング(深層学習)。システムにはさらなる処理能力が要求されます。

科学ではなく工学で進化するAIの実情

――DNNとディープラーニングは同じではないのですか。

柏山氏:  DNNを用いた学習がディープラーニングです。もっと言えば、AIの一要素が機械学習で、機械学習の一要素がディープラーニングです。

 AIにはいろいろなアルゴリズムがあるのですが、新しい解き方が必要なケースがすでに出てきています。そのひとつがビッグデータの処理。ディープラーニングはシーケンシャルアクセス(データベースの先頭から順番に連続してアクセスする方式)で処理できるデンス(高密度)のデータの処理に向くと言われています。一方、ビッグデータには関連付けすべきデータが離れた場所にある離散系というものがあり、この場合はシーケンシャルアクセスではなく、ランダムアクセスで解かなければならない。ここがディープラーニングの弱点なんです。アメリカ国防高等研究計画局DARPA(ダーパ)はHIVE(ハイブ)というプロジェクトに出資し、新しいメモリアクセスを実現する高効率プロセッサの開発に挑戦していますよね。

 そもそもDNNは"ディープ(深層)"と言うくらいですから、多層化して性能を上げていくのですが、多層にすればするほど、処理能力への要求水準が高くなります。スーパーコンピュータ(スパコン)でAIを動かす場合は100層ぐらいまで重ねていますが、これが限界でしょうね。

――ディープラーニングという技術はかなり成熟してきていると考えて良いのでしょうか。

柏山氏: 順を追うと、まずはニューラルネット(NN)があり、そのあとにディープラーニング、そしてDNNが出てきました。このブレイクスルーによって、ディープラーニングのアルゴリズムは三つの流派に分かれます。一つはリカレント・ニューラルネットワーク(Recurrent Neural Network、RNN)。文章系に強く、翻訳や作文、未来予測などへの活用が期待されています。二つ目はオートエンコーダ(Autoencoder、AE)。画像のノイズ除去に有効とされます。そして最後が自動運転でも話題になるコンボルーション・ニューラルネットワーク(Convolutional Neural Network、CNN)。日本語では畳み込みニューラルネットとも呼ばれます。

 世界中の企業や研究者がより良いアルゴリズムを開発しようと取り組んでいますが、興味深いのは必ずしも科学的根拠を持っていないことです。テクノロジーとしてはアルゴリズムの改良で結果を出せることもありますが、科学的根拠に基づく進化ではなく、試行錯誤を重ねているだけにしか見えません。

――どういう意味でしょうか。

柏山氏: 学習方法や並列化、特徴点の抽出などのアルゴリズムを改良すれば、それなりに処理速度は増します。結果が出せれば都合が良いですから、誰もがこの領域に力を入れるわけです。根底にある理論を進化させているのではなく、今あるアルゴリズムを改良して結果を出している。これがAIの現状です。


(2018/03/14公開の後編に続く)

コメントを残す