AI、ソフト開発競争から半導体チップ開発競争の時代へ移行…日本勢の発展を阻む障害

©株式会社サイゾー

「Gettyimages」より

 機械学習、ディープラーニング(深層学習)が登場してAI(人工知能)に注目が集まっているが、AI産業はこれまでのソフトウエアをめぐる競争から、半導体チップの競争に時代は変わった。世界のAI産業はソフト処理よりも高速に処理を行い、かつ消費電力を下げるため、AI用半導体チップ開発に乗り出しており、日本勢もなんとか食らいついている。

●ソフトのプリファードネットワークスもAI半導体を開発

 日本でAIのトップ企業であるプリファードネットワークス(PFN)が、AIの学習用半導体チップを自社開発してサーバに搭載した。コンピュータラックにサーバを搭載し、いよいよ動作評価へと移る。また、国内のグラフィックスIPを手掛けるディジタルメディアプロフェッショナル(DMP)は推論用IPを販売して1年以上経つ。

 米国では、GoogleやNVIDIA、Xilinxなどに続き、IBMがAI専用チップを本格的に開発し始めた。これまでAIの学習用ハードウエアではNVIDIAのGPU(作画するためのグラフィックスプロセッサ)が適していたため使われてきたが、GPUだと消費電力が200~300W/チップと大きいため、AIに特化した半導体チップを設計しようというわけだ。PFNのチップの狙いも、実は電力効率を上げるためだ。

 IBMは自社だけではなく、サムスンやシノプシス、アプライドマテリアルズ、東京エレクトロンなどともパートナーシップを組み、エコシステムをつくり始めている。現在のAI、すなわちディープラーニングは、コンピュータに学習させ、その学習させた教師データと、AIを使う現場でのデータを比較して推論を行うというシステム構成が多い。

 IBMはこれまで、PowerアーキテクチャのCPUをベースにした機械学習マシン「ワトソン」を使い、AIビジネスを進めてきた。研究開発フェーズでは、ディープラーニングというより脳を模倣したニューロモルフィックなマシン「TrueNorth」を開発してきた。しかし、同社のエンジニアの証言によれば、TrueNorthは計算負荷の軽い推論のマシンであり、モバイルのような用途を狙っていたという。

●ワトソンからAIチップの開発へ

 ディープラーニングも脳の神経細胞をモデルにしたニューラルネットワークを使って学習・推論する技術である。ここでは、パーセプトロンモデル(1個の神経細胞を多入力・1出力の論理素子とみなすモデル)をベースにするが、これ以外の脳の働きをモデル化するアーキテクチャを一般にニューロモルフィックと呼ぶことが多い。ある意味、ディープラーニングもニューロモルフィックの一種であるが、これとは別に扱うのが一般的である。

 これまで、ディープラーニングはNVIDIAの独り舞台といわれてきた。学習マシンで商用化しているAIチップはNVIDIAのモノしかなかった。しかし、汎用のGPUをベースに開発しているため、AIマシンとしての最適化にはほど遠い。グラフィックスチップのレンダリング(色塗り工程)に積和演算器(MAC)を集積しているGPUをたまたま持っていたため、それをディープラーニング用のチップとして使い、高い評価を得ていた。だが、消費電力がとても高く、端末では使えなかった。昨年暮れにPFNが学習専用チップを「SEMICONジャパン」で発表していたが、それでも消費電力がまだ非常に大きく、最適化しているとはいえないほどだった。

 このため、AIチップは推論専用のチップやIPをさまざまな企業が開発してきた(表1)。手間のかかる学習用のチップには、NVIDIAのチップあるいはクラウドに保管している学習データを利用していた。

 こういった状況のなかで、IBMがさまざまな企業と組んでAIの学習チップを開発しようと発表したのである。ある元システム設計者は、「霞が関の役人はAIといえばソフトウエアのことしか頭にない。ディープラーニングにはハードウエアも必要なんだけどなあ」と嘆いていた。残念ながら、ハードウエアのカギとなる半導体設計のことがわかる官僚が今はいないようだ。

 さまざまな企業から発表される新製品AIチップやIPには、推論機能が圧倒的に多い。消費電力が少なくてすみ、クラウドのデータセンタではなく端末やエッジで使おうとするからだ。市場規模がエッジは圧倒的に大きいため、NVIDIAでさえ、データセンタだけではなく、エッジ応用も狙っている。エッジ応用の推論チップだけではなく、AI用のIPも入手できるようになっている。

●学習チップでイニシアチブをとる

 こうしたなか、IBMは学習用のチップを狙っている。AIチップの基本デザインは、MACとメモリをセットにしている。MACは積和演算(掛け算した結果を加算していく計算)用の回路であり、掛け算は神経細胞に入力されるデータとそのデータがどれだけ重要かという重みを掛けるのに使う(図1)。1個の神経は多入力・1出力だから、1入力の掛け算結果を足していかなければならない。そして、すべての入力を足した結果を神経細胞に入力し、1か0を出力する。この神経細胞が100億個以上内蔵されているのが人間の頭脳であるから、頭脳を模倣するなら、この積和演算回路を大量に用意しなければならない。

 そして1個の神経細胞から出力されたデータは次の細胞へ入力されるわけだが、その前にその神経細胞の出力結果をメモリに記録しておく必要がある。また、同時に別の神経細胞からも同じような演算をした出力データが入ってくる。この結果もメモリに記録しておく。

 つまり、ニューラルネットワークモデルで使われる演算処理は、MAC演算とメモリをセットにして、大量に並列に動作させていく。そして、その結果を次のレイヤーでも同様に大量に動作させる。こういったモデルに使うメモリにはDRAMやSRAMを使ってきた。これらのメモリしか市販されていないからだ。フラッシュメモリは頻繁に書き換えられないため、このメモリには適さない。

●AI向けの不揮発性メモリも開発

 IBMのAIチップの目的は、小さな消費電力で大量のMAC演算とメモリでのデータの頻繁な書き換えができることだ。となると、頻繁に書き換えられるRAM動作の不揮発性メモリが必要とされることになる。IBMはこの不揮発性RAMの候補としてPC(相変化)RAMを挙げているが、このためには新しい材料開発が必要となる。メモリに強いサムスンと、製造装置と材料に強いアプライドマテリアルズと東京エレクトロンをエコシステムに参加させたのは、PCRAM用の新材料開発のためだ。

 国内では、東京大学が産業技術総合研究所と協力して、AIチップを設計開発するための設計センターを東大本郷の武田先端知ビルに設置した。ここには、大学で設計した半導体ICを試作するための組織VDECがあり、VDECの設備も使う。

 起業したばかりのベンチャーや中小企業がこの施設を使えるようにするため、IC設計ツールを使えるだけではなく、シミュレータやハードウエアを検証するエミュレータまで揃えている。特に論理エミュレータはデジタルLSIの論理の正当性を検証する巨大なコンピュータのようなもので、23億ゲートのロジックを4MHzのエミュレーション速度で実行するというもの。

●デザインハウスは半導体設計を手助け

 ただし、IC設計言語であるVHDLやVerilogを習得しなければ設計できない。大学ではもちろんIC設計言語の習得も教育活動の一環であるから、大学関係のAI開発者はそれらの言語の習得も求められる。しかし、AIのアルゴリズムやシステム設計者にとって、LSI設計言語を習得することは容易ではない。むしろAIアルゴリズムやもっと高速なAI回路の設計に専念したいはず。だったら、LSI設計言語で論理設計を行う請負業者の「デザインハウス」を利用すればよい。

 ところがデザインハウスは、AIチップ用の設計ツールを使うことができないかもしれないという。大学側は設計ツールをアカデミックディスカウントで安く手に入れたために、一般の企業には使わせないかもしれないというのだ。これでは、AI開発者がAIチップの設計をデザインハウスに依頼することが難しくなってしまう。あまり狭い考えで利用者を縛り付けると、利用者は離れていかざるを得ない。そうなると宝の持ち腐れになってしまう。ここは、むしろ大きく構えて、エコシステム構築を最優先して広げていかなければ、“世界に勝てない組織”から脱皮できなくなる恐れがある。
(文=津田建二/国際技術ジャーナリスト)