脳型コンピュータ
(基礎編)


人間の脳は最も大きなくくりでは3つのグループに分かれます。1つ目は呼吸や心拍、本能や感情と言った人間以外の動物と共通する機能を担当する、脳幹や大脳辺縁系、大脳基底核と言った脳深部にある神経核や旧皮質がこれに相当します。2つ目のグループは自転車の乗り方や母国語など一度身に付けるとほぼ一生消えない記憶を蓄えている部位で、後頭部と脊椎の間にある小脳がこれに当たります。3つ目は人間の知能を司る部分でこれは脳表面のたった2ミリから5ミリの皮のような細胞層から出来ているのですが、ここを大脳皮質と呼びます。以後は単純に脳といった場合には、この知能を司る大脳皮質を示します。

ヒトの脳(大脳皮質)の中には計算素子であるニューロンが数百億(10^10)個あると言われています。またそれぞれのニューロンは別のニューロンとシナプスと呼ばれる構造で神経接続されていますが、その数は一つのニューロンにつき10,000個以上と言われています。シナプスでは神経伝達物質と呼ばれるシグナル分子を送り手側のニューロンが放出し、受け手側のニューロンがその分子を検出して神経パルスを出す事で信号が伝播していきます。信号の伝播のし易さは様々な要因によって決まっていますが、例えば送り手側と受け手側のシナプス同士が近接している面積だったり、受け手側でシグナルを受信するタンパク質(受容体)の量によって信号の伝達効率が調節されています。このニューロン同士の繋ぎ目部分で信号が伝播するかしないかという事が決まっており、言わば回路上のスイッチのような役割を果たします。スイッチする素子は0と1を表現する事が出来るので1ビットを記憶する回路であるという事も出来ます。シナプスを最も単純に1ビットの記憶素子として考えると、ヒトの脳の記憶容量は10TB程度になります。2016年時点で10TBのハードディスクは7万円で買えてしまうので、個人のデスクトップ環境でも既に人間の脳と同じくらいの記憶容量があると言えるのかも知れません。

しかしながら2016年現在のIntelのCPUと10TBのハードディスクで、すぐに人間の脳と同じ性能の計算機が作れるのかと言えば、話はそんな単純ではありません。例えばIntel CPUの中でPCで最も普及しているCore-i7は8個のコアプロセッサーを搭載しています。脳は一つ一つのニューロンがコアプロセッサのようなものなので、百億コアのCPUという言い方も出来ます。ただ当然ニューロンが行っている演算はパソコンのCPUよりもずっと単純なものです。脳はCPUのような少数の複雑な演算器から構成されたアーキテクチャではなく、単純な計算を行う演算器が膨大な数集まった構成を取っています。どちらかと言えば画像のピクセル計算(単純な足し算や掛け算)を行うシンプルな演算器を膨大な数連ねた画像処理ユニット(GPU)のアーキテクチャに近いものです。しかし2016年のGPUの最新モデルでもコア数は6000個程度なので脳の数百億には到底及びません。

CPUやGPUのような半導体デバイスを使って脳と同程度の計算容量を生み出すためには、個々のニューロンやシナプスのモジュールを出来るだけ小さい回路で作製して高密度にデバイスを配置する必要があります。近年のSolid State Drive(SSD)メモリは磁気ディスクに情報を記録するハードディスクドライブ(HDD)に迫る勢いで記録容量を伸ばしています。2015年の時点で10TBのSSDの価格帯は200万円程度とHDDの20倍以上するものの、今後も技術の進歩に伴って価格は下落していく事でしょう。先にも述べたように大脳皮質のシナプスの数は一番少なく見積もっても10TB分あるので、ニューロンやシナプスデバイスの集積度としては現行最新のSSD程度という事になります。ちなみに実際の脳では1個のニューロンは1万個程度のシナプスを持っているので、脳型コンピュータもニューロンよりもシナプスの数の方が圧倒的に多くなります。ですので実際にはニューロチップと呼ぶよりシナプスチップと呼んだ方が正確です。

さて、この記事を読んでいる人の中にはニューロンやシナプスと言った細胞膜やタンパク質などの生体材料から出来ている構造や機能を、どうやって半導体デバイスで実現するのかという根本的な疑問をお持ちの方もいるかも知れません。実はこの問題は1963年、ホジキンとハクスレーという2人のイギリスの生理学者達に与えられたノーベル生理学賞の業績にまで遡ります。ニューロンの電気信号は細胞膜を通過するイオンの流入/流出量によって決まっています。ホジキンとハクスレーはヤリイカの神経細胞を用いて、特定のタンパク質のチャネル(穴)を通して細胞膜を通過するイオンの量を厳密に測定しました。そしてナトリウムイオンやカリウムイオンの透過量と細胞膜にかかる微小な電圧との関係をホジキン・ハクスレー方程式という微分方程式によって書き表しました。ちなみにシナプスの微小電圧もこの方程式の拡張で記述する事が可能です。

細胞膜の微小電圧はニューロンやシナプスで発生する電気パルスの元になっているものです。この神経パルスを数式で表せるという事は、抵抗やコイル、トランジスタなどの電子部品を組み合わせてニューロンやシナプスの電気的特性を模倣したアナログ回路が組めるという事を意味します。こうした発想を元に1980年代にカルフォルニア工科大学のカーバ・ミードという計算機科学者が神経模倣アーキテクチャの分野を開拓しました。今日では彼の孫弟子にあたる研究者達がIBMのニューロチップ開発の中心的な役割を果たしており、TrueNorthなどの脳型アーキテクチャとして結実しています。

脳型コンピュータ(アーキテクチャ編)