神経科学者はマイクロプロセッサを理解できるか?

脳研究者は、人間や動物など研究対象は違えども、脳の目的、目的達成のための手法、そしてその物理的実装に多かれ少なかれ興味があると思います。

そうした事柄を探りたい気持ちがある一方で、脳科学の世界はデータの量や精度の制約が厳しいことで知られています。そこで昨今流行りの"ビッグデータ"の登場が心待ちにされていました。この研究はそんな「ビッグデータさえあればなんとかなる」気分に一石を投じるもので、仮に十分にデータがあったとしても、既存の脳科学の分析手法では上記の知りたいことの殆どはわからないと主張しています。
journals.plos.org

具体的には、真の構造が完璧にわかっていて綺麗なデータを無限に取得できる「マイクロプロセッサ」を仮想の脳と考え、その機能を明らかにするために既存の脳科学の手法を適用しました。その結果、なんとほとんど何もわからなかったと。ちなみに「既存の脳科学の手法」として著者らが検証したのはシングルユニットを破壊したり、線形な相関関係を計算したりといった古典的な手法です。

(以下誤読があったので修正してます 19/02/02)

更に、これらのようなシングルユニットの解析に加えて非負行列分解のようなマルチユニットの次元削減手法も採用しています。すると、クロック状のコンポーネントや、Read-Writeに対応するコンポーネントのような、意味ありげな指標と相関するコンポーネントが抽出されてきて「なるほどマイクロプロセッサはこうした特性を持っているのか」と言いたくなりますが、では実際にそれらがマイクロプロセッサが処理している情報を表現しているかというとそうではない、と著者らは主張します。

筆者らが主張する処方箋としては、一つ一つの計算処理をうまい具合に分離するような実験系の構築や、マイクロプロセッサの特徴(階層性など)を捉えた理論をベースにした解析などが重要であると主張しています。個人的にもこの提案には賛成です。そもそもこれまでの神経科学者も、理論なしに闇雲にデータを探るような手法で全貌がわかるとは思っておらず、(たとえ"データドリブンな解析である"と主張していたとしても)暗に何かしらの理論を仮定したような解析を行っていたのではないかなと思いました。