研究

脳の理解と理論と仮説

以前に自分も記事を書いた論文について解説している記事が界隈で話題になっていました。プロの編集者と研究者の共同の記事で、とてもわかりやすく元論文について説明してくれています。自分でも改めて元論文を読んでみたのですが、自分が以前に読んだ時に勘…

「自由エネルギー原理は脳について何を教えてくれるのか?」

脳の統一理論?認知神経科学界隈でよく知られている理論の一つに、英国UCLのKarl Fristonが提唱している「自由エネルギー原理」というものがあります。ネットで検索すると日本語でも英語でも膨大な説明資料が出てくるわけですが、たとえば以下のようなスライ…

オックスフォードの計算論的神経科学系Podcast事情と自分の好み

オックスフォードの計算論的神経科学コミュニティで話題になるpodcast僕はこれまで神経科学や機械学習のPodcastはあまり聴いてこなかったのですが、そもそも日本語コンテンツが少ないというのもあります。ただ、英語だと面白いコンテンツがいくつかあるよう…

操作変数法と強化学習と経済学理論

久しぶりに経済関連の本でも読むかと思って手に取った本。「イノベーターのジレンマ」の経済学的解明作者: 伊神満出版社/メーカー: 日経BP社発売日: 2018/05/24メディア: 単行本この商品を含むブログ (3件) を見る著者の研究感についての内容が多く少し期待…

終末期医療とScienceと落合・古市対談

bunshun.jp上の記事を発端に終末期医療にかかるコストが話題になっていましたが、これを読んで自分は、ちょうど昨年の中旬に以下のような論文がScienceに出版されていたのを思い出しました。science.sciencemag.orgこの論文では冒頭で、まさに落合氏や古市氏…

情報の抽象化とOFC

現実世界の情報の次元は基本的に無限大で、細かく見ればいくらでも細かく見れます。そんな状態で処理するのは人間どころか機械でも無理なので、人間も機械も、何かしらの情報の取捨削減を日常的に行っています。そうした情報の取捨削減方法には色々あり、も…

現代的な脳解析をどう勉強するか

ここ数年、脳画像業界ではデータ公開やコード共有が大きく進みました。これにはインフラの整備や数々の巨大予算がついたプロジェクト、など様々な要因が寄与していますが、データ共有が重要であるという意識の共有やデータサイエンスの大流行も大きな要因か…

脳活動エンコーディングとTikhonov回帰とリッジ回帰

最近読んだ論文の中で一番面白かったです。www.biorxiv.org

機械学習で77の回帰モデルを83のデータセットに適用して性能を比較

「モデルの種類多すぎてなに使えばいいのかわからない」問題は機械学習応用であるあるの問題だと思います。 よくある方針は ・どんなデータセットにも万能なモデルは存在しない ・線形、非線形、スパース、ニューラル、アンサンブル、、、などの異なる特徴を…

統計学と機械学習の違い?なにを勉強すればいい?

「人工知能と機械学習と統計学とデータサイエンスは何が違うのか」 みたいな疑問をよく聞きます。統計のモデルと機械学習のモデル、どう使い分ければよいのか - Qiitaそういう疑問に答えようとする上のQiitaの記事は、個人的には相当にモヤモヤするものの、…

百を超える選択肢に直面した際の人間の戦略

Neural Processesの記事でも書きましたが、人が未知の環境に置かれた際、どうやって環境を効率的かつ正確に把握しているかは認知科学だけではなく人工知能の問題としても重要な問題です。この論文では、100以上の選択肢からどうやって人間が正解(最も価値が…

脳の感受性が高い人ほど見慣れない出来事に柔軟に対応できる?

オックスフォードの研究室で毎週やっている論文紹介が丁度自分のターンだったので、この論文を紹介しました。英語で発表するのはいつまで経っても緊張します…。 www.nature.com要約はいつもわかりやすい解説を日本語で掲載してくださっている理研の公式プレ…

Latent Factor Analysis via Dynamical Systems (LFADS)をchainerで実装した。

やったことGoogle BrainのDavid Sussilloらが先日Nature Methodsに出版したLFADSをchainerで実装しました。 GitHub - yu-takagi/chainer_lfads: Implementation of LFADS with chainer 公式の実装が既にこちらにあるのでそれを参考にしました。二つのpython…

複雑な行動系列の学習は誤差逆伝播的に行われない

来週締め切りの国際会議に提出する論文の準備が忙しすぎて完全にBlogを放置していました。目論見としてはこちらに来てからの仕事のうち2つ(それぞれ人間と動物の実験データ解析)を出す予定でした。が、動物の方の結果がまだ微妙、かつそもそも規定上二重…

ChainerでNeural Processesを実装した

Neural Processes人間は新しい環境におかれた時、その環境を理解しようとがんばります。正確に全体を理解したい一方で、時間は有限なので、なるべく効率的に情報を収集して環境の予測を更新していくことも重要です。そうした情報収集をどのように、そしてい…

遺伝子は知的能力(知能)の個人差にほとんど関係しない

どういう論文かStudy of 300,486 individuals identifies 148 independent genetic loci influencing general cognitive function www.nature.comGenome-wide association meta-analysis in 269,867 individuals identifies new genetic and functional link…

自己回帰、Flowベースの深層生成モデルの今

内容 MADEの実装と並行して、特にFlowベースの手法について、様々なブログや論文で全体像や各手法の勉強をしたので、まとめておきます。 全体論 Google BrainのEric JangによるNormalizing Flow解説が極めて秀逸なので、まずこれを読んでから以下の概要・論…

ChainerでMADE: Masked Autoencoder for Distribution Estimation

Autoregressive/Flowベースのモデル深層生成モデル このブログでもよく紹介している深層生成モデル(Deep Generative Model)ですが、近年よく研究されている深層生成モデルにはGANベース、VAEベース、Autoregressiveベース、Flowベースのモデルがあります。…

人工ニューラルネットワーク(特にRNN)を脳のモデルにする時の注意

人工ニューラルネットワークと実際の脳が似ているかどうかは全く自明でなく、その問題自体を絶賛研究中、というのは何回か書いています。「似ている」という研究も確かに最近たくさん出ていますが、逆に考えるとそれだけこれまで似ていないと思われていたか…

文章から抽象的な空間表現を推測する深層生成モデル(GQNの言語への応用)

「AがBの後ろにある」と「BがAの前にある」の二つの文章が同じ関係を表現していることは人間には容易にわかります。しかし、一般的な言語モデルでこれら二つの文章を読ませた場合、モデルが出力する二文の表現はかなり離れたものになってしまうことが知られ…

チーム戦FPSで人間チームを上回るパフォーマンスを出す人工知能エージェント軍団

囲碁やピンポンゲームは既に解かれたので、今のAI研究のターゲットはより長期的な計画を必要とするゲームや、プレイヤーから対戦相手の状況などゲーム状況の一部が隠されているゲーム、あるいは仲間との協調を必要とするゲームなどより高度なものへと移って…

広範な脳領域から同時記録ができる時代

Feature-Based Visual Short-Term Memory Is Widely Distributed and Hierarchically Organized https://www.cell.com/neuron/abstract/S0896-6273(18)30424-0 記憶した情報が脳の広い領域に分布していて、更にそれら領域が情報を保持している時間は領域ごと…

脳は逐次的に構文処理をしている(ACL2018ベストペーパー)

今年開催されたACL(自然言語処理の国際会議)のベストペーパーで、脳波と絡めた論文がありました。 [1806.04127] Finding Syntax in Human Encephalography with Beam Search単語を逐次的に読んでいくニューラル言語モデルによって得られる文章表現が様々なタ…

抽象的な空間表現を獲得するDeepMindの深層生成モデル(GQN)

人間はある視点から撮られた1枚の写真からその空間の全体像を思い描くことができます。もちろんそれは間違っていることもあり、例えば何か重要な物体が壁などの障害物のせいで写っていない場合は、異なる視点からの情報を追加で入手することによる補完が必要…

発展に対する継続的改善とイノベーションの関係

人類はこれまで継続的な発展を遂げてきました。その発展には恐らく、天才的な閃きや偶然による発明だけでなく、それら発明の継続的な改善活動も必要なはずです。こうした発展がどのようなプロセスで生じるのかは、組織論の分野などにおいても非常に重要な問…

結果がない状態で論文を書く

オックスフォードで機械学習のPh.D.をしている学生をしている人と話す機会があったのですが、普段どんな風に論文を仕上げていくか聞きました。 まず結果以外を論文のフォーマットで全部書く それを研究室の人たちにレビューしてもらう 問題なければプログラ…

人工知能モデルの出力を解釈しやすくするために人間が直接介入

モデルの出力が人間にとって解釈可能(Interpretable)かどうかは、実応用を考えると非常に重要です。一方で、解釈可能性を定量化するには実際に人に聞かないといかず、それはコストがかかります。大企業ならいざ知らず、そうではない団体や個人にとっては大…

脳内テレポーテーションによる「あれを取っておけば…」

二つ以上の選択肢があって、どれか一つを選ばないといけない時、どうやら悪い方を選んでしまって「あれを取っておけば…」と思うときはよくあると思います。少なくとも僕はよくあります。この「あれを取っておけば…」という想像を脳の前帯状皮質(Anterior Ci…

人の海馬でも記憶再生が?

自分の今いる場所を脳内で表現している"場所細胞"ですが、睡眠時や休憩時に、これまでの経路を復習する(リプレイする)ことがマウス等の実験から知られています。こうしたリプレイは記憶の定着などに役立つと考えられていますが、そうしたリプレイが人の海…

深層学習の汎化性能は各ニューロンの入力選択性にも依存する

少し前の記事(神経科学者はマイクロプロセッサを理解できるか? - tkg日記)は、古典的な神経科学の手法が(ノイズのない綺麗な大量のデータを解析に使える)マイクロプロセッサの目的すら明らかにできない、という批判的な内容でした。今回の研究はその逆で…