1. HOME
  2. 応用脳科学アカデミー
  3. 2022年度
  4. 自由エネルギー原理は普遍的な脳理論なのか?:磯村 拓哉(理化学研究所 脳神経科学研究センター 脳型知能理論研究ユニット ユニットリーダー)

応用脳科学アカデミー

2022年度

自由エネルギー原理は普遍的な脳理論なのか?:磯村 拓哉(理化学研究所 脳神経科学研究センター 脳型知能理論研究ユニット ユニットリーダー)

脳を構成する神経細胞は、どのように生物の優れた知能を実現しているのでしょうか?例えば、壁の近くにリンゴがあるとき、私たちはリンゴが壁の形に欠けているとは考えず、リンゴの一部が壁に隠れていると考えます。こうした経験に基づく推論は、変分自由エネルギーと呼ばれるコスト関数を最小化することで計算できます。自由エネルギー原理は、Karl J. Fristonが提唱している脳の情報理論であり、生物の知覚や学習、行動は、この変分自由エネルギーを最小化するように決まるとしています。その結果、生物は変分ベイズ推論と呼ばれる統計学的な推論を自己組織化的に行うとされています。一方で、古くから研究されている神経活動やシナプス可塑性のダイナミクスは微分方程式の形で書くことができ、何らかの潜在的なコスト関数の勾配に従っていると考えることができます。実のところ、任意のコスト関数は、ある生成モデルと事前分布のもとでの変分自由エネルギーであると解釈することができます。このことは、標準的な神経回路モデルのダイナミクスは潜在的に変分ベイズ推論を実行していると見なすことができることを意味します。この観点に基づき、標準的な神経回路モデルが、推論、学習、予測、行動制御、行動計画などの適応的行動を(ベイズ推論の意味で)最適に実行できることを紹介したいと思います。

講師

磯村 拓哉 先生

  • 理化学研究所 脳神経科学研究センター 脳型知能理論研究ユニット ユニットリーダー
  • 京都大学 大学院情報学研究科 システム科学専攻 連携准教授
  • 博士(科学)

日時

2022年8月26日(金)13:00~17:30(12:40より受付開始)
※磯村先生の講義は、15:40~16:50です。

場所

NTTデータ経営研究所 9階 セミナールーム

入館方法

JA共済ビルのエントランスフロアで受付を済ませてから、左側のエレベーターにて9階までお越しください。応用脳科学アカデミーの案内看板が掲示されています。
そちら側よりご入室いただきますと、右側奥に応用脳科学アカデミー受付(臨時設置)がございます。

お問い合せ先

本アカデミーに関するご質問等は、 「各種お問い合わせフォーム」 より、お問い合わせください。

講師紹介

磯村 拓哉(いそむら たくや)先生

現職

  • 理化学研究所 脳神経科学研究センター 脳型知能理論研究ユニット ユニットリーダー
  • 京都大学 大学院情報学研究科 システム科学専攻 連携准教授

経歴

  • 2012年、東京大学工学部精密工学科卒業。
  • 2017年、同大学大学院新領域創成科学研究科人間環境学専攻博士課程修了。
  • 2017年、理化学研究所脳科学総合研究センター基礎科学特別研究員。
  • 2018年、理化学研究所脳神経科学研究センター基礎科学特別研究員。
  • 2020年4月、同センター研究員。2020年6月より現職。

研究概要

当研究ユニットは、脳の知能の普遍的な特性を数学的に記述する理論の構築を行なっています。生物は、脳内の生成モデル(内部モデル)を最適化することで感覚入力の背後にあるダイナミクスや原因を推論し、自らの行動戦略を周囲の環境に適応させることができると考えられています。我々は、神経回路やシナプス可塑性がこれらの能力をどのように実現しているのかを明らかにするため数理手法を用いた研究を行なっています。特に、既存の人工知能に対して生物の知能が優れている点を数理的に理解することを目指します。

主な業績

  • Isomura, T. “Active inference leads to Bayesian neurophysiology” Neuroscience Research 175, 38-45 (2022).
  • Isomura, T., Shimazaki, H. & Friston, K. J. “Canonical neural networks perform active inference” Communications Biology 5, 55 (2022).
  • Isomura, T. & Toyoizumi, T. “On the achievability of blind source separation for high-dimensional nonlinear source mixtures” Neural Computation 33(6), 1433-1468 (2021).
  • Isomura, T. & Toyoizumi, T. “Dimensionality reduction to maximize prediction generalization capability” Nature Machine Intelligence 3(5), 434-446 (2021).
  • Isomura, T. & Friston, K. J. “Reverse-engineering neural networks to characterize their cost functions” Neural Computation 32, 2085-2121 (2020).
  • Isomura, T., Parr, T. & Friston, K. J. “Bayesian filtering with multiple internal models – towards a theory of social intelligence” Neural Computation 31, 2390-2431 (2019).
  • Isomura, T. & Toyoizumi, T. “Multi-context blind source separation by error-gated Hebbian rule” Scientific Reports 9, 7127 (2019).
  • Isomura, T. & Friston, K. J. “In vitro neural networks minimise variational free energy” Scientific Reports 8, 16926 (2018).
  • Isomura, T. & Toyoizumi, T. “A local learning rule for independent component analysis” Scientific Reports 6, 28073 (2016).
  • Isomura, T., Kotani, K. & Jimbo, Y. “Cultured cortical neurons can perform blind source separation according to the free-energy principle” PLoS Computational Biology 11(12), e1004643 (2015).
             

関連講義