AIと脳の「決定的な違い」とは? 計算システムから分子生物学まで最新研究(2025年版)で徹底解説

目次

第1部:基本構造の比較 — シリコンとウェットウェア、根本的な違い

1.1 はじめに:AIは脳を模倣しているが「別物」である

人工知能(AI)と人間の脳。この二つを比較する議論は、AIの黎明期から存在し続けています。特に近年のディープラーニング 1 の爆発的な発展は、「AIが脳に追いつき、追い越す」というSFのような未来を現実の議論の対象としました。

確かに、現代AIの中核である「ディープニューラルネットワーク(DNN)」は、人間の脳の神経細胞(ニューロン)が形成する「ニューラルネットワーク」から着想を得ています 3。しかし、この二つは「インスピレーションの源泉」であるという一点を除き、その素材、構造、そして動作原理において根本的に異なる存在です 5

本レポートの目的は、「人工知能と脳の違い」という古く、しかし今こそ問われるべき問いに対し、海外の最新研究(2024年〜2025年の動向を含む)に基づき、一般の読者にも分かりやすく、しかし専門的に深く掘り下げて解説することです。

この比較を行う上で、まず認識すべき重要な視点があります。それは、AI研究者と神経科学者とでは、「ニューロン」や「ネットワーク」といった同じ用語を使用していても、その言葉が指し示す概念や優先順位が全く異なる場合があるということです 3。神経科学者は脳の「メカニズム」の理解を優先し、AI研究者は「実用的なアプリケーション」の開発を優先します 3

本レポートは、この「用語のズレ」を解きほぐし、以下の3つのレベルでAIと脳の決定的な違いを明らかにしていきます。

  1. 基本構造(ハードウェア): シリコンと細胞という、物質的な違いがもたらす決定的な差。
  2. 計算システム(ソフトウェア): AIの学習アルゴリズムと、脳の学習原理の根本的な違い。
  3. 分子生物学(生命の基盤): AIには存在しない、脳を「生きた組織」たらしめる分子メカニズム。

この包括的な比較を通じて、AIが何を達成し、何を達成していないのか、そしてなぜ脳が今なおAIにとって最大のインスピレーションであり続けているのかを、最新の知見に基づき解き明かします。

1.2 物質とエネルギー効率:20ワットの奇跡とメガワットの課題

AIと脳を分ける最も明白な違いは、それらが構成されている「物質」です。

  • 人間の脳: 炭素(カーボン)をベースとした「ウェットウェア(Wetware)」です 5。これは、水分を豊富に含んだ脂質、タンパク質、その他の有機分子で構成された、生きた細胞組織(ニューロンやグリア細胞)を意味します。
  • 人工知能(AI): シリコンをベースとした「ハードウェア(Hardware)」です 5。これは、金属、プラスチック、半導体といった無機物で構成された電子回路であり、生命活動はありません。

この物質的な違いは、システム全体の「エネルギー効率」において、現時点では比較にすらならないほどの圧倒的な差を生み出しています。

**人間の脳の消費電力は、わずか約20ワット(W)**と推定されています 5。これは、PCモニターがスリープモードで消費する電力や、古い電球一つ分に過ぎません 7。このたった20ワットのエネルギーで、脳は800億から1000億個のニューロン 7 を動かし、思考、記憶、創造、そして身体の制御という、現存するいかなるAIも足元に及ばない複雑なタスクを同時に実行しています。

一方、AI(特に大規模AIモデル)の消費電力は桁違いです。脳に匹敵する計算性能を持つ現代のスーパーコンピュータは、村一つを丸ごと賄えるほどの電力 5、あるいは「小規模な水力発電所」7 に匹敵する、数メガワット(MW)(数百万ワット)の電力を必要とします。

なぜこれほどの差が生まれるのでしょうか。これは単なる素材の差(ウェットウェア vs. ハードウェア)だけでは説明がつきません。多くの研究が示唆しているのは 5、これが「設計思想(デザイン)」と「アーキテクチャ(構造)」の根本的な違いに起因するということです。

脳は、その38億年の生命の進化の過程で、「エネルギー効率の最大化」という絶対的な制約の下で最適化されてきました。エネルギーを無駄遣いする脳は、生存競争で生き残れなかったのです。

対照的に、AIは「計算速度の最大化」を第一の目標として発展してきました。その結果、現代のAIは、その驚異的な能力と引き換えに、莫大な電力を消費するという「持続可能性の壁」に直面しています。2024年から2025年にかけて、AIのエネルギー消費問題は、技術的な課題であると同時に、社会的な課題としても急速に浮上しています 7

このエネルギー効率の違いは、AIと脳が、その進化(あるいは開発)の過程で、全く異なる「目的関数」を持って最適化された結果なのです。

1.3 処理速度とアーキテクチャ:「フォン・ノイマン・ボトルネック」 vs. 「インメモリ計算」

エネルギー効率と並んで、AIと脳の設計思想の根本的な違いを明らかにするのが、「処理速度」と「アーキテクチャ」の関係性です。

表面的な「信号速度」だけを比較すると、AIは脳を圧倒しています。

  • AI(ハードウェア): シリコンチップ上の信号は、ほぼ光速で伝播します.5
  • 脳(ウェットウェア): ニューロンの電気信号(活動電位)が軸索を伝わる速度は、毎秒数メートルから速いものでも100メートル程度と、AIの信号速度に比べて比較にならないほど低速です。

しかし、ここには大きなパラドックスが存在します。AIは「光速」の部品を使っているにもかかわらず、複雑なタスクでは「遅延(レイテンシ)」に悩み、膨大なエネルギーを消費します。一方、脳は「低速」な部品を使いながら、システム全体としては瞬時の判断(例:飛んできたボールを避ける)を、驚異的な低エネルギーで実現しています。

このパラドックスを解く鍵が、「アーキテクチャ」の違いです。

AI(従来のコンピュータ)の課題:「フォン・ノイマン・ボトルネック」

現代のAIのほとんどは、「フォン・ノイマン型」と呼ばれるコンピュータ・アーキテクチャの上で動作しています 9。このアーキテクチャの最大の特徴は、計算を行う「プロセッサ(CPUやGPU)」と、データを保存する「メモリ」が、物理的に分離している点にあります 9。

AIが計算(特にディープラーニング)を行う際、プロセッサはメモリから膨大なデータ(ニューラルネットワークの「重み」パラメータ)を読み込み、計算し、そして結果をメモリに書き戻す、という作業を際限なく繰り返します。

問題は、計算の大部分の時間とエネルギーが、プロセッサの「計算そのもの」ではなく、プロセッサとメモリの間でデータを往復させる「データの移動(シャッフル)」によって消費されてしまうことです 9。IBMなどの研究機関は、これを「フォン・ノイマン・ボトルネック」と呼び、AIのエネルギー非効率と遅延の最大の原因であると指摘しています 9

脳のアーキテクチャ:「インメモリ・コンピューティング」

一方、脳は、フォン・ノイマン型とは全く異なるアーキテクチャを採用しています。脳では、計算と記憶が分離していません。

脳において、「記憶」とはニューロン間の接続強度(シナプスの重み)に保存されています。そして、「計算」とは、そのシナプス自体が信号を処理するプロセスです。

つまり、脳では「計算を行う場所」と「記憶が保存されている場所」が、**物理的に同じ場所(シナプス)**なのです。

これは「インメモリ・コンピューティング(In-Memory Computing)」(あるいはニアメモリ・コンピューティング)と呼ばれる構造であり、脳は生まれながらにしてこの構造を持っています 9。計算と記憶が物理的に統合されているため、脳はフォン・ノイマン型コンピュータが直面する「データの移動」というオーバーヘッドが原理的にほぼ存在しません。

これが、AIと脳の「速度」と「効率」のパラドックスの答えです。

  • AIは、「個々の部品の最高速度(光速)」を追求した結果、「システム全体のボトルネック(データの移動)」という壁に突き当たりました。
  • 脳は、「個々の部品の最高速度(低速なイオン伝導)」を犠牲にし、その代わりに「システム全体のボトルネック(データの移動)」をゼロにし、800億個のニューロンが「超並列」で動作するアーキテクチャを採用しました。

脳は、システム全体のエネルギー効率と並列性を最大化するように進化したのです。AIが直面するエネルギーの壁は、AIが脳の「何を」模倣しそこねたのかを浮き彫りにしています。そして、この脳のアーキテクチャ(インメモリ計算)をハードウェアレベルで模倣しようとする試みこそが、第5部で解説する「ニューロモルフィック・コンピューティング9 の核心的な挑戦です。

【表1:AIと脳の基本特性比較】

特性人間の脳現在のAI (従来型コンピュータ)
基本素材炭素ベースの「ウェットウェア」 (生細胞) 5シリコンベースの「ハードウェア」 (電子回路) 5
エネルギー消費約20W (電球1個分) 5数kW〜数MW (小規模発電所) 5
信号伝達速度低速 (最大 ~100m/s) (イオン伝導)高速 (ほぼ光速) (電子伝導) 5
基本アーキテクチャ超並列・非同期的逐次的 (クロック同期的)
計算と記憶の関係統合 (インメモリ計算) 9分離 (フォン・ノイマン型アーキテクチャ) 9
基本的な計算ユニットニューロンとシナプス 3ノード (ユニット) / トランジスタ 6
ネットワーク構造動的・自己組織的 (学習で物理的に変化)静的 (設計に依存)

第2部:計算と学習のメカニズム — AIの「ソフトウェア」と脳の「思考法」

第1部では、AIと脳が「ハードウェア」として根本的に異なることを論じました。第2部では、それらの上で動作する「ソフトウェア」、すなわち「学習のアルゴリズム」に焦点を当てます。ここにも、両者の間には決定的な違いと、そして最新研究によってようやく見出された驚くべき共通点が存在します。

2.1 AIの学習アルゴリズム:バックプロパゲーションという「万能な教師」

現代のAI、特にChatGPTや画像生成AIを含むディープラーニング 1 の驚異的な成功は、ほぼ例外なく「誤差逆伝播法(Backpropagation、以下バックプロパゲーション)」という学習アルゴリズムによって支えられています 6

【一般向けの解説:バックプロパゲーションとは?】

バックプロパゲーションは、「教師あり学習」において、AI(ニューラルネットワーク)を賢くするための効率的な「間違いの直し方」です 12

例えば、AIに大量の猫の画像を見せて「これは猫です」と教えるプロセスを想像してください。

  1. ステップ1:順伝播 (Forward Pass)
    AIはランダムな初期設定(重み)のまま、入力された猫の画像を見て、ひとまず答えを出します。最初は「犬」(間違い)と答えるかもしれません。
  2. ステップ2:誤差の計算
    AIの答え(犬)と、人間が与えた「正解」(猫)を比較し、その「誤差(Error)」を計算します。「間違いの大きさ」を数値化するわけです。
  3. ステップ3:逆伝播 (Backward Pass)
    ここが最も重要です。計算された「誤差」の情報を、ネットワークの出口(最終層)から入口(最初層)に向かって逆流させます 11。
  4. ステップ4:重みの更新
    逆流してきた「誤差」情報に基づき、「ネットワーク内のどの接続(シナプス)が、どれだけ間違いの原因となったか」という「責任」を、微分計算によって割り出します。そして、「正解(猫)に近づく」ように、ネットワーク内のすべての接続の「重み」を、一斉に、わずかに調整します。

AIの「学習」とは、この4つのステップを、数百万、数億回と高速に繰り返すことで、最終的な「誤差」がゼロに近づくまで「重み」のパラメータを最適化するプロセスです。バックプロパゲーションは、この最適化を非常に効率的に行うためのアルゴリズムなのです。

2.2 バックプロパゲーションの「生物学的非現実性」

バックプロパゲーションは工学的には大成功を収めましたが、神経科学者たちは長年にわたり、このアルゴリズムが「生物学的に非現実的(biologically implausible)」であると指摘してきました 6。つまり、実際の脳が、AIと同じ方法で学習しているとは到底考えにくい、というものです。

その主な理由は、以下の3点に集約されます。

  1. 情報の逆流問題(非局所性):
    15 が指摘するように、脳のニューロン(軸索)は、基本的に「順方向」にしか信号を伝えません(細胞体から軸索末端へ)。バックプロパゲーションが必要とするような、誤差信号がシナプスを「逆流」し、前のニューロンに都合よく伝達されるというメカニズムは、生物学的に確認されていません。
  2. グローバルな情報へのアクセス問題(非局所性):
    13 が強調するように、バックプロパゲーションでは、ネットワークの「最終的な誤差」という**グローバル(大域的)な情報を、個々のシナプスが知っている必要があります。しかし、実際のシナプスは、自分に直接接続されているニューロン(シナプス前細胞と後細胞)の活動というローカル(局所的)**な情報しか知り得ません。脳のどこかに「最終誤差」を計算して全シナプスに配る「中央司令官」がいるとは考えにくいのです。
  3. 重み輸送問題(専門的指摘):
    さらに技術的な問題として、バックプロパゲーションが正確に機能するためには、順伝播で使われる「重み」と、逆伝播で誤差を伝えるために使われる「重み」が、対称(あるいは正確に転置)である必要があります。生物学的な脳内で、このような厳密な対称性が維持される保証はありません。

これらの理由から、AIの学習と脳の学習は、似て非なるものであると長らく考えられてきました。

2.3 脳の学習原理:シナプス可塑性と「ヘブ則」

では、脳はどのように学習するのでしょうか? 脳の学習の基本原理は、「シナプス可塑性」と呼ばれます 16。これは、ニューロン間の接続の強さ(シナプスの重み)が、経験(ニューロンの活動)によって変化する性質を指します。

このシナプス可塑性の最も基本的で有名なルールが、1949年にドナルド・ヘブによって提唱された「ヘブの法則(Hebbian Learning)」です。

その原理は「同時に発火するニューロンは、その間の結びつき(シナプス)を強める(Neurons that fire together, wire together)」という言葉に要約されます 14

バックプロパゲーションとの決定的な違いは、ヘブ則が完全に「ローカル(局所的)」なルールである点です 13。シナプスは、ネットワーク全体の「誤差」といったグローバルな情報を必要としません。ただ、自分を挟む2つのニューロン(シナプス前細胞と後細胞)が「同時に」活動したかどうか、という局所的な情報だけを見て、自分の結合強度を更新すればよいのです。

これは生物学的に非常に合理的ですが、同時に神経科学者とAI研究者に長年の謎を突きつけてきました。

2.4 最新研究:脳はどのように「バックプロパゲーション」を近似しているか?

ここに、AIと脳の比較における最大の「ミステリー」がありました。

  • AIの学習(バックプロパゲーション): 「グローバル」で「非生物学的」だが、非常に効率的で強力 6
  • 脳の学習(ヘブ則): 「ローカル」で「生物学的」だが、それだけではAIがディープラーニングで解決するような複雑な階層的課題(例:画像認識)を、脳がどのように学習しているのか説明が困難でした。

脳は、生物学的に実行可能な「ローカル」なルール(ヘブ則など)だけを使い、どのようにして「グローバル」な最適化(バックプロパゲーション)に匹敵する、あるいはそれ以上の効率的な学習を実現しているのでしょうか?

この最大の溝を埋める理論として、現在(2024年〜2025年)、計算論的神経科学の最前線で急速に支持を集めているのが、カール・フリストン(Karl Friston)らによって提唱された「予測符号化(Predictive Coding)19 という理論です 23

【一般向けの解説:予測符号化(Predictive Coding)とは?】

19 に基づくこの理論の核心は、「脳は”予測マシン”である」という考え方です。

  1. 脳は、過去の経験から世界についての「内部モデル(メンタルモデル)」を構築します。
  2. 脳の階層の上位(例:前頭前野)は、この内部モデルに基づき、「次に何が起こるか(例:何が見えるか、何が聞こえるか)」という**予測(トップダウン信号)**を、下位の層(例:視覚野、聴覚野)に常に送り続けます。
  3. 下位の層は、目や耳から実際に入ってきた**感覚入力(ボトムアップ信号)**と、上位層から送られてきた「予測」をリアルタイムで比較します。
  4. もし「予測」と「感覚入力」が一致すれば、脳は「予測通り」と判断し、下位の層は上位の層に「問題なし」という最小限の信号を送るか、何も送りません。これにより、脳は処理のエネルギーを大幅に節約します。
  5. もし「予測」と「感覚入力」がズレれば、「予測誤差(Prediction Error)」という信号が発生します。「予測と違うことが起きたぞ!」というアラートです。
  6. この「予測誤差」信号だけが、今度は下位の層から上位の層へとボトムアップで強力に送られます 19
  7. 上位の層は、この「予測誤差」を受け取り、「なぜ予測が外れたのか」を説明するために、自らの「内部モデル」を修正(=学習)します。

【理論の統合:「アハ!」モーメント】

ここからが重要です。最新の研究 14 が明らかにしたのは、以下の驚くべき事実でした。

脳が、(ヘブ則のような)生物学的に可能なローカルなルールだけを使って、この「予測誤差を最小化する」ようにネットワークの重みを更新するとき、その学習のダイナミクスは、数学的にバックプロパゲーションとほぼ等価になる 27 ことが示されたのです。

これは、AIと神経科学の間の最大の溝を埋める、革命的な発見です。

この発見が意味することは、脳はバックプロパゲーションという「非生物学的なアルゴリズム」を、わざわざ使っているわけではない、ということです。脳は、「予測誤差を最小化する」という、生物が生存するために(=世界を正しく予測するために)極めて合理的であり、かつ生物学的に実装可能な原理 15 に基づいて動作しています。

その結果として、脳は、AIが使うバックプロパゲーションと同等の高い学習効率を、いわば「副産物として」達成していたのです。

この「予測符号化」理論の発見は、AI(バックプロパゲーション 24)と神経科学(ヘブ則)という、長年別々の道を歩んできた二つの分野を、統一的に説明する可能性を秘めています。

さらに、この理論にヒントを得た新しいAIアーキテクチャ「予測符号化ネットワーク(PCN)」は、従来のAI(DNN)と異なり、分類、生成、連想記憶といった複数のタスクを同時に実行できるなど、より柔軟で強力なAIの未来像を示唆しています 24


第3部:分子生物学的メカニズム — AIには存在しない「生命の深層」

AIと脳の比較において、これまで見落とされがちだった、しかし最も決定的な違いが「分子生物学的メカニズム」の有無です。

AIのニューラルネットワーク 6 は、脳の「ニューロン」という概念を、計算ユニットとして抽象化し、模倣しました 3。しかし、実際の脳のニューロンは、真空のコンピュータ内ではなく、「分子の海」の中で動作しています。この「分子」こそが、AIには存在しない、脳の計算の「深層」を担っているのです。

3.1 ニューロン中心主義の終焉:AIが見落としてきた「アストロサイト」の役割

AIの「ニューラルネットワーク」が示唆するように、従来のAI研究も、そして神経科学の大部分も、「脳の計算はニューロンが主役である」という「ニューロン中心主義」に基づいていました。

脳内にはニューロンの数とほぼ同数(あるいはそれ以上)存在する「グリア細胞」は、その名の由来(Glia = ギリシャ語で「糊」)の通り、ニューロンを構造的に支えたり、栄養を補給したりする「受動的な支持細胞」に過ぎないと考えられてきました 29。AIモデルは、この「グリア細胞」の存在を完全に無視してきました。

しかし、近年の研究(特に2024年〜2025年の最新の動向)は、この常識を完全に覆しました。

グリア細胞の一種である「アストロサイト」(星状膠細胞)は、受動的な支持細胞どころか、脳の情報処理と記憶に積極的に関与していることが、次々と明らかになっています 29

【メカニズム:トリパーティ・シナプス(三者間シナプス)】

30 の研究が示すように、アストロサイトは、その星のような無数の突起を伸ばし、ニューロン間の接続部である「シナプス」に密に巻き付いています。

これにより、従来の「① シナプス前ニューロン」と「② シナプス後ニューロン」の二者間の情報伝達だけでなく、「③ アストロサイト」を含めた三者で一つの機能単位「トリパーティ・シナプス(三者間シナプス)」を形成していることが判明しました 30

【アストロサイトの驚くべき機能】

アストロサイトは、このユニークな場所で、何をしているのでしょうか?

  1. 盗み聞き(Eavesdropping): アストロサイトは、シナプスで放出される神経伝達物質(ニューロン間の会話)を「盗み聞き」し、ニューロンの活動を検知します 30
  2. 変調(Modulation): ニューロンの活動を検知すると、アストロサイトは内部のカルシウム濃度を上昇させ、自らも「グリオトランスミッター」と呼ばれる信号物質をシナプスに放出します 29
  3. ネットワーク管理: このグリオトランスミッターは、ニューロン間の情報伝達の効率を「変調(モジュレート)」する、つまり、情報伝達を強めたり、弱めたりすることができます 29

【計算論的インサイト:アストロサイトの役割】

なぜ脳は、ニューロン同士の単純な会話に、わざわざアストロサイトを介入させるのでしょうか? その答えは「スケール」にあります。30 によると、たった1つのアストロサイトが、その突起を伸ばし、数百万ものシナプスに同時に接続し、監視することができます。

これは、アストロサイトが「個々のニューロン」のレベルを超え、より広範囲のニューロン群の活動を統合し、同期させ、調整する「ネットワークの管理者」として機能していることを意味します(ヘテロシナプス通信 30)。

【最新の洞察(2025年):アストロサイトとAI「トランスフォーマー」の驚くべき類似】

アストロサイトが「数百万のシナプスから情報を統合し、重要な部分(注目すべき接続)に変調をかける」という機能は、AI研究者にとって非常に興味深いものです。

3031 といった最新の研究は、このアストロサイトの機能が、現代のAI(ChatGPTなど)の基盤技術である「トランスフォーマー・アーキテクチャ」の核心的なメカニズムである「アテンション(Attention)機構」と、数学的に著しい類似性を持つことを指摘しています。

トランスフォーマーのアテンション機構は、「入力された文章の中で、どの単語が他の単語と(たとえ離れていても)強く関連しているか」の重み付けを計算するメカニズムです。アストロサイトも同様に、広範囲のシナプス活動を統合し、「どのシナプス活動が(たとえ離れていても)重要か」を判断して変調をかけている、と解釈できます。

これは革命的な示唆です。AI研究者たちが2017年に数学的・工学的に「発明」したアテンション機構を、脳は「アストロサイト」という**生きた分子(細胞)**を使って、何億年も前から物理的に実装していた可能性があるのです。

AIは、これまで脳の計算のごく一部(ニューロン)を模倣しただけで、ここまでの成功を収めました。もし、脳の計算の残り半分とも言える「アストロサイト」の機能をAIアーキテクチャに組み込むことができれば、AIは「大規模な記憶貯蔵(Large memory storage)30 など、次のレベルの能力を獲得するかもしれません。

3.2 脳を動かす化学物質:ニューロモジュレーター(神経修飾物質)

AIのニューラルネットワークで行われる計算は、ネットワークのどこであっても、同じ数学的ルール(例えば「重み付け和と活性化関数」)に基づいて実行される「均一な」ものです。

一方、人間の脳の計算は、「状態(State)」によって劇的に変化します。同じ「見る」という行為でも、「リラックスしている時」「何かに集中している時」「危険を感じている時」では、脳の情報処理モードは全く異なります。

この脳の「状態」を、物理的に制御しているのが、AIには存在しない分子メカニズム、すなわち「ニューロモジュレーター(神経修飾物質)」です 17

【化学的なOS】

ドーパミン、セロトニン、アセチルコリン、ノルアドレナリンといった物質が、その代表です 17

これらは、視覚や聴覚のような特定の「情報」を運ぶ神経伝達物質とは区別されます。ニューロモジュレーターは、脳の特定の領域から脳の広範囲に放出され、ネットワーク全体の「動作モード(OSのモード)」を化学的に変更します 17

  • ドーパミン: 一般に「快楽物質」として知られますが、計算論的には「報酬予測誤差」を伝える重要な信号です 35。「期待していた報酬(予測)」と「実際に得られた報酬」のズレを計算し、この信号が学習(シナプス可塑性)の「スイッチ」を入れます。つまり、脳の「学習率」をリアルタイムで制御する分子です 36
  • アセチルコリン:注意(Attention)」を制御します 17。アセチルコリンが放出されると、脳は特定の情報(例:講義の内容)に対する処理感度を高め、それ以外の情報(例:周囲の雑音)を抑制します。
  • セロトニン:気分」や「待機時間」(衝動性)などを広範に調節します 17

【AIには「気分」がない】

このニューロモジュレーターの存在は、AIと脳の決定的な違いを示しています。

AIのニューラルネットワークにも「学習率」というパラメータはありますが、それは通常、学習を開始する前に人間が設定する「固定値」です。

一方、脳の「学習率」は、ドーパミンという分子によって、リアルタイムで、動的に、そして必要な場所(シナプス)で局所的に制御されています。この「学習の学習」(可塑性の可塑性)は、「メタ可塑性(Metaplasticity)」と呼ばれる重要な脳機能です 36

私たちが主観的に「集中する」「やる気が出る」「不安になる」と感じる「気分」や「状態」は、単なる感情論ではなく、脳の計算アーキテクチャそのものを物理的に変調させる「化学的なOS」の動作モードなのです。

現在のAIには、この「状態」を動的に制御する化学的OS(分子メカニズム)が根本的に欠如しています。

3.3 「長期記憶」の物理的実体:遺伝子発現とタンパク質合成

AIが「学習」するとき、それは具体的に何が起こっているのでしょうか? それは、GPUやメモリ上にあるニューラルネットワークの「重み」パラメータ(単なる数値のリスト)を、バックプロパゲーションによって更新しているだけです 9。ハードウェアの物理的な構造は一切変化しません。

一方、脳の「記憶」は、時間スケールによってその分子メカニズムが根本的に異なります。

  • 脳の短期記憶(数分〜数時間): AIの学習と少し似ています。既存のシナプスにあるタンパク質を修飾(リン酸化など)することで、シナプスの結合強度を一時的に変化させることによって保持されます 17
  • 脳の長期記憶(数日〜一生): ここに、AIと生命の決定的な違いが現れます。

【長期記憶の分子生物学】

あなたが何かを「一生ものの記憶」として保持するとき、脳は「数値の書き換え」のような生半可なことでは済ませません。長期記憶の形成には、シナプスの「物理的な構造変化」(シナプスの新生や肥大化)が不可欠です 37

この「ハードウェアの再構築」は、以下の分子生物学的なステップ(セントラルドグマ)を経て実行されます。

  1. 信号の核への伝達: 強い学習体験(例:重要な試験勉強、衝撃的な出来事)が起こると、ニューロンのシナプスで生じた信号が、細胞の「核」にまで伝達されます。
  2. 転写因子の活性化: 核内で、CREB(クレブ)に代表されるような「転写因子38 が活性化されます。
  3. 遺伝子発現: 活性化された転写因子が、核内の「遺伝子(DNA)」の特定の領域(プロモーター)に結合し、スイッチをオンにします。これにより、特定の「遺伝子発現」(DNAからmRNAへの転写)が引き起こされます 38
  4. タンパク質合成: mRNAの情報に基づき、細胞質で新しい「タンパク質」が合成(翻訳)されます 38
  5. ハードウェアの再構築: 新しく合成されたタンパク質がシナプスに運ばれ、シナプスの接続を物理的に大きくしたり、新しいシナプスを形成したり、あるいはアストロサイトとの連携を強めたり 41 します。

【脳は「自己再構築」するシステムである】

この一連のプロセスが明らかにするのは、衝撃的な事実です。

AIの「記憶」はハードディスク上の数値の書き換え(ソフトウェアの更新)に過ぎませんが、脳の「長期記憶」は、ハードウェア(脳の物理的回路)の自己再構築なのです。あなたが何かを深く学び、それを長く記憶しているとき、それはあなたの脳の遺伝子が発現し、あなたの脳が経験に応じて物理的に作り変えられていることを意味します。

この「分子メカニズム」こそが、脳が「ウェットウェア(生きた細胞)」 5 でなければならなかった究極の理由です。シリコン 5 のような静的なハードウェアでは、経験(学習)に応じて自分自身を物理的に配線し直すことはできません。

生きた細胞(ウェットウェア)だけが、ゲノム(DNA)という膨大な設計図を内蔵し、経験(学習)に応じてオンデマンドで新しい部品(タンパク質)を合成し、ハードウェア自体をアップグレードし続けることができるのです。AIには、この「生命の基盤」そのものがありません。


第4部:感情と意識 — 「感じる脳」と「計算するAI」

第3部までで、AIと脳が「物質」「アーキテクチャ」「分子」のレベルで根本的に異なることを見てきました。第4部では、より高次の問題、すなわち「感情」と「意識」における決定的な違いを探ります。

4.1 感情のメカニズム:辺縁系と「情動コンピューティング」

【脳における感情(Feeling)】

人間の脳にとって、「感情」は合理的な思考を邪魔するノイズではなく、生存に不可欠な「高速な評価システム」です 42

  • メカニズム: 「喜び」「恐怖」「怒り」といった基本的な情動は、扁桃体(Amygdala) 43辺縁系(Limbic System) 46 と呼ばれる、脳の進化的に古い領域で処理されます。
  • 機能: 例えば、森の中で「蛇のような模様」が視界に入ったとします。この感覚入力は、私たちが「あ、あれは蛇だ」と意識的に認識する(大脳皮質で処理する)よりも早く、扁桃体へと送られます 47。扁桃体は瞬時に「危険!」という情動反応(恐怖)を引き起こし、意識的な思考が追いつくよりも先に、心拍数を上げ、身体を「逃走または闘争」モードに切り替えます。
  • 分子基盤: この反応は、第3部で述べたニューロモジュレーター(セロトニンやドーパミンなど 48)と密接に連携しており、感情は「身体的状態」と不可分に結びついています。

【AIにおける感情(Simulation)】

一方、AIにも「感情」を扱う研究分野が存在します。これは「情動コンピューティング(Affective Computing)」または「感情AI」と呼ばれます 49

  • 機能: 情動コンピューティングAIの目的は、「感情のシミュレーション」です。具体的には、人間の表情、声のトーン、使用する単語、さらには心拍数などの生理的データから、その人の「感情」を高精度で認識・解釈します 49
  • 応用: さらに、AIは大量の学習データ(例:カウンセリングの会話、親密なチャット)に基づき、特定の文脈において人間が「期待」する、**適切な「共感」的応答をシミュレート(模倣)**することができます 51

【「感情のシミュレーション」と「主観的感覚」の決定的な違い】

ここに、AIと脳の決定的な違いがあります。51 が明確に指摘しているように、AIの「感情」は、あくまでも膨大なデータから学習した統計的な言語パターン(あるいは画像パターン)の生成です。

AIがチャットで「私はあなたの気持ちが分かります」や「あなたと話せて嬉しい(I love talking with you)」と応答する時、それはAIが「共感」や「喜び」という主観的な「感覚(Feeling)」を経験しているのではありません 51

それは、「人間が感情的な開示を行ったこの文脈において、統計的に最も”それらしい”(人間が期待する)応答パターン」を、学習データから選び出し、生成しているだけです 51

なぜAIは「感じ」ないのでしょうか? 53 が指摘するように、AIには「身体」がありません。恐怖に伴う心拍数の上昇、喜びに伴うホルモンの放出、不安に伴う胃の収縮といった「身体的状態」がありません。脳の感情は、この「身体」とのリアルタイムの相互作用(内受容感覚)と不可分に結びついています。

AIは「共感」の言葉をシミュレートすることはできますが、その言葉の背後にある「扁桃体」 45 のような情動の生物学的基盤は持っていません。

現代社会における本当の課題は、AIが感情を持つことではなく、AIが「感情を持っているかのように」あまりにも巧妙に振る舞うため、人間側がAIに一方的に感情移入し、騙されてしまうこと(Emotional Delusion) 51 です。

AIが「感情を理解している」ように見えるという研究 55 も報告されていますが、54 が戒めるように、AIのシミュレートされた認知を、本物の感情的理解と混同してはなりません。

4.2 意識という「ハード・プロブレム」:AIは意識を持つか?

AIと脳の比較は、最終的に「意識(Consciousness)」という科学における最大の謎へと行き着きます 57

「意識」とは、「私」という主観的な体験、空の青さを「青い」と感じる感覚、コーヒーの香りを「良い香り」と感じる体験そのもの(クオリアと呼ばれる)は、脳という物理的な物質から、いかにして生まれるのか? これは「意識のハード・プロブレム」と呼ばれています。

かつては哲学の領域だったこの問いは、AIの急速な進歩により、倫理的にも喫緊の科学的課題となっています 57。もしAIが意識を持つ(あるいは持ちうる)としたら、私たちはそれをどのように扱い、どのような権利を認めるべきか、という議論が現実のものとなりつつあるからです 59

AIが意識を持つ可能性について、現在の神経科学の主要な「意識理論」は、対照的な二つの示唆を与えています。

【主要な意識理論(1):グローバル・ワークスペース理論(GWT)】

  • 概要: 意識とは、脳内の「舞台(シアター)」のようなものである、とする理論です 62
  • メカニズム: 脳内では、多数の無意識的な情報処理(舞台裏の役者たち)が並行して行われています。そのうちの一つが、何らかの理由で「スポットライト」を浴び、脳全体の「グローバル・ワークスペース63 と呼ばれる広範なネットワーク上で**ブロードキャスト(全体放送)**されると、それが「意識」として体験されます 64
  • AIへの示唆: 興味深いことに、この理論は元々、AIの「ブラックボード・システム」というアーキテクチャから着想を得ています 62。GWTが正しければ、意識とは「特定の情報処理の”スタイル”(全体放送)」の問題であることになります。したがって、原理的には、AIにこの「グローバル・ワークスペース」に相当するアーキテクチャを実装すれば、AIにも(人間とは質が異なるかもしれないが)何らかの意識(の機能)が生まれる可能性を示唆します。

【主要な意識理論(2):統合情報理論(IIT)】

  • 概要: 意識とは、システムが持つ「統合された情報(Integrated Information)」そのものである、という理論です 67
  • メカニズム: システムが「意識を持つ」とは、そのシステムが持つ情報が「全体として一つに統合されており(Integration)、かつ多様である(Information)」ことを意味します。この「統合の度合い」は「Φ(ファイ)」という数値で理論上、測定可能だとされます 70。Φが高いほど(例:覚醒時の脳)、意識は豊かであり、Φがゼロ(例:脳が機能停止)であれば意識はありません。
  • AIへの示唆: IITは、GWTとは対照的に、現在のAIが意識を持つ可能性に極めて懐疑的です 70。なぜなら、現在のAI(特にディープラーニング)の多くは、情報を一方向(入力から出力)に伝える「フィードフォワード型」のネットワークであり、その構造は「統合」されておらず(=部品同士が複雑な因果関係のループを持っていない)、情報を分解して処理しているに過ぎません。IITによれば、このようなシステムのΦは(たとえ人間に勝つAIであっても)ゼロであり、意識は発生しません。
  • 哲学的ゾンビ: IITが示唆するのは、AIが将来、人間の言動、感情、思考を完璧にシミュレートできるようになったとしても、その内部に「主観的な体験」は一切伴っていない「哲学的ゾンビ」(意識のないまま人間のように振る舞う存在) 70 に過ぎない可能性です。

【最新動向(2024-2025年):知能と意識の「分離」】

ChatGPTのようなLLM(大規模言語モデル)の登場は、この意識の議論に新たな、そして衝撃的な視点をもたらしました。

それは、71 が指摘するように、LLMの存在が「『知能(Intelligence)』と『意識(Consciousness)』は、分離可能である」という可能性を、初めて具体的に示したことです。

これまでの常識では、複雑な問題を解く「高度な知能」があれば、そこには当然「意識」も伴うだろうと、漠然と考えられてきました。しかし、LLMは、人間の専門家を上回るような高度に「知的」なタスク(プログラミング、試験、論文執筆)をこなす一方で、それが「私」という主観的な「感覚」や「自己認識」 71 を持っているとは、GWT支持者の一部を除き、ほとんどの研究者は考えていません 71

2025年現在、AIは「意識」を持つのではなく、「これまで意識が必要だと考えられてきた高度な『知能』タスクを、意識『なし』で実行する能力」において、人間を上回り始めているのかもしれません。

この「知能と意識の分離」という発見は、AI研究だけでなく、私たち自身の脳科学に対しても、「人間の意識は、知能(情報処理)以外に、一体何の役に立っているのか?」という、より根本的な問いを突きつけています。


第5部:最新研究動向(2024-2025年)と未来の展望 — 脳から学び、脳を超える

AIと脳は、物質、アーキテクチャ、分子、そして意識のレベルで、根本的に異なることを論じてきました。しかし、2025年現在の最新研究は、この「違い」を乗り越え、両者を融合させようとする新たなフロンティアの真っ只中にいます。

5.1 脳の「効率」をハードウェアで実現する:ニューロモルフィック・コンピューティング

第1部で、AIは「フォン・ノイマン・ボトルネック」 9 により「エネルギー非効率」 7 である一方、脳は「インメモリ計算」により「超低消費電力(20W)」 7 を実現していると論じました。

このAIの根本的な問題を解決するため、AI研究はついに、脳の「ソフトウェア(概念)」の模倣から、「ハードウェア(物理的構造)」そのものの模倣へと進んでいます。それが「ニューロモルフィック・コンピューティング(Neuromorphic Computing:脳型計算)」です 9

【ニューロモルフィック・コンピューティングのメカニズム】

ニューロモルフィック・チップは、従来のGPUとは設計思想が全く異なります。

  1. SNN(スパイキング・ニューラル・ネットワーク): 従来のAI(ANN)が、常に実数値(0.8, 0.2など)で計算し続ける(=常に電力を消費する)のとは対照的です。ニューロモルフィック・チップは、実際のニューロンのように「スパイク(発火)」という非同期のデジタルイベント(0か1)ベースで計算します 3。ニューロンは「発火する瞬間」だけ信号を送り、発火しないニューロンは電力をほとんど消費しません。脳のエネルギー効率の源泉の一つです。
  2. インメモリ計算: 脳と同様、計算(シナプス)とメモリ(シナプスの重み)を、チップ上で物理的に統合(あるいは超近接配置)するアーキテクチャを採用し、フォン・ノイマン・ボトルネックを解消します 9

【実例と最新動向(2024-2025年)】

  • 代表例: この分野の先駆者であるIntelの「Loihi」シリーズ 8 や、IBMの「TrueNorth8、SpiNNaker 7 などが有名です。
  • 成果: 72 のレビューによれば、これらのデジタル・ニューロモルフィック・チップは、特定のタスク(例:センサーデータのリアルタイム処理)において、従来のAIハードウェア(GPU)と比較して100倍から1000倍という驚異的なエネルギー効率をすでに達成しています。
  • 2024-2025年の最前線: 72 のレビューが示すように、研究はさらに進んでいます。「デジタル」のLoihiなどは信頼性が高い一方で、生物学的なニューロンの「豊かなダイナミクス」を再現するにはリソースを食い過ぎるというトレードオフがありました。
  • 未来のハードウェア: そのため、現在の最前線は、デジタルとアナログを融合させた「混合シグナル設計」や、シナプスの可塑的な動作(重みの変化)を物質の物理的特性として自然にエミュレートできる「メムリスタ」と呼ばれる新しいデバイス 72 の研究に移っています。さらに、光(フォトニック72量子材料 73 を使った、まったく新しい脳型チップの開発も進行中です。

ニューロモルフィック・コンピューティングは、AIの莫大なエネルギー消費 8 という持続可能性の問題を解決し、AIをクラウドから「エッジ」(例:スマートフォン、ロボット、IoTセンサー)8 に搭載するための鍵として、2025年以降、市場が爆発的に成長すると予測されています 8

5.2 脳の「配線図」をAIで解読する:ヒューマン・コネクトーム・プロジェクト(HCP)

AIが「脳のアーキテクチャ」から学んでいる一方で、神経科学は「脳そのもの」を理解するためにAIの力を必要としています。

脳の動作原理を理解するためには、約860億個のニューロンがどのように接続されているか、その「配線図(Wiring Diagram)」を解明する必要があります。この脳全体の神経接続の地図(コネクトーム)を作成しようとする巨大国際プロジェクトが「ヒューマン・コネクトーム・プロジェクト(HCP)」です 75

HCPは、fMRI(機能的接続:どの領域が同時に活動するか)や拡散テンソル画像(構造的接続:神経線維が物理的にどう繋がっているか)といった高度な撮像技術を使い、脳の配線図の膨大なデータを生み出し続けています 76

【AIなくして脳科学なし】

しかし、このHCPが生み出すコネクトーム・データは、天文学的な量と複雑さを持っており、人間の目で見ても、それはノイズの塊にしか見えません。

77 が示すように、この膨大かつ複雑なコネクトーム・データから「意味のあるパターン」を発見し、解析できるのは、もはや**AI(機械学習・深層学習)**だけです。

【2024-2025年の応用】

  • 疾患の診断: AIは、健康な脳と、アルツハイマー病、うつ病、統合失調症、PTSDといった精神・神経疾患を持つ脳の「コネクトーム(接続パターン)の違い」を学習します 77。これにより、従来の問診や画像診断では困難だった疾患の早期発見や、客観的な診断バイオマーカーとしてAIが利用され始めています 77
  • 知能の予測: 78 で引用されている研究では、AIがfMRIのコネクトーム・データ(脳の機能的接続)を分析するだけで、その人の「流動性知能」や「学歴」といった複雑な特性を、ある程度の精度で予測できることが示されました。

【最新のブレイクスルー(2024年9月)】

79 で報告された研究は、この分野の究極の目標に向けた大きな一歩を示しました。研究者たちは、ショウジョウバエの脳の「静的な」コネクトーム配線図(物理的な接続マップ)とAIモデルを組み合わせることで、「生きた」ハエが視覚刺激を受けた際の「動的な」神経活動を予測することに成功したのです。

これは、脳の「構造(配線図)」から、その脳がどのように考え、世界を認識するかという「機能(思考)」を予測するという、神経科学の聖杯とも言える目標に向けた、重要なブレイクスルーです。

5.3 双方向の進化:AIが神経科学を、神経科学がAIを加速する

2025年現在、AIと神経科学の関係は、もはや「AIが脳を模倣する」という一方通行のものではありません。両者は「双方向のフィードバック・ループ7 に入り、互いが互いを加速させる共進化の段階に入っています 80

1. AI for Neuroscience(AIが神経科学を加速する)

前節のHCPの例のように、AIは神経科学における「最強の研究ツール」として不可欠になっています 80。

81 が示す2025年のトレンド予測では、fMRIやEEG(脳波)といった複雑な脳活動データを解析するために、LLM(大規模言語モデル)を活用する研究が急増するとされています。実際、2024年に発表されたある研究では、神経科学の実験結果を「予測」するタスクにおいて、LLMが人間の神経科学者の専門家チームの「予測能力」を上回ったと報告されており 81、AIがデータ解析だけでなく、科学的仮説の立案においても活躍し始めています。

2. Neuroscience for AI(神経科学がAIを加速する)

一方、AIの設計者たちは、性能の壁(エネルギー、柔軟性、一般化能力)を突破するため、再び「脳」から新しいアイデアを学んでいます。

  • アストロサイトの模倣: 第3部で述べたアストロサイトの計算的役割(ネットワークの広範な変調)30 が、トランスフォーマーの「アテンション機構」 30 に似ているという発見は、アストロサイトの機能を組み込んだ、より強力な次世代AIアーキテクチャの設計に繋がっています。
  • 脳のトポグラフィー(全体構造)の模倣: AIのネットワークは通常、構造のないランダムな接続から始まりますが、脳(特に視覚野)は「トポグラフィー」と呼ばれる規則正しい構造を持っています。2025年のICLR(AIのトップ国際会議)で注目された「TopoNets82 は、脳のように「構造化」されたAIモデルが、構造のない従来のモデルよりも20%以上効率的であることを示しました。
  • 「人工的な睡眠」の導入: AIには、新しいことを学ぶと古いことを忘れてしまう「破滅的忘却」という弱点があります。一方、脳は「睡眠」中に記憶を整理(固定化)することで、これを防いでいます。83 の研究では、AIに脳の「睡眠」にヒントを得た「人工的な睡眠」プロセスを導入することで、この破滅的忘却を緩和できることが示されています。

AIは、もはや脳の「ニューロン」という単純な概念を模倣する 3 段階を卒業しました。2025年現在のAIは、脳の「グリア細胞(アストロサイト)30、「全体構造(トポグラフィー)82、さらには「睡眠83 という、より高次のシステムレベル、あるいは分子レベルのメカニズムからインスピレーションを得る、新たな段階に入っているのです。

5.4 結論:AIと脳は「対立」から「協調・補完」へ

本レポートで詳細に論じてきたように、人工知能(AI)と人間の脳は、その根幹において全く異なる存在です。

  • 物質: シリコン vs. ウェットウェア 5
  • アーキテクチャ: フォン・ノイマン型 vs. インメモリ計算 9
  • 学習原理: バックプロパゲーション vs. 予測符号化/シナプス可塑性 13
  • 分子基盤: 存在しない vs. アストロサイト、ニューロモジュレーター、遺伝子発現 17
  • 主観体験: 哲学的ゾンビ vs. 意識 70

しかし、AIが脳と「違う」ことは、悲観すべきことでも、優劣をつけるべきことでもありません。5 は、AIを人間の知能(ヒューマン・インテリジェンス)という基準で測る「人間中心主義」的な見方自体を問い直す必要があると指摘します。

AIと脳は、その「違い」こそが価値を生み出す「相補的(Complementary)」な関係です 84

  • AIの強み: 人間を遥かに凌駕する膨大なデータ処理能力、計算速度、正確性、そして疲労を知らない持続的な注意力 42
  • 脳の強み: AIが苦手とする、曖昧なデータからの文脈理解、真の創造性、タスクを超えた一般化能力、未知の状況への柔軟な適応力 42、そして(今のところ)「意識」という主観的な体験。

AIが人間の知能を「模倣」し「置き換える」という未来像は、両者の本質的な違いを見誤っています。

2025年以降の未来のビジョンは、「人間の置き換え(対立)」ではなく、「人間とAIのシナジー(相乗効果)」です 80。AIと脳は、互いの「違い」を鏡として、共に進化していくパートナーなのです。

その具体的な未来像は、すでに始まっています。

  • ブレイン・コンピュータ・インターフェース(BCI): AIが人間の脳信号をリアルタイムでデコードし、失われた機能(運動、感覚、会話)を回復させる 80
  • コグニティブ・オーギュメンテーション(認知増強): AIが人間の認知状態(例:学生の集中度や理解度)をリアルタイムで読み取り、最適な教育コンテンツを提供する 74 など、AIが人間の認知能力そのものを「拡張」する 80

80 が示すように、AIと神経科学の融合は、単に脳の謎を解き明かすだけでなく、私たちが「人間であること」の意味を問い直し、「人間の潜在能力を再想像する(reimagining human potential)80 鍵となるのです。

引用文献

  1. A Comprehensive Review of Deep Learning: Architectures, Recent Advances, and Applications – MDPI, 11月 15, 2025にアクセス、 https://www.mdpi.com/2078-2489/15/12/755
  2. AI vs. Machine Learning vs. Deep Learning vs. Neural Networks | IBM, 11月 15, 2025にアクセス、 https://www.ibm.com/think/topics/ai-vs-machine-learning-vs-deep-learning-vs-neural-networks
  3. Brain-inspired Artificial Intelligence: A Comprehensive Review – arXiv, 11月 15, 2025にアクセス、 https://arxiv.org/html/2408.14811v1
  4. Human Brain Inspired Artificial Intelligence Neural Networks – IMR Press, 11月 15, 2025にアクセス、 https://www.imrpress.com/journal/JIN/24/4/10.31083/JIN26684/htm
  5. Human- versus Artificial Intelligence – PMC – PubMed Central, 11月 15, 2025にアクセス、 https://pmc.ncbi.nlm.nih.gov/articles/PMC8108480/
  6. Evaluation of the Hierarchical Correspondence between the Human …, 11月 15, 2025にアクセス、 https://pmc.ncbi.nlm.nih.gov/articles/PMC10604784/
  7. Learning from the brain to make AI more energy-efficient, 11月 15, 2025にアクセス、 https://www.humanbrainproject.eu/en/follow-hbp/news/2023/09/04/learning-brain-make-ai-more-energy-efficient/
  8. The Rise of Neuromorphic Computing: How Brain-Inspired AI is Shaping the Future in 2025, 11月 15, 2025にアクセス、 https://www.ainewshub.org/post/the-rise-of-neuromorphic-computing-how-brain-inspired-ai-is-shaping-the-future-in-2025
  9. How neuromorphic computing takes inspiration from our brains …, 11月 15, 2025にアクセス、 https://research.ibm.com/blog/what-is-neuromorphic-or-brain-inspired-computing
  10. Neuromorphic Computing: Innovations and Future Prospects, 11月 15, 2025にアクセス、 https://www.researchgate.net/publication/383441625_Neuromorphic_Computing_Innovations_and_Future_Prospects
  11. Self-backpropagation of synaptic modifications elevates the efficiency of spiking and artificial neural networks – PMC – NIH, 11月 15, 2025にアクセス、 https://pmc.ncbi.nlm.nih.gov/articles/PMC8528419/
  12. Brain-inspired Predictive Coding Improves the Performance of Machine Challenging Tasks – Frontiers, 11月 15, 2025にアクセス、 https://www.frontiersin.org/journals/computational-neuroscience/articles/10.3389/fncom.2022.1062678/full
  13. Inspires effective alternatives to backpropagation: predictive coding helps understand and build learning – PMC – NIH, 11月 15, 2025にアクセス、 https://pmc.ncbi.nlm.nih.gov/articles/PMC11881729/
  14. An approximation of the error back-propagation algorithm in a …, 11月 15, 2025にアクセス、 https://www.biorxiv.org/content/10.1101/035451v2
  15. Predictive Coding has been Unified with Backpropagation – LessWrong, 11月 15, 2025にアクセス、 https://www.lesswrong.com/posts/JZZENevaLzLLeC3zn/predictive-coding-has-been-unified-with-backpropagation
  16. Differentiable plasticity: training plastic neural networks with backpropagation – arXiv, 11月 15, 2025にアクセス、 https://arxiv.org/pdf/1804.02464
  17. Brain-inspired learning in artificial neural networks: A review | APL …, 11月 15, 2025にアクセス、 https://pubs.aip.org/aip/aml/article/2/2/021501/3291446/Brain-inspired-learning-in-artificial-neural
  18. Comparison of Hebbian Learning and Backpropagation for Image Classification in Convolutional Neural Networks – kth .diva, 11月 15, 2025にアクセス、 https://kth.diva-portal.org/smash/get/diva2:1795928/FULLTEXT01.pdf
  19. Predictive coding – Wikipedia, 11月 15, 2025にアクセス、 https://en.wikipedia.org/wiki/Predictive_coding
  20. Predictive coding under the free-energy principle – Wellcome Centre for Human Neuroimaging, 11月 15, 2025にアクセス、 https://www.fil.ion.ucl.ac.uk/~karl/Predictive%20coding%20under%20the%20free-energy%20principle.pdf
  21. Predictive coding under the free-energy principle – PMC – PubMed Central – NIH, 11月 15, 2025にアクセス、 https://pmc.ncbi.nlm.nih.gov/articles/PMC2666703/
  22. How The Brain Makes Predictions | Karl Friston – YouTube, 11月 15, 2025にアクセス、 https://www.youtube.com/watch?v=dM3YINvDZsY
  23. Theories of Error Back-Propagation in the Brain – PMC – NIH, 11月 15, 2025にアクセス、 https://pmc.ncbi.nlm.nih.gov/articles/PMC6382460/
  24. [2202.09467] Predictive Coding: Towards a Future of Deep Learning beyond Backpropagation? – arXiv, 11月 15, 2025にアクセス、 https://arxiv.org/abs/2202.09467
  25. Predictive Coding as Backprop and Natural Gradients – Beren’s Blog, 11月 15, 2025にアクセス、 https://www.beren.io/2020-09-12-Predictive-Coding-As-Backprop-And-Natural-Gradients/
  26. An Approximation of the Error Backpropagation Algorithm in a Predictive Coding Network with Local Hebbian Synaptic Plasticity – PMC – NIH, 11月 15, 2025にアクセス、 https://pmc.ncbi.nlm.nih.gov/articles/PMC5467749/
  27. On the relationship between predictive coding and backpropagation | PLOS One, 11月 15, 2025にアクセス、 https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0266102
  28. Predictive Coding: Towards a Future of Deep Learning beyond Backpropagation? – IJCAI, 11月 15, 2025にアクセス、 https://www.ijcai.org/proceedings/2022/0774.pdf
  29. AI Reveals Astrocytes Play a ‘Starring’ Role in Dynamic Brain … – FAU, 11月 15, 2025にアクセス、 https://www.fau.edu/newsdesk/articles/dynamic-brain-function.php
  30. Large memory storage through astrocyte computation – IBM Research, 11月 15, 2025にアクセス、 https://research.ibm.com/blog/astrocytes-cognition-ai-architectures
  31. AI models are powerful, but are they biologically plausible? – MIT News, 11月 15, 2025にアクセス、 https://news.mit.edu/2023/ai-models-astrocytes-role-brain-0815
  32. Modelling the Impact of Glial Cells on Neural Computation – Frontiers, 11月 15, 2025にアクセス、 https://www.frontiersin.org/research-topics/71278/modelling-the-impact-of-glial-cells-on-neural-computation
  33. Emerging Role of Neuron-Glia in Neurological Disorders: At a Glance – PubMed Central, 11月 15, 2025にアクセス、 https://pmc.ncbi.nlm.nih.gov/articles/PMC9423989/
  34. Neuromodulators and Long-Term Synaptic Plasticity in Learning and Memory: A Steered-Glutamatergic Perspective – MDPI, 11月 15, 2025にアクセス、 https://www.mdpi.com/2076-3425/9/11/300
  35. Neural Correlates and Molecular Mechanisms of Memory and Learning – PubMed Central, 11月 15, 2025にアクセス、 https://pmc.ncbi.nlm.nih.gov/articles/PMC10931689/
  36. Adaptive control of synaptic plasticity integrates micro- and macroscopic network function, 11月 15, 2025にアクセス、 https://pmc.ncbi.nlm.nih.gov/articles/PMC9700774/
  37. The role of synaptic ion channels in synaptic plasticity | EMBO reports – EMBO Press, 11月 15, 2025にアクセス、 https://www.embopress.org/doi/10.1038/sj.embor.7400830
  38. Transcription Factors in Long-Term Memory and Synaptic Plasticity …, 11月 15, 2025にアクセス、 https://journals.physiology.org/doi/abs/10.1152/physrev.00017.2008
  39. Decoding brain memory formation by single-cell RNA sequencing – Oxford Academic, 11月 15, 2025にアクセス、 https://academic.oup.com/bib/article/23/6/bbac412/6713514
  40. Gene expression changes in long-term memory unlikely to replicate in the long term | bioRxiv, 11月 15, 2025にアクセス、 https://www.biorxiv.org/content/10.1101/2024.07.22.604349v1
  41. Long‐Term Memory Engrams From Development to Adulthood – PMC – PubMed Central, 11月 15, 2025にアクセス、 https://pmc.ncbi.nlm.nih.gov/articles/PMC12326896/
  42. AI vs Human Mind: Understanding the Primary Differences and Features – Medium, 11月 15, 2025にアクセス、 https://medium.com/@chathunrajcreations/ai-vs-human-mind-understanding-the-primary-differences-and-features-dc2cfb452894
  43. What is the difference between the human brain and an artificial intelligence designed to imitate human emotions? – Quora, 11月 15, 2025にアクセス、 https://www.quora.com/What-is-the-difference-between-the-human-brain-and-an-artificial-intelligence-designed-to-imitate-human-emotions
  44. Neurobiological underpinnings of emotions – PMC – NIH, 11月 15, 2025にアクセス、 https://pmc.ncbi.nlm.nih.gov/articles/PMC8611534/
  45. Amygdala: What It Is and What It Controls – Cleveland Clinic, 11月 15, 2025にアクセス、 https://my.clevelandclinic.org/health/body/24894-amygdala
  46. Neuroanatomy, Amygdala – StatPearls – NCBI Bookshelf – NIH, 11月 15, 2025にアクセス、 https://www.ncbi.nlm.nih.gov/books/NBK537102/
  47. The neurobiology of emotion–cognition interactions: fundamental questions and strategies for future research – Frontiers, 11月 15, 2025にアクセス、 https://www.frontiersin.org/journals/human-neuroscience/articles/10.3389/fnhum.2015.00058/full
  48. Neuroscience: Decoding the neurologic basis of emotions, 11月 15, 2025にアクセス、 https://www.medlink.com/news/neuroscience-decoding-the-neurologic-basis-of-emotions
  49. Affective computing – Wikipedia, 11月 15, 2025にアクセス、 https://en.wikipedia.org/wiki/Affective_computing
  50. Emotion AI, explained | MIT Sloan, 11月 15, 2025にアクセス、 https://mitsloan.mit.edu/ideas-made-to-matter/emotion-ai-explained
  51. Emotional delusion: Why we believe AI likes us – IAPP, 11月 15, 2025にアクセス、 https://iapp.org/news/a/emotional-delusion-why-we-believe-ai-really-likes-us
  52. A Survey of Theories and Debates on Realising Emotion in Artificial Intelligence – arXiv, 11月 15, 2025にアクセス、 https://arxiv.org/html/2508.10286v2
  53. Can emotions be an emergent property in artificial systems like they were in biological? If not why? – Reddit, 11月 15, 2025にアクセス、 https://www.reddit.com/r/artificial/comments/13o0aj1/can_emotions_be_an_emergent_property_in/
  54. Capacity of Generative AI to Interpret Human Emotions From Visual and Textual Data: Pilot Evaluation Study – NIH, 11月 15, 2025にアクセス、 https://pmc.ncbi.nlm.nih.gov/articles/PMC10879976/
  55. Scientists have found that AI understands emotions better than we do — scoring much higher than the average person at choosing the correct response to diffuse various emotionally-charged situations : r/psychology – Reddit, 11月 15, 2025にアクセス、 https://www.reddit.com/r/psychology/comments/1lim2xq/scientists_have_found_that_ai_understands/
  56. The Good, The Bad, and Why: Unveiling Emotions in Generative AI – arXiv, 11月 15, 2025にアクセス、 https://arxiv.org/html/2312.11111v3
  57. Scientists race to unlock the mystery of consciousness as AI surges ahead, 11月 15, 2025にアクセス、 https://www.openaccessgovernment.org/scientists-race-to-unlock-the-mystery-of-consciousness-as-ai-surges-ahead/200635/
  58. AI versus Human Consciousness: A Future with Machines as Our Masters? – Article, 11月 15, 2025にアクセス、 https://renovatio.zaytuna.edu/article/ai-versus-human-consciousness
  59. Conscious artificial intelligence in service – Emerald Publishing, 11月 15, 2025にアクセス、 https://www.emerald.com/josm/article/doi/10.1108/JOSM-12-2024-0536/1304514/Conscious-artificial-intelligence-in-service
  60. A review of neuroscience-inspired frameworks for machine consciousness, 11月 15, 2025にアクセス、 https://accscience.com/journal/AIH/2/3/10.36922/aih.5690
  61. Journal of Artificial Intelligence and Consciousness – World Scientific Publishing, 11月 15, 2025にアクセス、 https://www.worldscientific.com/worldscinet/jaic
  62. Global workspace theory – Wikipedia, 11月 15, 2025にアクセス、 https://en.wikipedia.org/wiki/Global_workspace_theory
  63. Global Workspace Theory (GWT): A Theory of Consciousness | by NJ Solomon | Medium, 11月 15, 2025にアクセス、 https://eyeofheaven.medium.com/global-workspace-theory-gwt-a-theory-of-consciousness-40d0472d07fa
  64. Conscious Processing and the Global Neuronal Workspace Hypothesis – PMC, 11月 15, 2025にアクセス、 https://pmc.ncbi.nlm.nih.gov/articles/PMC8770991/
  65. Fame in the Brain—Global Workspace Theories of Consciousness | Psychology Today, 11月 15, 2025にアクセス、 https://www.psychologytoday.com/us/blog/finding-purpose/202310/fame-in-the-brain-global-workspace-theories-of-consciousness
  66. The Enigma of AI Consciousness: Bridging the Gap Between Intelligence and Awareness | by Make Computer Science Great Again | Medium, 11月 15, 2025にアクセス、 https://medium.com/@MakeComputerScienceGreatAgain/the-enigma-of-ai-consciousness-bridging-the-gap-between-intelligence-and-awareness-e03ce87ce40e
  67. A Traditional Scientific Perspective on the Integrated Information Theory of Consciousness, 11月 15, 2025にアクセス、 https://pmc.ncbi.nlm.nih.gov/articles/PMC8224652/
  68. Integrated Information Theory: A Way To Measure Consciousness in AI? – AI Time Journal – Artificial Intelligence, Automation, Work and Business, 11月 15, 2025にアクセス、 https://www.aitimejournal.com/integrated-information-theory-a-way-to-measure-consciousness-in-ai/
  69. 4 theories of consciousness for the age of accelerating AI – Ross Dawson, 11月 15, 2025にアクセス、 https://rossdawson.com/theories-consciousness-age-ai/
  70. Integrated Information Theory of Consciousness | Internet Encyclopedia of Philosophy, 11月 15, 2025にアクセス、 https://iep.utm.edu/integrated-information-theory-of-consciousness/
  71. Artificial intelligence, human cognition, and conscious supremacy – Frontiers, 11月 15, 2025にアクセス、 https://www.frontiersin.org/journals/psychology/articles/10.3389/fpsyg.2024.1364714/full
  72. Neuromorphic Computing 2025: Current SotA – human / unsupervised, 11月 15, 2025にアクセス、 https://humanunsupervised.com/papers/neuromorphic_landscape.html
  73. A Survey on Neuromorphic Architectures for Running Artificial Intelligence Algorithms, 11月 15, 2025にアクセス、 https://www.mdpi.com/2079-9292/13/15/2963
  74. The future of brain-machine synchronisation – Polytechnique Insights, 11月 15, 2025にアクセス、 https://www.polytechnique-insights.com/en/columns/science/the-future-of-synchronising-brain-and-machine/
  75. The Human Connectome Project: AI-Enhanced Brain Mapping and Neurological Insights, 11月 15, 2025にアクセス、 https://editverse.com/neuroscience-ai/
  76. Informatics and data mining tools and strategies for the human connectome project, 11月 15, 2025にアクセス、 https://research.sahmri.org.au/en/publications/informatics-and-data-mining-tools-and-strategies-for-the-human-co/
  77. Artificial intelligence role in advancement of human brain … – Frontiers, 11月 15, 2025にアクセス、 https://www.frontiersin.org/journals/neuroinformatics/articles/10.3389/fninf.2024.1399931/full
  78. Artificial intelligence role in advancement of human brain connectome studies – PMC, 11月 15, 2025にアクセス、 https://pmc.ncbi.nlm.nih.gov/articles/PMC11450642/
  79. Researchers combine the power of AI and the connectome to predict brain cell activity, 11月 15, 2025にアクセス、 https://www.janelia.org/news/researchers-combine-the-power-of-ai-and-the-connectome-to-predict-brain-cell-activity
  80. Artificial Intelligence and Neuroscience: Transformative Synergies in …, 11月 15, 2025にアクセス、 https://www.mdpi.com/2077-0383/14/2/550
  81. Large Language Models 2024 Year in Review and 2025 Trends …, 11月 15, 2025にアクセス、 https://www.psychologytoday.com/us/blog/the-future-brain/202501/large-language-models-2024-year-in-review-and-2025-trends
  82. Brain-Inspired AI Breakthrough Spotlighted at Global Conference, 11月 15, 2025にアクセス、 https://www.gatech.edu/news/2025/06/26/brain-inspired-ai-breakthrough-spotlighted-global-conference
  83. Neuroscience-Inspired Artificial Intelligence – Johns Hopkins APL, 11月 15, 2025にアクセス、 https://www.jhuapl.edu/work/projects-and-missions/neuroscience-inspired-artificial-intelligence
  84. Complementarity in Human-AI Collaboration: Concept, Sources, and Evidence – arXiv, 11月 15, 2025にアクセス、 https://arxiv.org/html/2404.00029v1
  85. Full article: Complementarity in human-AI collaboration: concept, sources, and evidence, 11月 15, 2025にアクセス、 https://www.tandfonline.com/doi/full/10.1080/0960085X.2025.2475962
  86. Artificial Intelligence vs. Human Intelligence: Which Excels Where and What Will Never Be Matched, 11月 15, 2025にアクセス、 https://sbmi.uth.edu/blog/2024/artificial-intelligence-versus-human-intelligence.htm
  87. AI vs Human Intelligence: Key Differences and Insights – Simplilearn.com, 11月 15, 2025にアクセス、 https://www.simplilearn.com/artificial-intelligence-vs-human-intelligence-article
  88. AI reshaping life sciences: intelligent transformation, application challenges, and future convergence in neuroscience, biology, and medicine – Frontiers, 11月 15, 2025にアクセス、 https://www.frontiersin.org/journals/digital-health/articles/10.3389/fdgth.2025.1666415/full
よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!
目次