
人間の脳はどのように言葉を処理しているのでしょうか。エヴ・フェドレンコ博士の研究が解き明かす「言語ネットワーク」の構造と、大規模言語モデル(LLM)との意外な類似点についてお伝えします。
フェドレンコ博士の研究により、脳内に存在する「言語ネットワーク」の全貌が明らかになりつつあります。このネットワークは、言葉とその意味の関連や単語を組み合わせるルールを保持する領域で構成されており、脳内のあらゆる意味の地図として機能し、外部の知覚と脳内の他領域の情報を翻訳する役割を果たします。
具体的には、左前頭葉の3つの領域と中側頭回の2つの領域から成り、約1,400人の被験者のデータから言語処理において重要であることが示されています。伝統的に言語処理と関連付けられてきたブローカ野は、実は発話の運動計画に関与し、言語ネットワークからの情報を受け取る下流の領域として位置づけられます。
興味深いのは、この研究がLLMとの類似点を示唆している点です。LLMは膨大なデータからパターンを学び文法的な文章を生成しますが、意味理解は持ちません。人間の脳も同様に、言語の構造を解析しつつ、深い意図や思考は他の脳の領域で行われています。
出典:quantamagazine.org
ChatGPTなどのLLMが身近になった今、「AIは言葉を本当に理解しているのか」という問いは多くの日本人も抱えているはずです。人間の脳の言語処理の仕組みを知ることで、AIとの付き合い方にも新しい視点が得られるでしょう。
言語が思考の根底にあるのか、あるいは別のプロセスなのか。フェドレンコ博士が挑むこの問いは、AIの進化が加速する今だからこそ、私たちの言語と認知の関係を見つめ直す手がかりとして紹介する意義があると考えました。