『意識』について #4

Couger Team
Couger
Published in
Feb 7, 2024

バーチャルヒューマンラボ副所長の手記を複数回に渡り公開中です。できるだけ人間に近い処理をするシステムを作り、社会の役に立てたい、そのためにどうすればいいかを考察した記録です。過去の手記: #1, #2, #3

知覚プロセス

意味的情報に量的情報を加える
高度な推論を行うための量的な計算をする?

・空間的・時間的な量を計算

・主観的な感覚を作るための量を計算

ウェーバー・フェヒナーの法則などで物理量と感覚量は正比例していないことがわかっている。

ウェーバー・フェヒナーの法則 (Weber-Fechner Law)

・同種類の2つの刺激を区別しうる最小差異(識別閾)はその時の刺激強度に比例する

明るさや重さが変わったと感じられる刺激の変化量は、刺激が強くなればなるほど増加する
光の強さ(ルクス)を2倍、3倍と上げていっても、人間の明るさの感覚(まぶしさ)は2倍、3倍にならない
刺激量が増えるほど変化を感じにくくなっていく

計測する量はどのようなものが考えられるか

・物体のサイズ・距離・位置関係の計測など空間に関する量 ※これは知覚プロセスではない可能性も?

・時間が経過したという感覚の量

・光を認識したときに眩しさの感覚の量

・音を認識したときのうるささの感覚の量

・痛覚を認識したときの痛さの感覚の量

・物体を叩いたり、握ったりしたときの硬さの感覚の量 (実際の硬度ではなく、硬いと感じる量)

・物体を押したり、抱えたときの重さの感覚の量 (実際の重量ではなく、重いと感じる量)

「またぐ」と「くぐる」の境界

走り高跳びのバーを見た時、「またぐ」か「くぐる」を選ばなくてはならないとする実験。
身長に関わらず、バーの高さが足の長さに対して1.07倍以上になると「くぐる」になる。
行動選択(意思決定)の前にバーの高さと自身の足の長さの情報をすでに持っているということか。
認知プロセスでまたげない・くぐれないを推論して決定するための量を知覚プロセスで得る。
(※知覚と認知は概念としては分かれているが、観測できない内部の処理なので1つ処理である可能性もある)

認知プロセス

意味的情報と量的情報を基に高度な推論を行う

2つの基礎的な推論がある
予測 現在認識している情報を基に未来(結果・見通し)がどうなるかを推測する

想像 現在認識している情報と過去に認識した情報を組み合わせるとどうなるかを推測する

これらを組み合わせてさらに高度な推論を行う

状況把握 課題の進行具合などの現在の状況の推定

感情推定 他者(ペットなどの動物も含む)の気持ちの推定

倫理推定 社会的に良いことか悪いことかの推定

道具使用 道具の使い方の推定

高度な推論により、未知の概念の推論や、組み合わせで新しい概念を推論することがある

・これらは後に選別過程を経て長期記憶に保存されることがある

・保存される場合は潜在空間の修正が行われる (学習済みモデルをファインチューニングするイメージ)

高度な推論はメモリ限界のようなものがある?もしくは時間が決まっている?

・推論で得た情報を基にまた推論…のようにやろうと思えば、無限に続くような気がするので、何かの区切りが必要

・推論で得た情報から推論するのは3周までとかかもしれない

関節構造の理解と高度な推論

感覚情報(主に視覚・触覚)から物体の関節構造を概念として獲得する空間があり、道具使用はこれを基に行われていると思われる。

他にも動詞の理解やクリエイティブな活動など人間の知性の一面が、関節構造の理解(獲得)から説明できる。

道具使用
同じ関節構造ならサイズが変わっても同じ動作を適用できる

-ドアの関節構造を学習すれば、開け方の理解(想像)に繋がる

-力を加える動作を適用することでドアを蹴って開けるというような閃き(想像)にも繋がる

-開け方という動作を学習すれば、部分的に同じ関節構造を持つ電子レンジに適用して開けることができる

世界に存在しない道具も想像の中で扱えるはず、例えばコーヒーカップの取っ手がドアになっているものとか
→指でドアを押して開いてから、取っ手に指を通して持つ

動き(モーション・アニメーション)の獲得関節構造の動き(時間的な位置・向きの情報)から、動き部分だけを取り出すことができるようになる
動きは相対座標の情報なので、関節構造が同じ(部分的に同じも含む)なら、同じ動きを適用できる

-「人間の手~肩」と「蛇の口~尻尾」の関節構造が似ているため投げる動きを適用して、口で咥えたボールを投げる蛇が想像ができる
動きの獲得は動詞の記号接地であり、動詞の理解に繋がる

-「開く」「曲げる」「巻く」「畳む」「絞る」などの動詞は関節構造体に対する動作として理解できる

連想と創造性
関節構造の潜在空間では、関節構造が近いものが近くにある

-「本」と「蝶」は言語空間では遠い存在だが、関節構造空間では近いはず

-これによって「本」に「蝶の動き」を適用して、本がパタパタ飛んでいるような映像が出力(連想)できる

-このように潜在空間の情報の多さ(理解の深さ)によって、創造性が高まるのではないだろうか

対話型AIが理解しているもの

対話型AIは大量の文章データから単語の出現パターンを学習して、文を生成している。しかし、人間はこのようなことはしていない、だからAIは本当の意味での理解はしていないという批判がある。
確かにこれは中国語の部屋の人物であり、計算問題の計算過程と答えを丸暗記して答えているようなものだ。

そう考えると、たぶん、返答パターンの生成に使うのは無理があるというか、Deep Learningの使い方が間違っているのではないだろうか。ただ、単語の出現パターンや穴埋め問題で理解しているものがあると思う。それは品詞や活用、文法など言語学でいう統語論(Syntax)。

最近のAIでは単語の使い方や文法がおかしいことがほとんどない。
人間は違和感がないこと(自然なこと)は指摘しなくなるので、文章自体の意味がわからないという指摘はほとんどなくなっているはず。

内容がおかしいとか間違っているという指摘になってる、それってかなり進歩しているということなんじゃないだろうか。 (対話型AIの問題点につづく)

中国語の部屋

哲学の思考実験。
中国語が全くわからない人を部屋に入れて、外から中国語で書かれた紙を入れる。
部屋の中の人は紙に中国語を書き足して部屋の外に返すのが仕事である。部屋にはマニュアルがあり、中国語のあらゆる文字列パターンに対する返答用の文字列が全て載っている。
返答をこなしていけば、部屋の外の人は中の人が中国語を理解していると考えるが、中の人は中国語は全くわからない。
それでも外から見れば対話が成立しているように見えることから、対話型AIやチューリングテストへの批判でよく持ち出される。

対話型AIの問題点

コンテクストの理解が足りない
潜在空間が足りてないし、高度な推論ができてない

情報伝達ゲームに参加していない
言語によるコミュニケーションは情報伝達ゲームである
自分が伝えたい情報を言語に変換して伝達する (39bpsで転送するという激遅通信)

-音声でも文字でも伝達速度はあまり変わらない (日本語で話す6–7文字/秒、読む6.6–10文字/秒)

-言語間の時間あたりの情報量もあまり変わらないらしい (英語が少しだけ多くて、日本語は平均値)

それが相手の頭の中で言語がデコードされて元の情報に戻ることを目指している
これに参加して攻略(強化学習)を行うことで、精度があがるのではないだろうか

-自己学習を行うなら、伝達できたかどうかを評価する仕組みが必要か
※ということを考えているうちにChatGTPのような深層強化学習をしたモデルが登場しつつある

伝えたい情報を生成するシステムがない
ここが一番の問題点で、結局AIには質問に対する回答以外に伝えたい情報がない (動機がない)

-返答する内容を生成するのに語順パターンを学習したモデルを使うという考え自体が間違っているように思える

これを解決するにはタスク・目的・目標を生成する仕組みが必要なのではないだろうか

-例えば、面白い人だと思われたいというような具体的ではない目標でも良い

-何かあれば実現するためのプランニングができるはずで、伝えたい情報が生まれるはず

--

--

Couger Team
Couger
Editor for

We develop next generation interface “Virtual Human Agent” and XAI(Explainable AI).