おがわの音♪ 第1403 版の配信★


なぜChatGPTに知性が感じられないのか

日進月歩の進化を遂げているAI。中でもChatGPTの登場は私たちを大いに驚かせました。そんなチャットサービスについて、「優れているが知性はない」と言い切るのは、文筆家の倉下忠憲さん。

今回、そう判断せざるを得ない理由を解説するとともに、「考える」という行為の重要性を指摘しています。 記事一部抜粋



優れているが知性はない。AIと思考」について考える

ChatGPTはすぐれた性能を持っていますが、そこに「知性」を感じることはありません。すごく使い勝手のよいUIがある、という感覚があるだけです。端的に言えば、彼らは「考えて」いないのです。

倉下は、「思う」と「考える」を区分しました。

「思う」は直感的な情報処理で、「考える」そこから一歩引いた情報処理です。

この区分のポイントは、「直感的」は必ずしも「感情的」とイコールなわけではない、という点です。

あくまで脳内の処理において意識を介在しないで発動されるという意味において「直感的」なものであり、その内実は問わないのです。プロスポーツ選手を見ればわかるように、習熟した状態では相当に複雑な行為も「身体化」が可能です。

あれらの行動を逐一意識して行っていたら、スピードがまったくついてこないでしょう。

同じことは認知的反応にも起こります。たとえば、「1+1=」という式を見たら「2」という答えがぱっと思い浮かぶでしょう。1という数字の1つ次は2だから答えは2である、という演算は行われていないと思います。

それと同じように、コンピュータが好きな人なら、「16×16=」という式を見たら「256」という答えがぱっと思い浮かぶでしょう。これもかけ算を展開しているのではなく、直感的に答えが浮かんでいるのだと思います。

当初は意識的に計算が行われていたとしても、ある程度経験を積むことで、その中身をショートカットし、一気に「答え」にアクセスすること。

それはつまり、何かしらの式・問題を目にしたときに、連想的に答えを思い浮かべることとイコールです。

そうした連想的解答は、決まり切った数式だけでなく、あらゆる反応に出てきます。

人間関係に言及するときでも、時事問題に言及するときでも、提示された情報から連想される何かしらの「適切」な答えを口にしているのです。

ChatGPTがやっていることも基本的には同じでしょう。

膨大な量の学習があり、その連想がきわめて適切に行えるから人間と同じように会話できる。

その意味で、その連想関数はたしかに人間の知性と等しいと言えるかもしれません。

これは、ChatGPTが高度な知性を獲得したというのではなく、人間の知性が予想されるよりも低レベルで展開できたというだけの話です。

しかし、だからといってChatGPTが「考えている」とは言えません。

それはつまり、人間は一般的に「考えている」とは言えない、と言っていることに等しいわけですが、まさにそのような主張を今私はしています。

私たちの生活の大半は「思う」だけで構成されているのです。

内面化・身体化された反応と習慣で日常は問題なく過ごせるのです。この世界が固定的・静的であり、新しいアイデアを求めないような環境ならば、きっとChatGPTでも過不足なく日常を過ごせるでしょう。

しかし、現実の環境は違います。さまざまな変化が予期せぬ形でやってきます。そこでは身体化された反応と習慣だけではうまくいきません。

そんなとき、私たちの「考える」が起動します。

直感的な反応を抑制して、そこから全体的な状況を俯瞰し、選択肢を確認し、必要であれば新たな選択肢が作れないかを検討しますこのとき、人間の視点は目の前にある事象(現実的に目に反射光が入ってくる物事)から離れて、メタな視点へと移行します。

自分が何を思い浮かべているのかを探り、自分が何を知っているのかを知ろうとし、自分がどうしたいのかを見出そうとしますその際には、さまざまな道具が意識的に用いられます論理や推論の概念的道具です。それらを用いながら、未知なる状態に対応しようと試みます。

だからこそ、そうした概念道具の利用が「知性」なのだと把握されるのですが、しかしそうした道具の利用も繰り返されるとやがて内面化し、意識的な努力は不要なります。つまり習慣になり、無意識な連想で処理されるようになります。

ここには「考える」という行為はありません単に(高度に)反応しているだけです。

「考える」とは、蓄積された連想的反応では対処できないことを自覚し、意識的にそれとは別の答えを求めようとする姿勢です。その中には、自分の確信の度合いを引き下げたり、保留をつけたり、自分の意見に疑問を持ったりといった「作用」が含まれるでしょう。言い換えれば、自分の理解に自覚的になっている状態がそこにはあるわけです。

ChatGPTに、それはあるでしょうか。

もし彼らが、こちらからの質問にすらすらと解答するのではなく、答えを出力しながら「いや、ちょっと待ってくださいね。この答えは違うかもしれません」などと書き込んできたら、私も彼らに知性を感じることでしょう。

そこでは「考える」という作業が行われているのだと推論するはずです。

しかし、現実の彼らは驚くほどすらすらと解答してくれます。まるでテレビの文化人が自分の専門外のことでも躊躇なく解答しているかのようです。

ポイントは「自覚」であり、それが「考える」という行為と密接に関わっています

自分の“出力”を並走的に自覚し、フィードバックを与えられるかどうか。それがあれば「考える」があると言え、新しい状況に自らで対応していけると想定できます。

上記の想定では、知性的な返答がそこにあるのかどうかに「考える」は関係していません。

私たち人間でも、ほとんど「考え」なしにそれっぽい応対が可能だと考えれば、別段不思議な話ではないでしょう。

その意味で「考える」とは、そこで行われている内容の(あるいはその質の)話ではなく、ある状態の話なのです。

人間の脳はその状態を持つことができます。そして、そのことが「人間の生」に深く関わっています。

決まり切った情報処理においては、上記のような「考える」はまったく不要です。でもそれだけでは済まない場面がきっと出てくるでしょう。

 

そうしたときに「考える」という力はきわめて重要なものになります。AIを巡る話では、この点はぜひとも覚えておきたいところです。




メール・BLOG の転送厳禁です!!  よろしくお願いします。