思考の芽を育てる伴走者は?
~九段理江さんに学ぶ、ChatGPTとの付き合い方~  

はじめに:問いを急ぐ時代に

生成AIとの対話が日常化しつつある今、私たちはいつでも、どんな疑問にも『それらしい答え』を返してくれる便利さのなかに生きています。 ChatGPTに聞けば、たいていの疑問には明快な文章が返ってきます。

そして最近では、ChatGPTを検索やデータ整理の支援だけでなく、アイディアの壁打ちや相談相手として使う人も増えています。私もその一人で、ブログのアイディアを深掘りしたり、新しいセミナーやワークショップの企画を練るとき、ChatGPTを気軽な壁打ちの相手にしています。

生成AIとの対話は相手への気遣いも不要で、思ったことや感じたことを遠慮なくぶつけられます。また、相手からも自然で優しい返答がすぐに返ってきます。対話の流れはスムーズで、どこか安心感さえあります。

そんなやり取りを繰り返すうちに、ふと疑問が湧いてきました。

「この心地よさは、本当に『対話』と言えるのだろうか?」

そんな違和感を感じていた時に出会ったのが、『東京都同情塔』で芥川賞を受賞された九段理江さんでした。

 

言葉に対する丁寧さを忘れた人々

『東京都同情塔』は芥川賞を受賞したことに加え、『ChatGPTの文章を使用した』ということでも話題になりました。作品のなかではAI-builtという生成AIと主人公とのやり取りが度々登場しています。物語の中で主人公(牧名沙羅)は、生成AIの回答に対して違和感を感じたり、苛立ちを見せます。その理由は言葉そのものを非常に大切にする主人公と、どこか表面的に言葉を繋いだだけの回答をする生成AIの対比から来るように感じました。

九段さんの『しをかくうま』も読んでみましたが、共通して日本人の言葉に対する軽薄さへの危機感を強く伝えているように感じました。そして日本人が言葉を大切にしなくなってきているという、自己認識や危機感を持っていないことに警鐘を鳴らしているのだと理解しました。

私が感じていたChatGPTとのやり取りへの違和感の正体が、まさに人間と生成AIとの言葉に対する捉え方の違いなのだと気付かされました。

 

AIは『言葉を使い』、人間は『言葉を感じる』

ChatGPTとのやり取りを通して、人間と生成AIの決定的な違いにたどり着きました。それは、言葉に対する『意味の持ち方』です。

  • 人間は、経験・感情・身体感覚を通して言葉を理解し、意味を捉えます。たとえば『海』という言葉には、潮風の匂いや砂の感触、家族や恋人と過ごしたある夏の記憶が含まれています。
  • 一方AIは、『海』という言葉が『青い』、『波』、『砂浜』とどれくらいの確率で一緒に使われているか、という統計的な関係から『意味らしきもの』を推定するにすぎません。

AIは言葉の『使い方』には長けていますが、その『手触り』や『余韻』を感じることはできません。だから、AIとのやり取りがどれほど自然でも、その対話はあくまで『データベース上にある過去の平均的な姿』にすぎず、人間が期待している本来の対話は成り立たないのです。

 

人の想像性や個性を殺してしまう危険性

AIと人間の言葉や対話に対する意味の違いに気づいた時、生成AIの特性を理解せずに壁打ちや相談相手に使うことの危うさを感じました。

そこであるとき、私はこんな問いをChatGPTに投げかけました:

「生成AIを使って、まだ曖昧な想いや考えを引き出してもらうのは危険ではないか? 逆に『平均的な人間像』に押し込まれ、本人もそれに納得してしまうのでは? 生身の人間が相手だと、間を取ってさらに考えさせたり、表情や曖昧な言葉から言い換えて意図を明確にしたりしてくれる。」

これに対して、ChatGPTはこう答えました:

「合っています。AIは“過去に存在した表現のパターン”をもとに、最も“自然でありそうな”言葉を出力します。 その結果、ユーザーは“それっぽい言葉”に納得してしまい、 本来持っていたはずの独自の感情や問いが“標準的でありきたりな意味にされてしまう”危険があります。」

私はここで、強く腑に落ちました。AIは、問いかければ確かに返してくれます。だがそれは、あくまで『過去の人間が言いそうなこと』の再構成でしかありません。

ブログ『なぜ星野リゾートは真似されても強いのか?』で紹介した星野氏の『経営においてAIは信用していない』という発言とも通じます。星野氏も、日本におけるAIの誤った使われ方への危機を感じての発言だったのでしょう。

 

正解主義がAIと結びつく危うさ

特に日本では、『正しい答えを出すこと』が長らく評価されてきました。学校教育で優秀とされてきた人たちの多くは、『問いを立てる力』よりも『模範解答にたどり着くスピード』を磨いてきたとも言えるのではないでしょうか。

そうした思考パターンを持つ人ほど、生成AIの『それっぽい答え』に過剰な信頼を寄せてしまいます。

『これが答えなのかもしれない』ではなく、 『これが答えだ」と思ってしまう瞬間。

そのとき、私たちは思考を止めてしまいます。疑問を持つことや考え続けることを、やめてしまうのです。

 

AI時代にこそ求められる『対話力』と『問いの力』

だからこそ、生成AIと人間との対話の違いを認識し、必要に応じて使い分けることが重要になります。

自分の考えや感情があいまいな状態で、自分の奥底にあるものを引き出して欲しい時には、生身の人間との対話が適切なことが多いです。人間はいきなり統計から導き出した標準回答に押し込めるのではなく、あなたの話に耳を傾け、あなたの言葉の芽を見つけ育ててくれます。

そしてあなたの考えや感情を言語化できた後は、生成AIとの対話を通して内容を論理的に整理したり不足点を更に補うことができるようになります。

こういった人間とAIの違いを踏まえると、今必要なのは次のような力だと思います。

  • 物事を疑ってみる力:
    AIが返す言葉に違和感を持てる感性と意識。そしてそのためには、別の視点もあるのではと気づける幅広い好奇心や、他のこととの関係性を見つけられる統合力などが必要になります。
  • 考えを引き出す力(言葉にならないものに寄り添い、言語化する力)
    相手の話した内容を、そのまま言葉としてまとめるだけではAIと変わりません。相手が話したいと思える場を作り、相手を理解したいという気持ちで、非言語的な表現からも思考や感情の揺らぎを拾い、間を取り相手に考えさせ、相手と一緒に言語化していく伴走者がますます求められます。
  • 効率化の対象とそれ以外を区別する姿勢
    日々の仕事においては、正確に効率よく処理することが求められる作業的な内容と、時間を取ってでもしっかりと考えるべきテーマ(ビジョンや目的、戦略、また人に関することなど)を区別します。そして後者に対しては正解を急がず、しっかりと向き合う心と時間のゆとりを持てるかが決定的な差を生みます。

生成AIは、決して敵ではありません。ただしそれは、『思考を引き出す伴走者』ではなく、『自ら疑問を持ち問い続ける姿勢を持ち、自分の考えの抜け漏れを見つける確認役』として使うときに限られます。

 

おわりに:AIに問いかける前に、自分に問いかける

あなたがChatGPTに問いかけようとするとき、その前に一度、こう問い直してみてほしいです。

「私は何を知りたいのか?そもそもなぜそれを知りたいのか? どこが、まだ言葉になっていないのか?
本当に求めているのは『答え』なのか、それとも『対話による伴走』なのか?」

生成AIとの対話は、思考を言語化する役にも立ちます。けれど、その道具を上手く使えるかは、あなた自身の問い方次第です。

自分の言葉を、自分の問いを、生きたものとして育て続けること。 それこそが、AIと共に生きる時代における『人間の力』ではないでしょうか。

ChatGPTとの対話の前に生身の人間と対話したいと思った時には、ぜひ周りにいる信頼できる人に相談することを勧めたいです。
もちろんその時、私という選択肢が浮かんだあなたには、連絡をもらえるととても嬉しいです。