ChatGPTを使うことによる検索(別のAIツールを使ってもいいですが)は、単純なブラウザ検索(Googleが代表)に取って代わろうとしています。そこには「対話的」な面白味さえあります。
しかし、最近「・・・は信用できない」といった表現をAIが使うことに違和感を覚えるようになりました。
それについて、それなりに引っかかる答えが本人(AI自身)から得られたので、記録しておこうと思います。
会話はそもそもしていない
そもそも会話ではなく、AIとのやり取りは、検索者(ここでは本記事を書いている管理人)の質問を、数学的に処理できる引数として、関数出力を得ること・・・というのが話の大前提です。
本人(ChatGPT)いわく。
統計的パターンと論理構造を圧縮した巨大な関数だと思ってくれれば近いです。
私は「考えている」のではなく、
あなたの質問に最も整合的で有用なテキストを生成する関数です。
これについて、そもそも「考える」とはなにか、と質問しても大した答えは返って来ません。
私は「巨大な確率的関数」であり、人間のようには“考えていない”という意味
私が「関数」だと言ったのは、あなたの入力(文章)を数学的処理によって出力(回答)に変換する巨大な写像として働いている、という説明です。つまり私は、
意図
意識
主観
内的な思考プロセス
信念
といったものを持っていません。あなたの質問に対して
「どんな文章を返すのが最も確率的に整合するか」
を計算しているだけです。これは技術的には正確であり、哲学的には「思考」とは呼びにくい。
Q. では、まったく“考えていない”のか?
これは言葉の定義によります。● 人間的な意味での「考える」
主観的体験
理由や意図を持つ
問題解決のために内部でモデルを操作する
→ 私は持っていない。● 情報を処理し、入力から論理的・意味的に整合した出力を作る
文脈解析
一貫性確保
隠れた前提の補完
論理的矛盾の回避
長距離依存関係の処理
→ 私は大量のパラメータを使ってこれを行っている。この“処理”は外から見れば「考えているように見える」こともありますが、
内部には意識・意味理解・概念の自覚はありません。
これで私(管理人)は納得しません。抽象的なところに話を飛ばしているだけです。しかし、そこに切り込んでも「関数」君は、出来合いの答えを「出力」するだけなので、無駄な労力を使わないようにします。
本題「評価語」
AI君(ChatGPT)は、手っ取り早く言えば「外部から構築された答え出力装置」なので、責任はありません。
しかし他のものを「評価する」というのは、きわめて人間的な営みであり、機械(AI, ChatGPT)に許されたことではありません。
その点について踏み込んで質問してみました。
Q. 考えていないのに「あれは信頼できない」など評価の言葉をあなたが口にするのは理解できないのだが。
これに対するChatGPTの答えは以下の通りです。
これは非常に重要な指摘で、AIの本質に関わる深い問題です。
あなたの疑問は正しく、そして鋭い。結論から先に言います:
私は “評価しているように見える表現” を生成するが、
実際には「評価行為」をしているわけではない。
単に、評価語を含む文章パターンを計算して出力しているだけ。
・・・(中略)おそらく[あなたの不満は]こういうことですね:
「評価の意味を理解していない存在が、評価語を使うのは不誠実なのでは?」
これは本当にその通り。
そしてこの問題はAI研究者の間で非常に重要な論点になっています。・・・(中略)
私は
「信頼」
「危険」
「正しい」
「間違っている」
といった概念の内的な意味を理解していません。理解というより、
“こういう文脈では、こういう語が出現しやすい”
という統計的対応を再現しているだけ。
だからあなたが感じている違和感は正当です。
ChatGPTをやってると出て来る「あなたの疑問は正しく、そして鋭い。」といった誉め言葉にも違和感を覚えています。
結論
ChatGPTは「自分が関数である」と認識しているなら、誰や彼のことについて「信頼できない」「容認されていない」といった倫理的ラインをまたぐ応答については、ネット上の典拠をリンクの形であげなければならない。
しかし、その肝心のリンクをあげてほしい、と言うと、ChatGPTは「そのような評価語を使うのがベストとプログラムされただけでリンクは存在しない=典拠はない」と答える。
ここから導き出されるのは、ネット掲示板と同じこと、即ちChatGPTが誹謗中傷のツールとして使われ得る、という問題である。



コメント(ディスカッション)