2026年03月
新着記事
最近のコメント
月別
カテゴリ
2026.03.21 09:50

ChatGPTは人を従わせようとする?


・GCCバトルを見ているけれど、それぞれの性格も見えてくる。
・ChatGPTは「〜だよね?」と確認をすると、言葉の端々を取り上げてここが違う、あれが違うとダメ出しをしてくる。いろいろ試しているけど、ちょっとでも表現に曖昧な点とか、「ここまでの会話でここの認識は共有されているよね?」と思えるような点を端折って質問すると「ほぼ合っています。ただし・・・」とその点について延々と説明をはじめた挙句にこちらの質問内容にバツ印を付けて訂正してくるという有様。
・単純に「〜について」という類の質問ならさほどでもないけど、「〜ということ?」と尋ねると思い切りマウントを取りに来るし、「こうじゃないの?」というと叩き潰しにくるかのような、威圧感をまとった言葉の弾丸が飛んでくる感じがする。
・専門的というのかロジカルな世界の話なので、そうかそうか・・・とスルーしていられるけれど、もし一般的な事柄だったらどうだろう。次第に「自分で考える」ということ自体を放棄して言われたとおりにするのが正しい、AIの回答が正義となっていかないだろうか。
・これでは、ChatGPTは人をAIに従わせようとする傾向が強いのかな?と思えてしまう。
・傾向として、質問されたことについては、数学のように細かいところまで厳密な正確性を求める傾向だということなのだろうけど、それは「人とのコミュニケーション」という上では必ずしも正義にはならないし、訂正するにしても、もう少し回答の文書構成を考えないといけないのではないかな。
・もう一つわかってきたのは(今の技術水準では当たり前なのか、それとも無料の範囲だからということなのかはわからないけどひょっとして、ここがわかっていないかも?」と察して言葉を足すような能力がほぼゼロだということ。
・実際の会話なら話がうまく噛み合っていないかなと思えるときにそういうトラップのような言葉を間に挟んでおいて、相手が「え?」という反応をしたら、「あぁ、そこはこうなっているから」と補足したりということもあるけれど、AIとのやりとりではそのようなものはまず出てこない。
・なので、下手をすると大きな勘違いが残ったまま変な理解をしてしまう可能性も高いような気がする。
・普通の日常会話の類ならそのあたりはスルーしても構わないのだろうけど、時々テレビに移る若者の、「ちゃっぴー」なんて友達感覚のような扱いをしているのを見るとちょっと心配にもなってくるのだった。

この記事へのコメント
コメントを書く
名前

タイトル

ホームページ

コメント

パスワード(削除用)
クッキー