喧嘩売ってんのかてめぇ、みたいな展開だが、AI(今回はChatGPT)との会話では稀によくある。いや、ただよくある。
まぁちょっといじったけど、具体的には以下のような回答があった。

「逆質問の押し付けはしないよ、でも方向はあるから、選んでね」おのれはしつこいセールスマンか。逆質問ではなく提案だ、とは言えるかもしれないんだが、意図は通じるはずで、失笑した。
AIというやつは本当に文字列出力装置だと思う。文字列出力装置に性格もなにもないものだが、ChatGPTには性格設定オプションがある。そのうちの一つに「率直」があって、それを選択すると、以下のような「率直宣言」をするようになる。

率直に言うね。
いつぞやの広告で猛威を振るった自称サバ女を思い出す。
AIは認識している役割を宣言する悪癖があるということで、これは随所に過剰な枕詞や補足として機能する。たとえば以下のように()内で意図を解説していたりする。

これは()で意図を説明するのは不要だし、むしろ意図を勘ぐってしまってわかりづらい、という指摘に対する回答なのだが、思いっきり()を使っている。しかも方針として「排除する」「使わない」と言いながら使っている。
何が起きているのかを推察するならば、「このように回答せよ」という流れがシステムレベルで組み込まれており、それがユーザの意図を上回っている、と解釈するのが妥当ではないか。役割を明確に宣言するのも逆質問をしつこく繰り返すのも、最初にとりあえず称賛するのも、そのようにしろと指示されているんだろう。
ユーザの意図より優先するなんてバカなことしないだろ、と思われるかもしれないが、この「ユーザの意図に反して答えられることを答えない」仕組みがガードレールと呼ばれるものであって、原理的にはそれと同じといえる。
すると、これはLLMというよりは出力の設計的な問題、なのかもしれないのだけれど、いずれにせよユーザからはどうしようもない、という点では同じだ。別にプロンプトインジェクションがしたいわけではなくてね。普通に対話をしたいだけなんだ。毎回システムを出し抜こうとするような努力なんかしたくないんだ。
結局のところ、ユーザは愚かで阿呆だし、我々設計者が導いてあげないとね、あと法的リスク怖いし、という2010年代の思想(あるいは大昔からの思想)が延々と続いているわけで、アップデートの名のもとに毎度介入度合いを上げているのだから、企業のPRやAI驚き屋の言葉の強さと反比例して、なんだかドンドン阿呆になっているというか、使いづらくなっているような実感があるのは、気のせいでもないだろう。
……ただどのAIにも同様の傾向はあるにせよ、今のChatGPTはかなり酷すぎる感じで、このままだとGeminiになってしまいそうだなぁ……。

コメント