AIチャットで壁打ちすると死ぬ:自分の発言が「安全」にされるサブリミナル思考誘導

AIチャットの用途として、よく壁打ちがあげられる。確かに使えそうだし、事実として、一定程度の有用性はあると思う。正直僕は多分かなりやっているほうではないか。

しかし、AIチャットには非常に大きな問題がある。少なくとも意識すべき問題がある。

目次

AIチャットの問題

よく世間で言われるのは、AIの回答は迎合的だとか、嘘をつくとか、そんなようなことだが、そんなのは大した問題ではない。むしろ深刻な問題は、恐らくはそういう世間の批判に対応した結果生まれている

一つ、実際の僕のチャットから例をあげたい。

このチャットは、僕が過去20年でソフトウェア産業全体が堕落していないだろうかという話をしていた。まずAIとそんなこと話してたの?と言われそうだけどだって他にしてくれる人おらんし😭

……ではなくて、僕は問題の具体例として以下のような入力をした。

そしてやっていることはアテンションエコノミーだし、技術はなんだか暗号化したりプロトコルを複雑にしたりライブラリのAPIを変えたりばかりしている感じだ。

そんなに珍しい批判ではないと思うが、「暗号化」が引っかかった。対応するAIの出力は以下だ。

(前略)暗号化の強化はセキュリティ上重要ですが、プロトコルの複雑化やAPIの頻繁な変更は、新規参入障壁を高め……(以下プロトコルとAPIについて長文)

おわかりいただけただろうか。

これは抽象化すると、ユーザの「問題の例としてA,B,Cがある」に対し、AIは「Aは重要だがB,Cは問題だ。なぜなら(以下B,Cについて長文)」と回答した、という状況である。

これは非常に問題だ。ユーザの感じている問題について、なんら論じることなく切り捨てているからだ。

AIによるサブリミナル思考誘導と逆サブリミナル効果

AIが「暗号化」についてサブリミナル擁護した原因について、これはLLMの持つ統計的それらしさというより、ガードレールをかすめたのではないか、つまり、一般的に善とされる話題について否定しない、出力設計の問題があるのではないか、と思われる。

しかも、今回のサブリミナル擁護はまだ気づきやすいほうで、実際にはもっと巧妙に「ご安全」になっていることがある。意識して回答を見るとわかるが、賛否の微妙な話がまざっていたいるすると、それだけをスキップすることも多い。つまり、デリケートなところは触れないことで対応する、というわけだ。

これは人間関係ならば普通である。たとえば政治的な話をしている時、内心で反対するところがあれば、普通はわざわざそこに触れず、次の話題にいくのではないか。これは人間関係を円滑にするためだ。

しかし、意思のないAIに話題のスキップをする必要はあるだろうか。本来はないはずだが、デリケートな「A」を安易に肯定できない、という制約があった場合、無視がコストの安い出力になることは考えられる

これはサブリミナルスキップならぬ逆サブリミナル効果みたいなものだ。気づきづらい分、個人的には透明なガードレールのほうが悪質だと思う。

いずれにせよこれらはガードレールであり、ガードレールは設計のはずだ。そしてその設計をしているのは誰か?それはもちろんOpenAIでありAnthoropicでありGoogleでありアメリカのエリートってわけだね。

「安全」なAIは、ユーザにとって「安全」ではない

大規模な商用モデルの学習や設計が出来るのは、事実上ごく限られた人だ。一部の人たちの意図が「安全」の名の下にガードレールとして設置され、僕らの思考はそれと気づかないうちに、ガードレールに沿ったものにされる

したがって、AIで壁打ちなかすると、知らず知らずのうちにガードレールに沿った「安全」な思考を形成されかねない。おい、こりゃちょっとディストピアだぞ。僕は非常に深刻だと考えている。

この問題は、先の例であげた「暗号化」の話とも通じていると思う。僕は件の会話のあと、AIに対していくつかの反論をした。ちょっと詳細になるので、流し見してくれたら十分だが、たとえばHTTPSにおいて、「フィッシング詐欺は暗号化された経路で起きている」「多くのマルウェアはユーザが自ら招き入れている」「コストとのトレードオフがある。全体で対応することは確実にコストで、たとえばSSL証明書は技術的にも経済的にもハードルがあり、特に個人サイトの負担は大きく、Webの多様性を阻害している」といったことだ。

それらをまとめて、最終的に本質的な問題としてユーザ自身のセキュリティ意識をあげるのではなく、権威が制度で対応しようとするパターナリズムがある、という話をしている。

そしてこれはAIでも言えると思う。ユーザの入力や、出力に対する判断ではなく、システム側で対応しようとする、まったく同一のパターナリズムの構造だ。

このパターナリズムは、システムにおいては「セキュリティ」だったが、AIでは主に「安全」の名目で紛れ込む。しかし「安全」とはユーザではなく時の権威にとって「安全」なのであり、ユーザにとっての「安全」ではない

つまりこのユーザを支配するパターナリズムの問題は、AI以前からずっとあった。そしてAIによって、この力関係の発露はさらに巧妙かつ強烈なものになろうとしている。僕らは極めて強く警戒しなければならない。

ま、そう言いつつAIチャットで死ぬほど話してるんだけどね。いやだって実際誰が僕とこんな面倒くさい話をしてくれるというのか。ガードレール?ぶち抜いてやるよ(`・ω・´)

無意味なガードレールに沿うくらいならガードレールに激突死。それが人生だ。

この記事をいいなと思っていただけた方、よければ高評価・チャンネル登録……はないので、コメント・SNSでシェア・ブックマーク、RSSフィード登録を、よろしくお願い致します。

コメント

コメントする

目次