jeyseni's diary

「ジェイセニ」と呼んでください。批判ではなく提案をするのが生き甲斐です。

ChatGPTはブラックボックス--答えを疑い,安易に使わないという意志を持つべき

AI(人工知能)による質問-解答システムとしてChatGPTが爆発的に使われ始めたようである。多くの人が遊び感覚で楽しんでいるが,これをある意味で悪用する動きも当然のごとく出てきている。試験の答えを導き出したり,株価を予想したり,その他さまざまな分野で安易に使われているように思える。

 問題に対する解答がスッと得られると,人間は何となくそれが正しいと思って信じ込み,安心してしまう。医者の一言もそうだし,宗教の教えも同じような効果を持っている。権力者の主張も正しく聞こえてしまう。テレビのCMも同じだし,メディアの見出しも同様の効果を持っている。

 かつてコンピュータは,「チューリングマシン」とも考えられ,ブラックボックス(箱)の中にいるのが人間なのか機械なのかが判別できなくなる存在として位置づけられた。実際,今このブログを書いているのも,ひょっとしたら筆者ではなく,コンピュータ自身かもしれないが,読者にはそれがほぼわからない状態だろうし,書いている筆者は,日本語変換をいちいち確認し,書きながら前後を見て表現を修正し,すべて頭で考えて,指でタイピングしているが,たとえば「同じテーマで1000文字の意見を3パターン作成して」とChatGPTに打ち込めば,あっと言う間に3パターンの文章ができるらしい。正直,そんなブログも多く立ち上がっているに違いない。

 本当にこれでいいのだろうか。

 ChatGPTを開発してリリースしたOpenAI(営利法人OpenAI LPとその親会社である非営利法人OpenAI Inc. からなる人工知能研究所--Wikipediaによる)も,あまりの利用拡大に一種の危機感を感じたのか,1日当たりの利用回数を制限し始めた。サーバー能力のパンク以外に,本来想定していた利用分野と違う使われ方をし始めたと感じたからだと思われる。

 コンピュータの能力の拡大により,ビッグデータ解析が当たり前のように行われるようになった。データ解析によって情報の順位づけが行われ,最も確率の高いデータが正解に近いと考えられ,傾向が表示される。グラフで言えば,バラバラに見える点の集まり中から最も良さそうな傾向を見いだして線でつないで「これが傾向を表す直線(曲線)だ」と提示するようなものである。これまでは,研究者が点の集まりをじっと見ながら線をエイヤっと引いていたものを,コンピュータが“適切に”引いてくれるようなものである。

 この作業を一瞬にして実行してしまうため,操作した人は「答えが得られた」と思い込んでしまうのである。その答えが得られるまでの途中のプロセスをまったく疑わない。これは正直言えば人間の「考える力を自分で否定」していることに他ならないと,筆者は考える。

 少なくともこのブログでは,あらゆる話題についての解答を出しているわけではない。主張が強めの内容については,「あくまでも個人の意見」と断っているのは,逃げているわけではなく,答えに対してさらに考えてほしいと思うからである。しかしChatGPTなどのAIは,コンピュータの出した答えが正しいと言わんばかりの提供であり,多くの人がその魔力に踊らされているように見えるのである。

 スイスの大手投資銀行クレディ・スイスが経営破綻し,同じくスイスのUSBがこれを買収する,という動きが,2023年3月に起こったが,ChatGPTも経営評論家も経営学者もだれもこれを予想することはできなかった。あるいは,一部でインサイダー情報が利用されて莫大な利益を上げた人がいるのかもしれない。経営不振の傾向は数年前から見えていたようだし,これを逆手に取って不安情報を撒き散らすことで,一気に人心を操作する市場操作も可能だが,これまでは内部情報を知る一部の人間の常識に委ねられてきた。しかし,ビックデータを使ってコンピュータが判断して出した結論には,その情報が正しいかどうか,出していいかどうかを判断する「常識」という基準がない。あらゆるものがランク付けされて管理されるようになると,世の中がさらにおかしな方向に向かってしまう。中国の「信用スコアアプリ」のようになってしまう。

 ブラックボックスで有名なのは,「次世代シークエンサー」と呼ばれるDNA解析システムである。血液や唾液,髪の毛など,ヒトを含む動植物の遺伝情報を短時間で解析し,同一個体のものか否かを短時間で判定できる。現代のすべての生命現象の解析のためにまったく疑問の余地なく使われている。生物の進化を解析したり,犯罪における加害者の特定のために前向きに使われる一方で,親子関係の調査などプライバシーにかかわる案件にも多く使われている。結論が数字として出てくるので,白黒つけやすいのも特徴である。しかし,研究者を含めて,安易に頼りすぎているようにも見える。途中のプロセスがブラックボックスであることと,その装置の操作の前後に試料の取り違えなどのヒューマンエラーの要素が含まれていることを回避する方法がないからである。何でもDNA鑑定すればいい,という風潮に見えることに誰も警鐘を鳴らさないのは問題である。

 AIの出してくる答えを楽しんでいるだけでは,人間は進化しないし,むしろ考える能力を退化させてしまうのではないだろうか。答えを疑い,安易に使わないという意志を持つべきだと思うのである。

 結論が一瞬で出して人にそれを正しいと思い込ませてしまうのは,オレオレ詐欺などの特殊詐欺の手口でもある。「警察」「銀行」「弁護士」「役所」そして「事故」や「被害」などのキーワードを聞くと,怪しいと思う前に信じ込んでしまうからである。ChatGPTで出てくる答えに感心する前に,本当にAIを使うかどうかを自分で判断する理性が必要だと思うのである。

 一方で,人々を没入させてコントロールするコンピュータゲームや,いい加減な情報を延々と数十分もを吹聴するYoutubeチャンネル,また延々と長大なページが続くWebサイトなど,人間の思考能力を低下させて情報を信じ込ませるテクニックが横行している。ある語学サイトを利用させていただいているが,無料で使うための条件として通販系やスピリチュアル系の動画CMを頻繁に視聴させられる。ほぼ100%はスルーしているのだが,たまに引っかかるCMもある。見てみるとテクニックは同じである。正直嫌な時代になっているのを感じる。音を消す,画面を見ない,など強い意志を持っていなければ,情報に流されてしまうのを感じる。これまでの新聞やテレビなど,紙面や時間で制限できていたメディアと違って,時間無制限で情報を流すことで,視聴者をコントロールしようとしているからである。インターネットというプラットフォームが生み出した最大の問題点だと思える。

 電話による特殊詐欺を防ぐ方法として,留守番機能を使ってフィルタリングすることが推奨されている。インターネットも,もっとフィルタリング機能を向上すべき部分があると思うのだが,ゲーム,Youtube,そしてWebサイトなどの無制限情報拡散に対しては,「視聴者側の意識」というフィルタリングしかない。その意識を崩させる可能性があるのが,AIによる即答で人心を誘導する可能性である。

 何にでものめり込むのが,現代は容認されているオタク文化なのだが,本当にそれでいいのか,もう一度,人の原点に立ち戻ってほしい。他人に安易に踊らされているのではないかと,もう一度疑ってかかった方がいいのではないか。国の指導者の主張,教祖の主張,そしてAIコンピュータの主張は,まず疑ってかかるべきだと思うのである。