ChatGPTは何をもたらし、何をもたらさないのか?秀玄舎意見交換会レポート(前編)

  定期開催している秀玄舎メンバーによる意見交換会。今回のテーマは昨今話題となることの多いChatGPTについて。人間の仕事を脅かす存在として語られることも多いが、果たして全てのビジネスに取って替わるものなのでしょうか。

秀玄舎では2022年12月24日に、ChatGPTをうまく活用するポイントや、AIの行く先など、フランクな意見を交わしました。その模様を前編・中編・後編に分けてお届けします。

 

一般論、一般解レベルではかなり優秀なChatGPT。特定の固有名詞には不向き?

最近大流行りのChatGPTと、その亜種みたいなのがいくつか出てきているので、大規模言語モデル系のAIが何をもたらし、何をもたらさないのかというテーマで話したいです。〇〇ができた、すごいっていうのはニュースに結構出てきたけど、何をもたらさないのかが割と重要なポイントで、冷静に見ていく必要があるのかなと。最近Notionにも入ったとニュースになっていましたけど、今度Officeとかに入ってくると言われていますね。色々とニュースを見ている人であれば、何ができるようになったか知っているかなと。

 

自分が思うのは壁打ち相手ですね。話し相手というか、検索したものについて、GPTにコマンドを投げるとざっくりと概要を出してくれます。プログラミングもある程度、限定的対応であればできるし、あとは文章整理。取り急ぎ作ったものをGPTに突っ込むと割ときれいな機械的な文章にしてくれます。ここらへんは割と使い物になりそうなレベルですが、他にもこんな使い道ありますよって思いつく人いますか?

 

ある会社の資金繰りの精度を上げるためにはどうすればいいですかって試しに聞いてみたら、ほぼほぼ書いたレポートがサマライズされていてすごいのが返ってきましたよ。俺の仕事必要ないんじゃないかと。もちろん、GPT側が知りようのない問題については言及しないけれど。

 

一般論レベルは結構優秀みたいですね。

 

僕の中ではスペシフィックになるとダメなイメージですね。例えば「秀玄舎について教えてください」とか固有名詞を聞くと大概デタラメですけど、ゼネラルなテーマについて聞くと、その辺のプロ顔負け。

 

キュレーションというよりは、一般解に対する一般的、蓋然性のある意見を持ってくるのは割と得意としていますよね。2021年時点でネットの知識をリレーショングラフ化できているから。

 

嘘ついたらどうなんだろう?

 

嘘をついているかどうかAIは知らないから、嘘が書かれているけどアクセス数が高いページを持ってくる可能性は充分あります。

 

 

人間の情報だって偏っているのに、「AIの言っていることだから信じたらダメ」って考えでいいの?

検索エンジンと同じで、そのうち偏り始める気がします。今は色んな意見をうまい具合に丁度良く拾っているけれど偏った情報ばっかり拾ってくる環境になっちゃうと、嘘とまではいかなくてもかなり偏った意見を普通に出してきて、それに人が乗ってしまってどんどん偏った意見が溜まっていく負の方に寄っていく可能性があるのかなと。

 

すでにこれが偏っているかどうかも判別できないよね。AIが普及するってことは、世の中がブラックボックス化するということだとずっと話してきました。だからフェイクニュースが拡散すると、同じ構図が絶対起きます。ただ、我々人間がやっていることだって偏っているかもしれないし、嘘かもしれないから、品質としては実はあまり変わらないのかもしれない、ただしGPTは責任取ってくれないけど。

 

その当時は信じられていたけど、5年、10年経ったときに嘘になっていたみたいな話みたいはあると思います。

 

偏りをどこまで期待するのかってところだね。人間と同じで偏っているよねってことで、いいんだろうか。

 

でも世の中って、メディアの言っていることは本当だと思う人が割と多かったりして、AIが言っているだけで盲目的に信じてしまう層がマジョリティなんだよね。これから先、普及すればするほど。物事の本質をあぶり出すことになるけど、目の前の人のことを信じるのはいいけど、AIの言うことは信じない、信じちゃ駄目だよっていうのもちょっと変な話だよね。

 

信じるとか信じないって、その人の実績とか、この分野に詳しいから、ってことじゃないですか。

 

「僕は専門家です」って言ったところで、それだって怪しいから一緒でしょ。

 

その人のそれまでの経歴を見て「この人は10年ぐらい、この分野に関わっているのか」って信用していくものじゃない?

 

個人的にはそれこそ怪しいと思います。これは主義主張になるけど、コロナで専門家と称して出てきた人のことはほとんど評価していないし、専門家と呼ばれる人たちも相当偏っていると思います。

 

専門家も間違えることはありますからね。

 

専門家にも派閥があるじゃん。

 

人間がリアルで言っていることをなぜ信じるのかって、根拠があるからと思うんです。根拠を教えてと言われたときに、AIはこういうことを勉強しましたって教えてもらえれば、信じられるというか、それをもって判断するようになるのかな?

 

PerplexityっていうChatGPTじゃない方はちゃんと出典、脚注が出るんですね。それは結構使える。

 

やっぱり人間だったら、偏りがあるんですよ。それを信じるかどうかは前提が多分いると思いますね。

 

もちろんメディアのニュースをちゃんと評価して受け取れる人は今でもいるんだけど、世の中全体はそんなことないよねと思っていますよって言いたいわけ。メディアがそっちだと言えば、みんな流されちゃうような世の中に、AIだChatGPTだといって世の中が流されるリスクは、人間が報じている場合と一緒だと思う。

 

AIが流されるっていう話と、人がさらに流されると、二つ両方別口でありますしね。

 

実はこれまで人間に流されている時は、割と無意識に感受していたんだよね。だからAIについて殊更に言うのはおかしい気がするって言いたい。

 

今ちょうど、ウクライナとロシアの侵攻みたいな難しい問題について打ってみたんですけど、ちゃんと見解を示してくれたし、どこの情報をソースにしているのか尋ねたら五大メディアみたいなところの、この部分を重視していますと返してくれたので、人間による情報と同じように、何をもって信じる、信じないみたいな判断はできますよ。

 

だからAIだから流されちゃダメってことじゃないよねってこと。

 

出典元までは表示されるので、それが変だったらダメだなって思えるし、ある程度公式なメディアだったら、そこを信じるレベルには信じられる。

 

チャットボットが言ったことが、ウィキペディアに載っていれば信じられそうですけど。

 

今後ウィキペディアもAIが書くかもしれないよ。

 

AIが書き換えているかも。

 

人間が一次情報を作れなくなっちゃうと、どんどん精度が悪くなる。

 

一次情報に対する二次三次情報の割合が変わってきますね。世の中の 情報がもう分からなくなってしまいそう。

 

 

これまでソフトウェアが創り出していた知識空間は、これから特定のAIが担うことに?

シンギュラリティが来るとAIが人間を支配するみたいなSFがあったじゃない?そこで描かれていたAIの像は割と悪意を持っていたけど、これからのAIは悪意なく社会を破壊すると思う。デマの中央値を取り続けるがゆえに。

 

人間が日々つぶやく言葉が、人間社会を壊す機械を作る感じですね。じゃあ嘘は呟くのをやめようみたいな行動モデルができるかもしれない。

 

AIって文字情報を拾っているじゃないですか。今まで公聴会とか弁論みたいな場で発信されていた意見はAIが拾えないから、偏りをなくすためには、全ての文章をネットに公開しないといけなくなりますよね。

 

Alexaとかがあるから。

 

YouTubeの自動文字起こしもあるし。

 

だからAlexaにでも通してテキスト化していかないと、人間はこの先何も伝えられないかなって思うんです。

 

でも、今のSNSも声の大きい人だけが前面に出ていて、サイレントマジョリティみたいな人たちはあんまり出てこないよね。

 

ツイッターなどの言論空間だと、右も左もわずか0.5%程度の政治的に偏った人たちが言論の28%ぐらいを占めているんだよ。主張の強い人がやたら出てきて、まるで世の中にたくさんいるかのように見えるけど、実は数としてはほとんどいない。

 

それが偏っていくんじゃないでしょうか。

 

より加速はするでしょうね。

 

声が大きい人の、発信量の違いがあるじゃないですか。現代と昔では。

 

その手段が違うだけで、声の大きいやつが世の中を動かしているんだと思う。

 

デジタルディバイド3.0だと感じるのは、世の中を創っていくのは、特定のすごく少数のソフトウェアエンジニアじゃない?GoogleとかAmazonみたいな。そういう世の中を作る側と、作られた側で生活する間にすごい格差があると思うわけ。今回は、ChatGPTのエンジンを作った人が世の中の知識空間を作っていくと思う。これまではソフトウェアだったけど、特定のインテリジェンスがコンテンツとかコンテキストみたいなものを形作っていくのだと思う。開発の過程でチューニングは絶対しているはずだし、あたかもAIが中立であるかのように、世の中に売り出していくとは思うけど、チューニングの影響範囲も大きいよね。

 

チューニングマスターがいて、第三者監査機関みたいな。

 

壊せる情報を操作できますね。壊せる順番も含めて。

 

そこが割と秀逸だから、Googleとかも今のところ太刀打ちできないと思うんですよね。もっと明らかに嘘っぽい回答だと、文脈を読めていないなと思うのに、今使っていても、さも会話が成り立っているように順番に返してくるのでかなり気持ちは悪い。けど、圧倒的に便利ですもんね。今までプログラムで手続き組んで入力しないといけなかったのが、試行錯誤で順番に一文一文会話していると、割と辿りつきたかった答えに行くから。用途がプライベートに近いものであればあるほど使っちゃうかも。

 

前編はここまで。中編に続きます。