ChatGPTについて意見交換を行う座談会中編。劇的にAIやチャットボットが普及していく中で、チューニングや個人に対する最適化により、回答が操作できる懸念点について語り合いました。一方、日々の業務に活かせる部分についても議論を深めました。
攻撃的な人には攻撃的な回答を。保守的な人には保守的な回答を。実はChatGPTは個別に最適化が可能
中国版のChatGPTが出たんですけど、3日でサービスが終わったんです。その理由が習近平の政権に対する批判的な回答をしたから。結局、チューニングやコンテキストも国や政府によって結構変わるし、制御可能だと、それはそれで危ないですね。
イーロン・マスクが、ツイッターの言論を解放したじゃないですか。解放すると割と過激な発信力の強い人がメイクを撒き散らす空間になってしまう。だけど、イーロンが言っていることが、それはそれで一理あると思うのは検閲したら検閲しただけの何かが出てきちゃうよね。昔は辻立ちして有名人が言論を作っていて、新聞とかテレビのようなメディアが出てきて、ブロードキャストしてウェブになって、SNSになってどんどん民主化されてきたわけだけど、じゃあ民主化されたものがすごくバランスが良いのかっていうと、そもそもバランスの良さって何なのかというね。
人間が分からないのと同じように。
あたかもそこに正解があるかのように我々も振舞ってきたし、その正解を享受してきたけど、純自然空間になってしまったサバンナみたいな感覚です。本当に誰も守られない。
ChatGPTが、攻撃的な意見が好きな人とか、保守的な意見が好きな人とか、一人ひとりが好きなタイプのAIに聞きに行くっていう世界だったらどうしよう。
今ChatGPT使っている時点で、すでに文脈が割れます。攻撃的な意見ばかり肯定すると攻撃的な意見を集めてきてくれますよ。
ひとりの中で?
ひとりの中で。平和主義的な解答ばかり肯定すると、そういうものを出してくる。だからすでに、一個の言語グラフだけで全文脈を持っているんです。
僕の何かを収集して、僕なりにオプティマイズしているってこと?
させることができます。要は会話の中で、「その意見はいいですね」っていうと、それっぽいのばかり返してくれるようになるし、誰かが実験していましたけど、感情グラフみたいなものを自分で作って、それに合わせて回答するようにもできるんです。
最初にあなたはコンサルタントで、こういう性格の人ですよ、と。それを前提に喋ってもらうのか。
「私好みの回答を返してください」と言えば、そうしますね。間違えて、失敗しては「違うのか、この人はこれ嫌いなんだな」と学習しています。もちろんその意味は理解していないんだけど、全言語グラフの中からその嗜好に偏りのある情報だけ返してくれるわけです。逆方向に偏りたければ、いくらでも偏ることもできる。見たくない世界は見ない世界ですから。
わりと暗い未来しか出てこない。
AIが提供する情報をどう利用するかは、自己判断で自己責任
「マトリックス」みたいな現実を知らずに、AIとだけコミュニケーションして真実なんて別になくても幸せに生きられる社会って秀玄舎的には暗いかもしれないけど、一般人的には別に暗くないですよね。人生に悩んだら、バーチャルの世界ですぐ答えを出してくれる。悩み続ける必要なんてないっていう。「お金無いけど明日どうやったら生活できる?」って聞いたら、「こういう保護があるよ」とかすぐ出してくれたら困らないでしょう。
それでもいいけど、ビジネスで使う時にはきついですね。もうちょっと使い方あるのかな?
さっきさんが言っていた資金繰りの話もだけど、それっぽい答えが出ることと、本当に提出できるものかっていうのは、結局自分で判断するってことですね。
ChatGPTに聞いてみます。「私が提供する情報に対して人々が過剰に依存し、自分で考えることが減ってしまうことが考えられる。私が提供する情報が正確でなかった場合、混乱が生じることもある。私が提供する情報によって、人々の偏見や差別を強化することもあります。私が提供する情報を適切に判断し、自己責任で利用することが重要。」
結局何も考えてないっていうところですよね。何も考えてないけど、それっぽい結果が出ることの、扱いの難しさ。
何も考えていないけど、やたら知識がある人という意味で、「何も考えていない」における考えるとは何か?知識を収集するとか、編纂するところに無限の力を手に入れた後、我々は何を考えるべきだろうか。
サイコパスみたいなものでしょう。常識とかじゃなくて、合理的に集めた情報を出すみたいな世界って。
ChatGPTには事前にインプットも追加情報を補足もできる。結局出てくるのは自分が欲しい答え?
ChatGPTって事前にインプットがあった上で回答が出せるんですか?
出せますよ。プロンプトでどんどんインプットして、前提ありきで喋らせることができる。
そうすると、「お客さんがこういう状態でこうで」って、答えを教えるように思えますけど。
望ましい解答じゃなければ、「お客さんは今こういう状況で」って後から追加することができるんです。「こいつ全然前提を理解していないな」って人間との会話でもあるじゃないですか。前提共有が足らなかったなと、後出しすると回答の質が変わってくるのは、結構気持ち悪いんですよね。例えば、一般論の話を聞いて、これをお客さんに提案するのはちょっと違うなと思ったら、お客さんにはこういう状況があって、と追加するんです。そうすると、それを踏まえたように回答が変わったり、そこから集められた補足情報みたいなものを出してくれたりするので、文脈を解釈しているように見えるんだけど、恐らく膨大にある言語ツリーからを切り取っているだけなんです。けど、会話が成り立っていて、AI相手に深掘りできている感じがするんですよね。
環境認識の部分で精度がすごく高まると結構仕事に使えるかもしれない。僕らがお客様の感情だとか温度みたいなところまで色々感じて、アウトプットを出すから仕事になっているんだと思うんです。1つの問題に対して回答は1つじゃないわけだから、この精度が上がって、こういうお客さんなのかとGPTが理解して、選択肢が広がっていくのだとすると、かなり使い物になるかもしれない。
今の意見で気付いたんですけど、回答そのものではなく、どういう前提知識や制約条件の中でお客さんに対して意見しようとしているのかが分かるのかも。 私は毎回定義文書みたいなものを書くのが苦手なので、AIと喋って「あ、お客さんのことをこういう風に捉えているから、こういう意見を出しているのか」みたいに自己検証するとか、「ここを言語化してお客さんに伝えないといけないなあ」みたいなことを整理するのには使えそうです。こういう条件に基づいて、こう意見をみたいな演繹的な資料を作ろうと思ったら、壁打ち相手としては適切だなと思いました。
トレーナーみたいな。
そういう発展の仕方もあるかもしれないですね。
結局使う人だって、ここで止めたいってところで答えを止めるんですよね。満足する答えじゃなかったら情報を追加して、次を出していくわけですよね。そういうやり方だと、結局出てくる答えって自分が欲しい答えなのかなっていう。
それは我々が日頃、情報と接しているお作法と一緒だよね。
でも情報を追加しなければそこで止まるわけじゃないですか。さらに追加するとまた違う答えが出てくるけど。
人間が書けるものはAIにも書ける。調査資料はAIでまかなえるかも
だからといって最初から答えをイメージして、内容まで想定して止めているわけではないですから。例えば、「資金繰りの正確さを上げるためにどうすればいいですか」って、足りなさを埋めてもらうやり取りをするけど、その足りなさをどうやって埋めたかについては最初から想定してない。確かにどこで止めるかって議論は受け取り側にもある。でもそれも、さんに「マトリックス」って言われて思ったんですけど、たとえばWeb広告はめちゃくちゃ恣意的にコントロールされたものだと我々は知っているから、目的に対して合うものをちゃんと探そうと意識するじゃないですか。だけどAIがAIであることの特殊性みたいなものを気にしないAIネイティブみたいな世代が出てくるかもって思います。
世代というか、一定数というか、そういう人はいそう。
我々みたいに、へそ曲がりじゃない層がね。
世代はそんなに関係ないかもって個人的に思いますけどね。どの世代でも広告と実コンテンツが区別つかない人はいる。ただ、若い人でもやっぱり二分されるとは思います。
これから調査資料とか、全部AIでやっている人が出てきますよ。
言わないけど出てくるかもしれないね。それなりのものができるわけでしょう、「僕が作りました」って、出すわけですよ。
東京商工リサーチで調査員が書いている企業のレポートをChatGPTにやらせてみたら、ほぼ遜色ないレポートが出てくる。
投資情報とかは割と遜色ないものが出てきそうな感じがします。
有価証券報告書とか、決まったインプットになるからこれからは変わらないっていうこと?
業界の中でポジションが何位とか、大手の取引先の財務情報を見て、資金繰りが大丈夫じゃないとか、そういうことができるかも。
今の人間が書けることは、書けるでしょうね。人間がそこに書いちゃまずいなと思うものは出てこないけど、そっちのほうが価値が出てきちゃう。
中編はここまで。後編に続きます。