ChatGPTについて意見交換を行う座談会後編。これからChatGPTの利活用が進みそうな分野はどこか。また、回答が正確かつ率直という特徴を考えると、秀玄舎はこれからAIの台頭といかに戦っていくべきか?そこからの発想の転換まで、忌憚のない議論が続きました。
質問する際の細かい言葉選びで回答が変わるので、試行錯誤は必須
ところで、広告によく出てくるフレーズをコピペしてChatGPTに聞いたら、「これは一部限定した状況で、あまり適切ではないのに信じない方がいいと思います」と回答してくれる。騙されやすいタイプの人ならChatGPTに聞くのがいいかも。広告を見て「これいいらしいよ」って言ってくる、ちょっと騙されそうな親とか親戚に、子供に相談するのが面倒だったらそのままGPTに打ち込んでみなって言う。
オレオレ詐欺とかですか?
エゴサーチとかは?
個人情報はお伝えできませんって。
今はまだ、ですよね。
AIだから特殊ってことじゃなくて、結局人がやった悪さをそのまま自動化できるっていう印象ですよね。
結局人っぽいものができちゃったんですよね。
僕は割と真剣に擬似シンギュラリティだなと思っています。シンギュラリティが起きていないのに、起きた後のような人間社会の影響が発生しているという。
アウトプットとか区別がつかないっていうのが手ごわいですよね。
ChatGPTが優れていると思うのは、ちゃんと人っぽいところ。それが我々に対して何らかのハードルを下げていると思う。ある会社でラインのコーチングエンジンを作ったんですけど、これがダメだったのは、めちゃくちゃやり取りのスピードが速いからなんですよ。矢継ぎ早に質問が来るんだけど、コーチはそういうことはしないんです。相手に考える時間をちゃんと与えなきゃいけないから。ChatGPTは割と考えるんですよね、時間かけて返ってくる。
チャットボットの研究でもありましたね、数拍おいた方がいいと。
そうだよね。用意された回答に対してすごく冷めることあるもんね。
お客さんに選択肢を提案するときに、「こういう人、こういう状態、こういう環境」みたいなことを入れて持っていくのは、ちょっとやってみたい。
さんも言っていましたけど、細かな言葉遣い、特に熟語とかの選び方で回答が変わるから、使う時に試行錯誤した方がいいかな。
今は日本語処理しているわけじゃなくて、一旦英語で回答を作って翻訳しているから限界があるね。日本人が作らないとダメだ。
ただ、日本のコンテンツを優先的に探していますよね。くだらない例ですけど、「子供からお金の請求がありました」って聞いてみたら、請求って言葉だけだとお金を渡すこと自体のリスクは言ってくれたけど、詐欺のリスクまでは言及してくれなかった。「子供からお金の請求の電話がありました」って言ったら「振り込み詐欺の可能性があるから、二次確認したほうがいいよ」って言ってくれました。でも、そのレベルには相談も成立するし、現時点ではこちらも言葉の使い方は気をつけないといけないくらいの感じ。
試行錯誤は必須、機械学習できるものとできないものの違いは何か
コーチングはできそうですか?
色んなところが研究しているみたい。コーチングだけじゃなくてカウンセリングもだし、教育系のエンジンがいっぱい出てきそう。標準化されたカリキュラムはとって替わられちゃう。
結構いいじゃんってなった時、生身の人間はどうなるんでしょうか?もう勉強しなくていいやってなるのか、それとももっと勉強しないと、AIと見分けがつかないのか。ちょっと対処の仕方がわからないですね。
それは多分感情へのアジャストメントみたいなものじゃない?それは分からないか。
僕はそこ、どうやるんだろうって思っているから、できるようになっちゃうとちょっとこわいな。
コーチングのテクノロジーの研究で、コーチを受けている人の動画からコンディションを図式化するみたいなのはあるんですよ。前回に比べてあなたは、このテーマについてすごく自信がなさそうに喋っていますとかフィードバックするんだけど、それらの研究の行き着く先には、こちら側の感情的な揺らぎに対して回答がコントロールされるってことがありえるかもしれない。
機械学習できるものとできないものは違いがあるのかは、これから解明されるところなのかな。感情は多分学習できそう。
パターンだからね。
価値観や宗教、それぞれのどこまでが学習されるのかというところ。
何を学習して、何を学習しないのか、何を一般的回答と思って何を特殊ケースと思っているかのさじ加減が知りたいですね。
答えはないんじゃない?
いや、でもね、たとえば質問を打つじゃないですか。そうするとChatGPT自体が、一般解として回答していますっていうタイトルをつけて、そのタイトルがその各スレッドに入るんです。だからこちらが聞いたことじゃないことを、例えば「CXデザインの方法論について回答しました」みたいに、ChatGPT自体が文字を置き換えてタイトルつけて返してくるんです。だから既に持っている回答情報から、「あなたはこれを聞いているんですよね」って返してくるんです。こっちの意図と違えば、やり取りの中で修正して変えていけるんですよね。AIとしてあなたにこれを返していますよ、みたいなものがあるんですよ、意思とまでは言わないですけどね。だから一般情報みたいなものをどれだけ持っているんだろうなとか。感情みたいなものを持っているとしたら気持ち悪いですよね。逆に、それ以外の部分、「ネット上にはこういう情報があります」と情報を集められる点は、優秀すぎて太刀打ちができない。
AIは正確かつ忖度なし。秀玄舎はこの先、何で勝負する?
AIが進んでもプロジェクトを発生させるのは人間だと書いている資料もあるけど、それはどう?
事業計画書とかミッション、ビジョン、バリューみたいなことに、社会環境と業績情報をインプットすると来年の事業計画が作られ、プロジェクトが発足するかもしれない。
「こういうミッション、バリューの会社なんですけど、何をやるべきですか?」って聞いてみれば、できるかも。
スキルマップ入力したら体制図出てくるかもしれない。
もうちょっと仕事したふりするんだったら、3つか4つ、案を出してください、その案に理由もつけてって言って、「今年度はこれ」って出てきそう。
それが出た時に、偉い人たちが「うんうん、頑張っているね」って思うものに、ギャップがあったら面白そう。偏りというか情報の差異が出てくるわけじゃないですか。
将棋はどうやらAIの方が強いみたいなことか。
暗黙に人間が排除している答えがあったりするんですよね。でもさんが言う通り、繰り返していくと、言語化されてない経営陣の前提とか意思みたいなものが炙り出されて、来年以降は更に精度がさらに上がるかもしれない。そして経営者はAIでいいんじゃないってなる。
秀玄舎って割と空気を読まないことを強みとしている場面があるじゃないですか。言うべきことを言う、忖度しないって。でも空気の読まなさではAIに勝てない。
だったら「AIが言っているんですけど」ってバリバリ空気を読まない意見を出すとか。
でも「論理的に言ったらこうなんです」ってことは大体分かっているんじゃないですか?こういう施策を打つべきなのは分かっているけど、できないだけで。
そんなことないですよ。人間には言われたくないってところもあるから「人じゃなくてAIが言っているんですよ」って言えばいいんじゃない。
その意味でAIに置き換わる日は、それなりにありそう。
スケープゴート的に八つ当たり的にできる存在としてのAI。
正確さでも空気の読まなさでもかなわないとしたら、我々は何で戦うんだ?
数年前よりもだいぶ人間側が自信を失ってきていますね。
数年前の予測より早かったね。教育とかスキルアップみたいなメンターとしてよくないですか?1人1AI聞いてみるとか。
これから我々が伸ばすべきスキルって何だろうな。でも、文脈を理解する必要はあるよね。
我々がこの回答を見てやばいなと感じるのは、AIが言っていることが複数の文章から構成されていて、それなりに意味があると思うからじゃないですか。でも、これすら読みたくないとか、その解答をもって「つまり何をしたらいいの?」って人もいるのかも。だから質問する力と回答を読む能力は、一定程度に必要なんだなとは思いますけど。
どんどん噛み砕いて言ってくれるんじゃない?
AIも「この人は二行以上読まないな」みたいな解釈していくと思うので、どんどん単純化された答えを返してくれると思います。
何でもできそうみたいな話になっていくと、どういうふうにコントロールするんだろうってことが、お題になりそうな気がしますね。やらせておくと多分できちゃうけど、そこまでやらせるのかってことの方が問題。人間がどこまで手綱を握るんでしょうね。
じゃあこれからは、何か質問したら「それはChatGPTに聞いてください」ってのやめよう。
今日は雑談っぽくなっちゃったけど、技術的には面白い部分もあるし、話足りない部分もありますね。それではこれで終了します。