We are Shaping the Future! 私たちが手繰り寄せる未来ストーリー
創業以来、「機械にできることは機械に任せ、人間はより創造的な分野で活動を楽しむべきである」を経営哲学としてきたオムロンでは、急速に進化する人工知能(AI)の活用においても、人間性を重視しています。
AIが搭載された製品やサービスが次々と社会へ実装されていく今、人類とAIはどのような共生社会を育めるのでしょうか。またAIとの共生によって、人類そのものも進化するのかどうか。最先端を行く専門家たちは、どんなビジョンを描いているのか、聞いてみたいと思います。
<聞き手:西村 勇也(にしむら・ゆうや) NPO法人ミラツク代表>
西村:栗原先生も牛久さんも、AI研究の第一人者と言えるお立場ですね。一般社会でも生成AIが広がりを見せ始めているなか、生活と情報技術の距離が縮まり、新たな社会の局面が起こり始めています。今後、更なるAIの発展として、人類とAIの共生関係はどのようなものになるとお考えですか?
栗原:本来はここでワクワクする話をするべきかとは思いますが、まずは少し現実的な話から始めますね。70年ほど前に始まったAIの歴史において、今は3回目のブーム真っ只中ということになっています。残念ながら1回目と2回目のブームはそれほど盛り上がりませんでした。しかし人類の脳を模倣したAIが大量のデータを学習し、データの中にある特徴を自動抽出する「ディープラーニング」の技術が実用化可能になった2000年代、そして現在は生成AIが誕生したことを機に、非常に盛り上がりをみせていると思います。これは確かに喜ばしいことですが、正直、どこかザワザワとしたものを感じます。これは、AIバブルみたいなものを感じているからかもしれません。
というのも通常、新しい技術が開発されることで新たな産業が活性化しますが、生成AIに関しては、盛り上がり方の割にはまだ利益が出せていない。例えば、ChatGPTを開発しているOpenAI社は今年、約7000億円の赤字が予想されています。当然その分の投資を受けているとはいえ、今ひとつAIで利益を出すことについて、どの企業がうまくいっていると言えるのか、わかりにくいのも現実です。
栗原:数年前までは私自身、インターネットやAIが発達することによって、良い方向に社会が変わると思っていました。しかしいまだに人類は、気候変動が止められずに地球沸騰化という状態にあり、戦争さえしているし、地球規模の問題は尽きません。AIが進化することで人類の叡智が追い抜かれると心配したり、AIが人類の思考能力を奪うのはけしからんといった意見も出ていますが、そもそも本当に私たちは、人類の進化について真剣に考えられているのでしょうか。人類の自助のみで、さまざまな社会問題を解決できるのかと問われたら、現状では悲観的にならざるを得ません。
例えばインターネットやSNSが台頭してきて、よくも悪くも人間同士を繋げ始めた。しかし現実に起きたことは、フェイクや分断化など、負の面も引き起こしてしまった。つまり、生成AIがどれほど優秀になっても、それは人類が使う「道具」であり、良く使うも悪く使うも、人次第ということは否めません。
もしも人類の自助がうまくいかないのであれば、AIとの共助が必要です。共助とは、お互いが自律性を持ち能動的なインタラクションができる関係であることが必要で、人類がAIと共助関係を築くためには、時にしっかりと意見を言い合える関係であることが必要です。それを叶えるAIは、相当なイノベーションによって、高い能力を持つ自律したAI(自律型AI)ということになります。少し前までは、「自律型AI同士が群れて何かできたらワクワクしそう」なんて考えていましたが、今はワクワクよりも、真剣に自律型AIを作らないと、世の中が壊れるスピードの方が早いように感じるわけです。
牛久:なるほど、現状のAIの商品・サービスにはまだ、他を圧倒するようなキラーアプリが出ていない。そして進化した自律型AIは、課題を抱えたままの人類に対して、共助の関係を築ける存在になるかもしれない、ということですね。
現状の生成AIでは、ChatGPTがプログラミングも書けたり、Midjourneyなどの画像生成AIもあったりと、熾烈な開発競争の中であらゆるクリエイティブが加速度的になってきました。栗原先生も、手塚治虫の漫画の新作を生成するAIの研究もされていますが、それほどまでに進化しても、共助の関係構築までにはまだ至っていないということでしょうか。
栗原:漫画を生成するAIを作った時は、そのために的確なプロンプト(指示)をつくる、いわゆるプロンプトエンジニアリングが鍵になりました。世間一般にChatGPTが出始めた頃、小さなお子さんを寝かしつけるために普通のお父さんがAIにおとぎ話を生成させて子どもが寝た、といった話題がワイドショーなどで出ましたよね。私も小説を書いたことはありませんが、そんな私でも、プロンプトを書けばそれなりの小説がAIで作れるわけです。
しかしそれが、プロの脚本家のようなシナリオなのかといえば、それは難しい。そこで、「脚本家とインタラクティブなやりとりを行って、脚本家の代わりに的確なプロンプトを作るAI(仲介AI)」を作ろうと考えたわけです。手塚作品のような仕上がりになるように、AIが人のクリエイターとやり取りを重ねることで、徐々にAIがプロンプトを作りあげていく、というやり方です。その結果、数千字にもなる複雑なプロンプトになりましたが、脚本家は仲介AIとのやりとりのみで済みますし、安心して使っていただくことができました。
そのとき改めて思ったことは、人に要求される高い能力です。ChatGPTのことを、汎用人工知能という言い方をします。汎用性とは十徳ナイフのように、ひとつの中にいくつもの機能が入っている、ということですね。確かに便利ですが、状況に合わせて適した道具を選ぶのは結局、人なんです。器用な人はすぐ選べるかもしれませんが、もしかしたら、木を切るためにハサミを選ぶような人がいないとも言えません。ChatGPTはプロンプトという文書1つで使えなければいけないので、実は意外と難しいことだったわけです。
これだけ多くの人に広まってはいるものの、おそらくほとんどの人はまだ、ChatGPTの良さを引き出せていないのではないかと感じています。何かすごいことができるのはわかる。けど、自分が本当にやりたいことのために使えるまでには到達していなさそうで、それでもなんとかやってみようとすると、自分もそれなりの能力を身に付ける必要があるわけです。
牛久:確かに、何でもできるような見た目をしているChatGPTは、あるお題を入れれば答えてくれるものの、その道のプロが使えるレベルかというと、そうではない時も多いですよね。高レベルな結果を導くためには、大量の呪文(プロンプト)を書かなければいけない。中国では、プロンプトエンジニアがものすごい高給だとニュースになっていましたが、それぐらい特別な知識が必要だということなのでしょう。
そのような特殊技能を持たない人たちにも使えるものにするためには、もっともっとシンプルにする必要があるのかもしれません。昔から業界を問わず、物事を簡潔にしておくことを、"Keep It Simple, Stupid"、KISSの法則と言われたりします。我々人類はまだ、誰でもこうしたプロンプトを使いこなしてプロレベルの仕事をできるようになるほど急激に変われるものではない、ということがよくわかりますね。
西村:栗原先生は先ほど、人類とAIが共助する関係性について語られていましたが、それはつまり、人類が「何をしたいのか」、あるいは、人類が「どうすれば変われるのか」というお話でもあったかと思います。
世に先駆けた技術でソーシャルニーズを創造してきたオムロンでは、「機械にできることは機械に任せ、人間はより創造的な分野で活動を楽しむべきである」という創業者の哲学が引き継がれていますが、これからの人類は一体、どのような方向に進んでいくといいとお考えですか。
栗原:例えば、牛久さんがあるアプリケーションを設計したとしましょう。それをユーザーが使う場合は、当然ですが、牛久さんというプログラマーが創り上げたアプリケーションそのものをユーザが利用します。ところがChatGPTなどの生成AIは、我々の言語データを原料として、TransformerというAI技術により大規模言語モデルとして集積されたモノを我々は利用しているのです。つまりは生成AIは「人で出来ているのです」。その意味でも、学習型ではないこれまでの多くのテクノロジーとは大きく異なるものなんです。
生成AIは、さまざまな人のデータや誰かの発言から回答を生成するものであって、結局のところ生成AIに質問するということは、実はとんでもない多くの人々に質問しているようなものなのです。
よく、「生成AIばかり使っているとどんどんAIに頼るようになってしまう」と言いますが、そもそも生成AIとやり取りするということは、人に聞いていることと同義なんです。なので、聞いて返ってきた回答に納得するなら、どんどん頼る。生成AIを使いこなすためには、人から聞くだけではなく、人から聞いたものを自分がどうするのか、という強いモチベーションもないといけません。
栗原:学校の先生に教わったことに対して「わかりました!」と答えるだけであれば、それは先生の言うことを鵜呑みにしているだけです。AIと対峙するなら、「先生、ここはどうなんですか」と、さらに一歩前に出ないといけないんです。でもほとんどの人は、完璧に見える答えを言われてしまうと、さらに問い直すことは簡単ではないのです。
私自身も経験があることです。例えば昨今、AI学会倫理委員会での議題として、日本における安全保障に関することなんですが、当然議論は膠着状態でなかなか進みません。そこで生成AIに安全保障について尋ねると、さまざまな人が言った意見が出てきて、しかもそれをちゃんと整理してくれる。私はただ感心してしまいましたし、納得すらしてしまいました。
納得では、ただ受け入れただけの段階です。本来ならさらにそこで「だから、これはどうなのか」と、もう一歩踏み込むべきところですが、納得の段階で慣れてしまっていたら、もうそれ以上突き進むことは難しいと実感しました。「生成AIはうまく使えばいい」という意見はごもっともですが、本当にうまく使いこなすためには、人類もそれなりの好奇心や向上心など、確固たるものを持っていないといけないでしょう。
牛久:私もよく同じことを考えています。ソニーの北野宏明さんが提唱されているノーベル・チューリング・チャレンジというのがあって、それは2050年までにノーベル賞を受賞するようなAIを開発する挑戦です。私もそういう社会の実現に向かってAIを研究していますが、結論から言うと、人類もAIと生み出す研究成果についてきちんと勉強していかないと何も意味がない、と痛感しています。
例えば、災害を止める技術をAIに開発してほしいと願って、AIがやってくれたとします。しかし高度に発達したAIに人類がついていけていなければ、無事に災害が止まったとしてもその理由がわからないので、AIが起こした結果なのか、あるいは、天の配剤による結果なのかということすら、見分けがつかないことになってしまうんです。
この先、AIやロボット自身による研究が進むのだとしたら、そこに研究者も一緒にいて、どういう研究をしているのかをAIから聞き出すことが求められると思います。学んだ上で人間からAIロボットに対して必要な範囲のコントロールを行い、正しい方向性を示すこともしていかないと、真に人類の科学のためにはなりません。AIやロボットがブラックボックスに地球をシミュレートして制御しているのではなく、人類が解釈して、人類のものにしていかないといけないですよね。
栗原:まさに、その通りですね。生成AIが出てきたことによって、私たちは今まで以上に賢くならないといけない。生成AIと対峙したときに重要なことは、自分で考える能力です。AIが10通りの解決方法を提示したら、どれがベストかを選ぶ必要があります。選ぶためAIに質問してもいいとは思いますが、その時AIが言っていることを鵜呑みにするだけでは、最終的にAIに選ばせているわけで、全く意味がなくなってしまう。
自分で選ぶということは、使いこなそうという意欲が必要です。そのため教育の在り方も問われるのではないでしょうか。単に問題が解けるということに加えて、本当に理解すること。そして、それを使って何をするのか、何を学ぶのか、といった教育の本質にも重要性が増してくると思います。
すっかり知識の詰め込み型になった受験や日本の学校教育が、本来の教育に立ち戻るにはどうすればよいのか。北欧などでは小学校でも、「1足す1は2」と教えるのではなく、「何を足したら2の状態ができるか」と、過程を考えさせる教育をしています。私たちもそうしたレベルから作り直さなければいけない。しかし世間がどのくらい問題意識を持っているのかと考えると、それもまた危惧を感じるところではあります。
牛久:私自身も時々、例えばどこかの企業と契約を結ぶときなど、こちらに不利になる内容の箇所を教えてくれるAIサービスを使っているんですが、AIに「ここはこういう文書の方が良いよ」と言われると、「そうか」と受け入れることしかできない時もあるんです。本当はそこで「いや違う、その解釈は間違っているかも」といったさらなる問いも必要なはずで、そのためには自分自身もベーシックな法的知識を身につけないといけないと実感します。
同時に、AIから教えてもらうことがあるのも事実で、ただAIの示すことを鵜呑みにしてしまうことと、自分の中で体系化しながら蓄積することは、似て非なるものだと感じました。最終的に自分の中に何か残るものがあるかどうか。これは非常に重要な観点だと思います。
西村:おふたりのお話を聞きながら、「鵜呑みにしない」という点は、技術の提供側にも必要な観点だと感じました。開発側は、回答の背景をまったく教えないようなサービス提供をしてはいけないわけですよね。開発側の人間性が問われる点については、いかがお考えですか。
栗原:研究者・技術者の本音として、作っている側は、ただただ楽しくやるべきというのがあるべき姿だとは思います。僕であれば、自律性と汎用性に基づく次世代AIの実現が野望なので、それをどこまで実現できるのか、という追求自体を楽しくやっているわけです。
その意味では、Transformerなど大規模基盤モデルが切り開いたことの価値は非常に大きいと思うんです。ChatGPTレベルが出てきたことの偉大さは、もう言葉にできないぐらいすごいことだと思いますよ。単に流暢に喋るAIということだけでなく、私たち人類の常識や暗黙知に相当するような、大規模なデータを学習しているとなると、使い方によってはかなり高度なものを引き出せます。もちろん同じことはアメリカも中国も考えているので、いかに日本が先にいくか、開発者たちは追い立てられているところもあると言えます。
牛久:開発する側としては、AIをどんな目的で取り扱うのか、ということを重要視していると思います。確かに作る時は、作ること自体が楽しいです。例えば刀鍛冶になった気持ちで、どれだけ切れ味の良い、かっこいい刀が作れるかどうか、といった追求があります。ただ同時に、安全性のために、どう使われるべきか、もしくは、どう使うことを許さないのか。作り手も考えてはいますし、規制についてはコミュニティが考える問題だとも思います。
栗原:大事な点ですね。今、AIアライメント(規制)を各社が定めていますが、本来なら、開発時点では全てのアライメントを無くさないと、可能性までもが制限されてしまうのは事実でしょう。
栗原:これは以前、実際に言われたことなのですが、例えばフィクションのクリエイターたちにとって、「ChatGPTは人の殺し方は教えてくれない」と言うんです。今のAIは適切なアライメントが掛かっていて、そのような使い方ができないことになっている。例えば人口増加の問題を問うときに、「気候変動の解決のためにもしも人口が半分になったとしたら」と妄想することがあったとしても、我々は実際に行動に移すことなんてしませんよね。ただ映画などフィクションのストーリーにはそのシナリオもあり得るかもしれない。そのためAIでも、何もアライメントがないゼロレベルで考えられた上に、最終的なアウトプットの手前でモラルフィルターが掛かる仕組みなどが理想だと思います。
しかし現時点においてはモデル自体のリスクを考慮してそれはできませんので、モデル自身に働きかけるしかないわけです。でも純粋な研究者の野望としては、どこまでいけるのか、追求は止めたくないものだと思いますね。
牛久:危険性については考慮すべきだが、どこまで技術的にいけるのかも知りたい。そうなると、現在のように最初から規制するだけではなく、例えば免許制など、段階的に特定の基準を満たした人に許していくのか。技術と規制のどちらも主体を一緒にしてしまうことで、技術そのものを衰退させるようでは、いびつな構造になってしまっている可能性はありますね。
栗原:それ自体がバイアスを掛けてしまっていますからね。例えば原子力の場合、その限界を人類は見てしまった。さまざまな実験をして、代償も大きかったわけですが、しかしそれゆえになんとか蓋をしようという頑張りもはたらいています。
AI開発はまだそのようなレベルまで進んでいないですし、そこが生煮え的に進んでしまうと、明確な倫理の議論も進みません。もしも本当に危険なものを作ってしまったのならば、怖さを身をもって知り、ブレーキを踏むことに対しても真剣になれるからです。中途半端であるが故の怖さは気になるところです。ただ、開発者ではなく経営者の場合、この判断は悩ましいでしょうね。
牛久:株式会社だったら株主の利益のためにしないといけないですし、市場からそっぽを向かれたらレピュテーションリスクが発生しますからね。
西村:なるほど。確かに株式会社が利益を最大化することに加え、国として、あるいは、組織としてのガバナンスもありますよね。市民としてはやはり、安心した上で託したいですし、株主だって市民ですから、利益も大事だけど同時に世界もちゃんと豊かであってほしいはず。ぜひ後半は、今おふたりが注目されている技術的なトピックスや革新について、注目していることなどを教えていただきたいと思います。