OMRON

Corporate | Japan
人類が高度な抽象化スキルを兼ね備えた時、AIと人類がつくる社会とは[後編]

人類が高度な抽象化スキルを兼ね備えた時、AIと人類がつくる社会とは[後編]

昨今、私たちの暮らしに定着し始めたAIを搭載した商品やサービスの数々。慶應義塾大学理工学部教授の栗原 聡(くりはら・さとし)さんとオムロン サイニックエックス株式会社の牛久 祥孝(うしく・よしたか)の対談の前半では、AIと共存する未来について研究者の視点から率直な意見をお聞きできました。続く後半では、より具体的に、研究現場で起きていることや、お二人の胸中にある近未来についてお聞きします。

AIとの共助がもたらす、人類の新たな可能性[前編]はこちら

716_11.jpg栗原 聡(くりはら・さとし)
慶応義塾大学理工学部 教授 人工知能学会 会長 兼 オムロン サイニックエックス株式会社 社外取締役
NTT基礎研究所、大阪大学、電気通信大学を経て、2018年より現職。科学技術振興機構(JST)さきがけ「社会変革基盤」領域統括。人工知能学会・倫理委員会委員長。慶應義塾大学 共生知能創発社会研究センター長/慶應AIC生成AIラボ長 総務省・情報通信法学研究会構成員など。マルチエージェント、複雑ネットワーク科学、計算社会科学などの研究に従事。

716_10.jpg牛久 祥孝(うしく・よしたか)
オムロン サイニックエックス株式会社 Vice President for Research
2014年3月東京大学大学院情報理工学系研究科博士課程修了。同年4月NTTコミュニケーション科学基礎研究所(CS研)研究員。2016年東京大学講師(原田牛久研究室)。
2018年10月オムロン サイニックエックスPrincipal Investigator就任。
2024年4月から現職。画像キャプション生成や画像認識、クロスメディア理解の研究に従事。

<聞き手:西村 勇也(にしむら・ゆうや) NPO法人ミラツク代表

 

 

AIを持つロボットが取り組むチャレンジ

西村:人類の成長が問われるという前半でのお話、とても興味深かったです。後半では、今おふたりが注目されている技術や、一般的にはなかなかその凄さがわからない最新の開発などについてうかがえたらと思います。

727_2.jpg

牛久:私は最近、どうやったらAIやロボットが、人が行うような発明を代替できるのか、という研究に取り組んでいます。最終的には、人間も一緒に発明していくことが理想的だと思っていますが、現時点では、AIやロボット自身も単独で発明できるようになることを目指しています。

しかし、そのためには様々な事ができないといけないんです。まず、AIやロボット自身が実験をできるようにならないといけません。今は無機化学分野の先生たちと共同研究をしているのですが、人がやっている実験を見ていると、実に巧みに手先を使っているんです。材料を混ぜたり、それを型に入れたり。人の手による行いが、実験がうまくいくかどうかを左右していると言えるほどです。

そして人は、実験の結果から仮説を立てたり法則を導き出したりして次の研究に結びつけ、その仮説を検証するためにさらに実験を行います。このように、人のような柔軟な動きができるロボットの研究と、もうひとつ、人のように仮説や法則を導き出し検証できるAI、この2つの研究をしているところです。

栗原:ロボットの方が実用レベルにもっていく上でまだまだ大変なわけですね。確かに、ブレイクスルーが必要なのは、AIよりもロボットの方でしょうね。手の動きひとつにしても、生物はよくできていますものね。ロボットの分野ではこの課題をクリアしないと、物理世界では難しいままになってしまう。

ロボット分野に携わっていない私からの意見ではありますが、特に超高齢社会である日本においては、労働力となる工場などの組み立てロボットは当然として。介護や人が作業する場に入り込んで、それらの作業に対するロボット活用がとても重要になってくる。その時、ロボットの方から人に合わせてくれないと困ってしまうわけです。

727_3.jpg

栗原:そして、そのようなロボットに組み込まれるAIにおける、人とAIがどのような関係となるべきかについて、これまでの「以心伝心」とか「空気を読む」という表現に加えて最近はAIが人に対して「おもてなし」ができることが重要であると主張しています。おもてなしって、相手が何をされたら嬉しいのかを先に予測しなくてはいけませんよね。予測するためには、相手の素性や状況などを考慮して推論をするわけです。その時、単なる推論ではなく、人はある種のシミュレーションをしているはずだと思うのですね。これが人のすごいところでもあると思うんです。目の前にいる牛久さんが、今どんなことを考えているのか、さらには、話し相手である私のことをどう考えているか、なんてことまで考えていたりしますよね。その時に使われているのはおそらく、言語化するのは難しいですが、なんらかのシンボル的(抽象化された概念的)なものだと思うのです。

人類がこれだけの文明を築けた最大の理由は、言葉というシンボルの存在があったからこそだと考えています。シンボルとは集約したものへのラベルなので、バラバラのものや抽象的だったり煩雑だったりする状態を、文字や記号などを使って考えやすくしたり、伝えやすくしたりするものです。ディープラーニングが出てくる前のAIは、そうしたシンボルを十分に使いこなすことができなかった。なかなか突き抜けきれなかったのはそれも一つの要因だと思います。

しかしディープラーニングと生成AIが誕生して、膨大なデータを処理する数値計算ができるようになり、さらにTransformerを使ってシンボル化したアウトプットが可能になった。改めて、シンボル空間でのシミュレーションや推論、仮説立てなどを再構築でき、今までできなかったことができるようになる転換点でもあります。

牛久さんがされていることは、基盤モデルに対して、科学的論文を追加学習させているんだと思いますが、それは、仮説を生成するだけでなく、あるいは、仮説に至る推論の過程もシンボルとして出力させようとしているのでしょうか?

牛久:後者が近いですね。離れた分野と知識を融合するときには重要な手法だと思っています。仮説生成をするときも、まず論文や特許を読み込んでいく際に、グラフデータとして知識を繋ぎ合わせています。こんな時には何をどうすればいいのか、こういう時はこうする、といった知識を構築して、普通の生成AIと同じようにテキストを書いていく手法です。シンボル化はおっしゃる通り、至るところで出てきています。

シンボル化が出てくる他の研究の例が、ロボットの脳としてAIがシンボル化し、LLM(大規模言語モデル)でロボットを動かすというものです。言語で指示を与えられたロボットが、自分で周囲を見わたして、行動を判断する。ただこの時、何をするかまでは、まだわからないんです。例えば「机の上のパソコンをどけて」と言われたロボットが、ただ乱暴にパソコンを払い落としたとしても、文句は言えないことになってしまう。

それで私たちは、ロボットに対して、状況を一度シンボリックに理解し、そこからどういう状態にしようとしているかを、またシンボリックに説明してもらう、ということをしています。「机の上のパソコンをどけて」と言われたら、まず、この世界の中には机がありパソコンがあるといった、物体の情報をシンボル化します。その上で、何をどう変化させることが目的なのか、どういう状態にすることが与えられた指示なのか、まずはロボットに出力させるんです。その時点で万が一、ありえないものをどかそうとしているなど、人の思いとは違う場合はやめるようにデバッグしています。

727_4.jpg

栗原:なるほど。ロボットの思考をシンボル的に出力させて、人に可読性がある段階を経て、行動させるのですね。私もシンボル型の再生成に取り組んでいますが、現在の研究的には、シンボルをうまく使う方向性と、LLMで進める方向性、主にこの2つでしょうかね。

牛久:そうですね。世界的には圧倒的に、LLMでやってしまおうという方が多いですよね。ただシンボル化して繋いでいくことのメリットは、人にとって(ロボットの)行動の意図がわかりやすいということ。それと、人が介入できるということ、だと思っています。私たちはそうしたメリットの上で、着想したりものづくりをしたいという気持ちがあります。

栗原:AIが人と何かしらのやり取りをする場合、少なくとも人にとっては言葉が主たるメディアですので、AIがシンボル空間をうまく利用できる仕組みが必要になりますね.

 

AIは無限を認識できるのか

西村:栗原先生の、おもてなしというホスピタリティの例えはわかりやすいですね。私が尊敬する哲学者は「ホスピタリティとは、ただ相手を気持ちよくさせることではなく、お互いの持っているスキルやリソースを最大限に活用できる状況を作っていくこと」という定義づけをしているんです。今のシンボルによるロボットとAIの活用のお話はまさに、お互いが望んでいる状態に、より素早く近づいていくためのものだと思いました。

また今のようなお話は、おふたりが研究者としての理解があるからこそ、相互理解のある関係性を想像できるんだと思ったのですが、それはまさに、オムロンにオムロン サイニックエックス(OSX)が存在する本質的な価値にも近いことだと想像します。そこで、牛久さんが最近、OSXで力を入れて取り組んでいる研究について、もう少しご紹介いただけないでしょうか。

牛久:ではロボットとAIについてもう少しご紹介したいと思います。1つめはロボットですね。先ほど、実験の話をしましたが、人は五感を使いながら、実に柔軟に動いてるものの、ロボットはいまだに柔軟さがありません。人と一緒に作業を行う産業用の協調ロボットの場合、万が一ぶつかっても人が怪我しないようになっているんですが、私たちが目指してるものはまた少し違うものです。

人が五感を使いながら、いい意味では適当にできてしまうことも、ロボットはまだまだプログラムした通りの動きになってしまうので、なんとかそこを人のような、豊かなものにしたいと考えています。例えば、ロボットの指先に触覚センサーがついていて、目の前にあるものをどういう向きで掴み、それをどこかに部品として挿入したり、または、それを使って何かを混ぜたりといったことを、指先のセンシングだけで実現するロボットはできないだろうか。そんな試みをしています。

もう1つは、AIです。ロボットに実験をしてもらうにあたって、例えば何か新しい物質を作ろうとしたら、さまざまな材料の組み合わせが考えられます。そこで、この材料を使ったらどういう特性の物質になる、というシミュレーションができるAIを作ろうとしています。無機化学という分野は、結晶構造を伴っているものを扱う分野です。例えば塩の結晶構造は、ナトリウムと塩素が立方体を形成して、塩化ナトリウムが無限に続いています。この、「無限に続いている」ことが、今のAIにとってはとても難しいんです。なぜなら、無限に原子があるという、無限の情報を入れることができず、Transformerでも、無限のトークン(テキストにおける単語のようなもの)を入れることは無理だからです。

そこでどうしたら、無限のものを扱い、物質の特性を判断できるのか。Transformerのアテンションを魔改造すると、あたかも無限の原子が入ってきたかのような推論ができると気付いたので、Transformerを作り直す。そういった研究をしています。

727_5.jpg

栗原:面白いですね。私たちが言うところのアブダクション(仮説推論)やフレーム問題と近い気がしました。例えば「塩化ナトリウム」と言われたら「NaCl」でしかない。しかし、実際に塩があったら、そこには無限と思えるほどの結晶構造が存在している。でも私たち人はある種の常識のようなもので、無限に存在することの意味に悩むことなく塩化ナトリウムだと解釈できているので、いわばフレーム問題に悩まないでいい術を身に付けているわけですね。しかしAIにはそれがない、と。

牛久:そうです。ものすごく簡単に言えば、遠いところにある原子の影響はほとんど受けないと仮定して、それでも原子が無限に入ったかのような効果を持たせられるのかどうか、という研究です。もしかすると、実は人も無限には考えておらず、どこかでの打ち切りが行われているでしょうし、そうした類推を試すことも、今後は行っていくかと思います。

 

合意形成の手法を変える。信頼できるAIの活用法

栗原:本当の意味でのフレーム問題の解決を、なぜ私たちの脳が可能にしているのか。これが解明されてくると、さらに面白いことになりそうですね。解明することによって、AIが人に対してどのようなアドバイスやコメントをすればいいかも、変わってくるかもしれない。

これは別に僕だけじゃなく多くの人がよく言っていることですが、何年か後には、一人一人が自分専用のAIを持っている可能性があり、そうなるとAIも個々人それぞれに適応されていくべきなんですよね。例えば、私のAIは私に対して非常に心地よく、牛久さんのAIも牛久さんに対してすごく心地よいものであるような。ただそこで、私と牛久さん両方の利得を高めようとしたとき、最適な答えはだいたいにおいて見つけられない、ということになってしまう。人類はこれまでも、人類全体の利得を得ようとするとうまくいかないから、結局はリソースの取り合いを繰り返しているわけです。そこにAIを個人適用させたとしても、そのままでは抜本的な問題の解決はできないわけです。

しかしAIがAI同士の連携を行い、人類に代わってどのくらいの妥協点を取れば人類に利得となるかを計算することはできるわけです。ただその時に問題になるのは、例えば私の相棒AIが、私をどう説得するのか、ということです。今後、各個人の自律型AI(前編参照)が、自分の相棒である人を理解できるレベルとなり、人とAIとの付き合いが進んでいった時、どこかの段階で人が信頼できるAIに説得されることも起きてくるとは思います。その時に言いなりになるのではなく、AIが言ったことを理解して、納得できるかどうか、ということが重要ですよね。

自律型AIと論理的な対話ができ、「自分だけではこのアイディアは出てこなかった」と納得できたときに、AIが人を見守って、こちらもAIを信頼する関係性ができるんだと思います。通常、道具に対する信頼とは正確性ですが、自律型AIとの信頼関係は、自分のことを思ってくれている、あるいは、自分を搾取することはない、という信頼だと思います。その状態にシフトしていけるのなら、10年後か20年後か、仮に地球温暖化の解決のために人類が多すぎるという議論となり、そのためのAIが提示する解決方法に対して、何かしらの苦渋の判断をせざるを得なくなったとしても、民主主義的の下に信頼するAIと一緒であれば決断できるのかもしれません。

牛久:私も、信頼できて安心して使えるAIが出てきた時には、社会としての合意形成の方法は変わっていけると思っています。今は、選挙で多く票を受けた人たちのなかで合意形成することになってしまっているけど、それは個々人の声を全部俯瞰して決めることができないからだとも言えるわけで、AIが活用できる可能性はあると思います。

栗原:さらに、幸か不幸か日本は島国で、1億を越える人々がいるので、社会にAIが浸透する実証実験も進めやすいかもしれません。日本はユニークな立場になれる可能性は高いのだと思います。

OSXでの研究もそうですが、我が道を行く、という強い思いも必要ですよね。昔と違って、国が主導する場合はなかなか野心的な研究や実験がしにくくなってきている現状で、とはいえ、民間が全部を行うことは大変でもあり、確固たるビジョンやマインドが必要になってくるでしょう。

牛久:確かに民間の場合、株主の利益を損なわないことであればいろんなチャレンジが可能ですからね。それは強みだと捉える方が良いはず。想いに共鳴して、一緒にがんばろうという人たちの合意をもって、研究したり社会実装したり、よりローカルなコミュニティでどんどん進んでいけるのは良い時代の流れだという気がしますね。

727_6.jpg

 

新たな価値を創造する、他分野とのコラボレーション

栗原:そのような時代の流れという点でも、OSXは皆さん楽しそうにやってるし、楽しさがちゃんと伝えられています。とても重要なことだと思いますね。

牛久:目標に向かって進めていることや、研究員としてこの研究をどう楽しんでいるかということは、より積極的に発信していく方がいいと思っています。少なくとも、ちゃんと情熱を掛けていることは知ってほしいですから。

よく「AIが発達したときの人類の価値は何ですか」という質問をされますが、最近は「高度な抽象化能力です」と答えてるんです。つまりこれもシンボル化です。というのも、例えば研究室に新しい学生さんが入っても、抽象化が苦手な方は、似たようなことしかできなかったりします。既にある研究をちょっと別の手法に変えたり、おおよそ似たことをしたりして、少し精度が上がった、といったような範囲になってしまう。

その時に、面白い研究や大きなインパクトのある研究をするためには、全く違うところや、距離として遠いところから繋がりを持ってくるようなことを考えないといけません。そこで必要なのは、抽象化の能力です。考え方やプロセスが抽象化できればできるほど、より創造性の高い、価値の高い仕事ができる。そうした訓練のためにも、将来研究職に就かなくてもいいから、私たちと一緒に研究という題材を通じて体験してもらえると良いと思いますね。

西村:抽象化という点では、オムロンという企業もまた、自分たちの試みを抽象化し、他にはない発想でパートナーシップを組んできたし、今後もそうした協力関係を作っていくのかな、と想像しました。研究開発に限らず、組織としても、どれだけ距離があるところと一緒に共創できるのかは、今後に向けたキーワードになりそうですね。

牛久:そうですね。私たちもAIと、化学分野の人たちと共創して、化学者のAIを作ろうとしているんです。そうなると、私たちも化学分野についてそれぞれ勉強が必要ですし、化学分野側の方々もAIについて学んでいただかないと、議論が空中戦になってしまいかねません。高度に抽象化しながらも、お互いの結びつきを見つけるということが、我々としても、あるいは、オムロンの商いを考える上でも必要だと考えています。

関連リンク

ページ
上部へ