東大生研座談会“AIと工学が拓く社会” (前編)

菅野 裕介 情報・エレクトロニクス系部門 准教授

 東京大学 生産技術研究所に通う大学院学生5名が、東大生研の菅野 裕介 准教授を招き、「AIと工学が拓く社会」というテーマで座談会を行いました。


 

AIとは

 

生産技術研究所 嶋田 開

嶋田 開 (司会)
東京大学 工学系研究科 マテリアル工学専攻
東京大学 生産技術研究所 物質・環境系部門 八木 俊介 研究室
修士課程1年

嶋田(司会):今回、東大生研 物質・環境系部門の嶋田と人間・社会系部門の小川が司会進行を務めます。AI研究に携わっておられる菅野先生をお招きし、基礎系部門から佐藤さん、機械・生体系部門から上野さん、情報・エレクトロニクス系部門から羽山さんにお集まりいただきました。AIと工学について活発な議論ができればと思います。どうぞよろしくお願い致します。

小川(司会)菅野先生、そもそも“AI”とは何でしょうか?

菅野:概念レベルでは、人間みたいに知的な活動をするコンピュータのことをAIと呼んでいます。

小川:思ったよりも抽象的ですね。そのAIはいつ頃から始まったのでしょうか?

菅野:AIという言葉が使われたのは、1956年に開催されたダートマス会議が最初とされています。初期のAI研究は、どちらかというと人間の知識をルールとして書き下すことが主流の考え方でした。ただ、人間の持つ知識を全てプログラミングして機械に知的に行動させるやり方には限界があった。それに対し、データで機械を訓練するという機械学習の概念が徐々に発展し、さらに大規模なデータから訓練する方法が分かってきたのが最近です。

嶋田:最近は対話型や生成系AIという言葉を聞きますが、何が違うのでしょうか?

菅野:対話型AIは会話の繰り返しによって徐々に正解にどり着くAIで、ベースになっている技術は、質問を入れたら返ってくるだけのAIとすごく似ています。文章生成AIと画像生成AIは、これとは本質的に違います。さまざまな入力に応じて、出力が変わるのが文章の生成AIで、大量の本を読んで反射的に次の言葉を出せるように訓練した人みたいになります。画像生成AIは、ノイズのような情報を画像っぽく見えるように整理するものです。人が画像として認識する大量のデータで訓練しておくと人から見て画像っぽく見えるものを理解したようなAIができます。

嶋田:ChatGPTのような生成AIの台頭は、ある程度予想されていたのですか?

菅野:文章の欠損を予測するモデルを訓練する、というのが基本的なアイデアです。コンセプトは単純ですが、モデを大規模に訓練してみたらタスクに応じて臨機応変な回答を示すモデルができたところが驚きで、突然生まれた感じはありますね。しかも、基礎的な機能は無料で解放されてしまったという。

菅野 裕介情報・エレクトロニクス系部門 准教授

菅野 裕介
東大生研 情報・エレクトロニクス系部門
准教授

嶋田:菅野先生ご自身は、どのような研究をされているのでしょうか?

菅野:僕は人がどこを見ているかを予測できる“視線推定”に関する研究をしています。アイコンタクトは話の内容に影響を与えますよね。視線計測の研究は、これまではどうしても専用の装置を使う必要がありました。そこで僕は機械学習を使って、カメラだけで視線推定できるモデルを、大規模なデータから訓練する研究を始めました。それがAIで視線推定をする研究の始まりです。ただ訓練データを集めるのが大変です。特にデータバイアスの問題が重要です。訓練したデータに偏りがあったために、ある特定の集団でしか、うまく動かないなどの問題がないかを評価するデータが必要なのです。けれども、それが結構なハードルです。顔画像の撮影に協力してくれる人も少ないし、撮影に1時間かかるとみんな寝ちゃう。

嶋田:データ集めにそんな難しさがあるんですね。

菅野:ええ。そのため、東大生研のDLXデザインラボ(注1)と一緒にAICOMというプロジェクトを始めました。このプロジェクトは、多数の人に楽しく参加してもらいながら、視線推定の訓練データを得る試みです。向かい合って座る人の間に、文字を書いたポスターを挟んだ透明の板を置き、視線で文字を伝え合うゲームをしながら、顔画像の撮影をしてデータを得るというものです。

(注1)「デザインによる価値創造」をミッションに掲げ、2016年に東大生研内に設立された国際的なデザインチーム

 

生産技術研究所 視線推定の訓練データ収集のゲーミフィケーション(AICOM)

視線推定の訓練データ収集のゲーミフィケーション(AICOM)

研究生活とAI

嶋田:僕の研究では、次世代エネルギーの電池に用いる触媒にどういった物質が適しているかを、過去の文献を自分で読んで探しています。例えば、AIが最適な触媒を提示してくれたりするのでしょうか?

菅野:似たような研究事例はあるのですか?

嶋田:マテリアルインフォマティクスのAIを作ろうと、データ集めをしている企業があるという話は聞いたことがあります。

菅野:やはりデータを集めるのが難しいですよね。論文には図があったりするので、論文の内容を正確に把握するにはもう少し時間がかかりそうですが、10年後にはAIによる最適な触媒の提示ができているかもしれません。学生さんは、みんな気軽にAIを使ってみればいいのではと思います。

佐藤:僕の研究は実験物理系です。例えば、実験で赤外線のレーザーを作成し、特性を検証しています。それに対して、ChatGPTが論文に載っているモデルを見つけてきて、実験結果と比べるためのシミュレーションのコードを書いてくれるようなことは可能でしょうか?

菅野:シミュレーション環境のプログラミングが既に完成していて、コードも大量にある状態で、かつ論文が機械に判読可能なものになっていればできると思いますが、現状はどうですか?

佐藤:モデルが多様なので難しいですね。情報系のAIをやっている人が論文を見て自分で実装するという話で、そのコードもAIが生成した事例はあるのでしょうか?

菅野:できてもおかしくないですが、まだあまり見たことはないですね。例えば数式が出てくると正確に読み取るのが難しかったり、人間がしっかり書いていないところも多々ありますよね。機械を進化させるよりも、まず論文の表現を機械が読み取れるように変えるほうが簡単で、先に起きていく気がします。機械が介入しやすいように情報を整理していくことが重要で、これは各専門分野の知識を持っている人でないとできないところです。

生産技術研究所 羽山 由梨

羽山 由梨
東京大学 工学系研究科 電気系工学専攻
東大生研 情報・エレクトロニクス系部門 年吉 洋 研究室
修士課程1年

羽山:私はMEMS(注2)技術を用いた小型原子時計用の波可変光源を研究しています。デバイスがきちんと動作するかの判定などに、AIは応用可能なのでしょうか?

菅野:MEMSの分野では、シミュレーションのアプローチは完成されていないのですか?

羽山:そうですね、物理的なデバイスを作って実験するほうが要素として大きいです。

菅野:設計や製作の段階を自動化するには、試行の繰り返しがいかに簡単になるかが重要です。そのため、事前に予想できるシミュレーションは必要でしょう。今のAIが自動化して探索するのが得意なのは、結果の検証がしやすい分野です。世界の仕組みと性能の評価基準が明確に定まっているゲームのような仮想空間内で、良い性能を出すようにAIのモデルを自動的に最適化する、とかであればまだやりようがあるのですが、実世界に来ると突然難しくなる。データ化とシミュレーションが容易でないからです。

上野:僕は現在、大量のテキストデータを分析するLLM (Large Language Model)を応用して、ビジネスに有益な示唆を抽出する事業を立ち上げています。菅野先生ご自身は生成AIを使われていますか?

菅野:結構活用しています。ChatGPTとかOpenAIのサービスを使って、メールの文章を生成させたりしています。例えば、査読の依頼や催促のメールを作ってもらっていますよ(笑)。

上野:僕も似たようなことやっているんですよ。一応自分で書くんですけど、チェックのために文章を入れて、確認してもらっています。

菅野:文章だけで完結する範囲では結構活用できるのですが、一方で、それだけだとちょっとした作業の簡略化ぐらいにしか使えないのも確かです。画像や音など文章以外の情報も組み合わせるには、まだ発展途上ですよね。

(注2)
Micro Electro Mechanical Systems (MEMS)、半導体微細加工技術を用いて微小な可動機械構造を製作する技術の総称。

(後編に続きます)

東京大学 生産技術研究所の特徴のひとつとして、さまざまな専攻に所属する研究室が多彩な研究活動を行っており、また海外からの留学生等も多く国際色が豊かであることが挙げられます。
この記事は、大学院の進学先を探す理工学系の学生さんや、これから東大生研での活動を始める学生さんに、東大生研での活動・生活やキャリアパスを紹介する冊子「キャンパスライフ特集号」に掲載されたものです。
≫ 生研出版物

みんなのコメント

コメントはまだありません。

投票&コメントで参加

この記事が描く「もしかする未来」をどのように感じましたか?あなたの期待度を投票してください!

投票いただきありがとうございます!この研究についての、あなたの意見をお聞かせください。いただいたコメントは、承認されると「みんなのコメント」に掲載されます。コメントが盛り上がれば、研究者本人が登場することも・・・?!

コメントを残す

もっと詳しい研究内容を知りたい方、疑問や質問がある方は、研究室のウェブサイトをご覧ください。

前の記事 次の記事