研究室はオモシロイ

大学、専門学校や企業などの研究室を訪問し、研究テーマや実験の様子をレポート

第12回 Part.2

第12回 対話型コンピュータの実現をめざす(2)
Part.2
録画予約の操作を教える
エージェントを開発

成蹊大学
理工学部情報科学科 中野 有紀子研究室
※組織名称、施策、役職名などは原稿作成時のものです
公開:
 更新:

私たちの生活や仕事にはコンピュータが欠かせなくなってきた。しかし、あらためて考えてみると、コンピュータの操作にキーボードやマウスがほぼ必須なのは、いつまで経っても変わらない。近未来を舞台にした映画や小説のように、人間が話しかけるとコンピュータが返事をしてくれるようになる時代はまだ遠いのだろうか。今回は、アニメーションキャラクターなどを活用した、人間とコンピュータのより自然なインタラクション(相互のやりとり)の研究をしている成蹊大学理工学部情報科学科の中野有紀子先生の研究室を訪ねてみた。(Part.2/全5回)

▲中野 有紀子 准教授

中野先生によると、エージェント(*1)情報科学、とくに人工知能の分野でよく使われる言葉。この言葉自体はもともと「代理人」とか「動作主」といった意味がある。の研究は、まだ新しい分野だが、具体的な研究例としては「操作説明のためのヘルプエージェント」「ユーザーの態度に気づく会話エージェント」「異文化コミュニケーションを支援する会話エージェント」「没入型環境におけるガイドエージェント」などがある。それぞれどのようなものなのか、具体的な内容を教えていただくことにしよう。

操作説明のためのヘルプエージェントの研究では、テレビを見ることができるパソコンで番組予約などの操作説明をするエージェントを開発した。日立製作所中央研究所との共同研究で、2006年度と2007年度に取り組んだプロジェクトだ。

「操作マニュアルのようにすべてを順番に教えるのではなく、ユーザーが迷ったり戸惑ったりしているときに助けてくれるエージェントをつくれないだろうか、という発想から研究を始めました。

そういうエージェントを開発するためには、人間に学ぶべきではないかと考え、人間ならどのように教えるか、教えてもらうユーザーはどのように反応するか、実験をしてデータを取ることにしました」

完成したシステムのように
キャラクターを操作

▲ウィザード・オブ・オズの手法による実験(エージェント役)

この実験では、エージェントとしてウサギのアニメーションキャラクターを作成。ユーザー役の被験者には、ウサギが番組録画予約の仕方を教えてくれると伝え、ウサギの説明に沿って操作をしてもらった。

では、実験開始時点で、すでにエージェントが完成していたのだろうか? もちろん、それはムリな話で、これにはからくりがある。

「ウィザード・オブ・オズ(オズの魔法使い)と呼ばれる実験方法を使いました。これは、システムとしてはまだできていないけれども、その人工物に対して人間がどのように反応するか、どのようにインタラクションするかを知りたいときに、とりあえず見かけだけつくって、それを人間が操作し、被験者のデータを得ることを目的とした実験方法なのです」

▲ウィザード・オブ・オズの手法による実験(パソコン画面)

ユーザー役にはパソコンのモニターを見ながら、マウスで操作を進めてもらう。そのモニターには番組録画予約の画面が表示され、ウサギのキャラクターが説明をする。

一方、ユーザー役からは見えないところに120インチぐらいの大きなスクリーンを設置。そのスクリーンにもモニターと同じ番組録画予約の画面が表示される。そして、スクリーンの前にはエージェント役がいる。その人の身体には、腕などあちこちに動きを感知するセンサーを取り付けて、何か動作をすると、その動きがパソコンに取り込まれ、ウサギが同じ動作をするように制御する。

また、エージェント役は、別のモニターでユーザー役を見ることができるので、その様子に合わせて説明を進める。さらに、エージェント役の発話は機械音声に変換される。つまり、ユーザー役にはウサギのキャラクター自身が説明しているように思えるわけだ。

マウスの動きのデータを基に
ユーザーの行動を予測

「この実験は、キャラクターの説明に対して、ユーザーのマウスがどのように動いたかのデータを集めるのが主目的です。キャラクターが何かのボタンを押してくださいと言ったときや何か動作をしたときのマウスの動きを1秒間に100~200回検出し、キャラクターの発話や動作とマウスの動きの相関関係のデータを取りました。

そして、そのデータをもとに、ベイジアンネットワークと呼ばれる手法で対話モデルをつくりました。ベイジアンネットワークは人工知能の一種で、データ同士の相互の関係から、近い将来にどのようなことが起こる可能性が高いかを推論するシステムです。この研究では、マウスの動きを基にユーザーの現在の状態を把握しながら近い将来の行動を予測し、適切な対話を行えるようにしていきました」

押すべきボタンが分からなければ
画面上を移動して指し示す

▲完成したヘルプエージェント

こうした過程を経てプログラムを作成し、ウサギのキャラクターの操作説明エージェントができあがった。

たとえば「地上デジタルと地上アナログのボタンが表示されます」と説明して、表示されたら「アナログのボタンを押してください」と喋る。もしボタンが見つけられないようだと、ボタンのところまで移動して「ボタンはこちらです」と指し示す。これなら、わからない人はまずいない。では、エージェントはどのようにして自律的に説明をしているのだろうか。

「このシステムでは、キャラクターの発話や行動を会話管理部というところで制御しています。何かの説明をしているとき、同時にマウスの動きのデータをどんどん取り込んでいます。そのデータを基にユーザーの行動をベイジアンネットワークで高速に推論します。ボタンを見つけられないようだ、ボタンをクリックしそうだ、といったことを判断して、次に何を話すべきか、何をするべきかを決めているのです」

ユーザーが最終的にすべきことは、すべて「ゴール群」として設定されている。また、そのゴール群にたどり着くために助けとなる説明や行動を選択するための「ルール群」が用意されている。

会話管理部は、現在の会話内容、ユーザーの状態、ゴール群を照らし合わせて、助けを出すためにどのルールを使うか決め、たとえば「Aボタンを押す」というゴールまでユーザーを導いていく。できあがったシステムは評価実験も終えている。21歳から69歳までの男女10人ずつ計20人を対象に、ビデオマニュアルによる操作説明とこのシステムとを比較してもらった結果、ビデオマニュアルよりもこのシステムのほうがずっとわかりやすくて便利だという評価が得られている。

【用語解説】
*1 エージェント:情報科学、とくに人工知能の分野でよく使われる言葉。この言葉自体はもともと「代理人」とか「動作主」といった意味がある。

《つづく》

●次回は「ユーザーの態度に気づく会話エージェントについて」です。

新着記事 New Articles