研究報
Research Expectations

Technology human touch background, modern remake of The Creation

F-Lab.2024

「ただの道具ではなく友だちに」 AI技術で未来社会をデザインする

Technology human touch background, modern remake of The Creation
230607-15[1][1]

吉川 厚 ATSUSHI YOSHIKAWA

理工学部 理工学科
情報ネット・メディアコース 教授

人工知能/認知科学

ビッグデータが示す真実ではなく「ずっと付き合う」にこだわる

話題のChatGPTに気になることを質問すると、トンチンカンな解答が返ってくることがあるだろう。ビッグデータから確率論的に導き出されたテキストは、人間らしい倫理や正しさを持たないがゆえに嘘をつくこともある。そんなAI(人工知能)と、私たち人間はどのように付き合っていけるのだろうか。

「むしろ、真実ばかり言ってくるAIがいたとして、それって堅苦しくないですか? 短期的な付き合いであれば真実を教えてくれるほうがいいでしょうが、ずっと一緒にいる存在にはなり得るのか。例えば、10年来の友だちとおしゃべりをしているとき、その相手が嘘をつけばだいたいわかりますよね。冗談を言えばツッコむかもしれないし、自分だって時には裏腹なことを言ったり、無駄話をしたくなったりする。AIが人生のパートナーの役割を担うと考えた時に、重要なのはAIが私たちの嘘を許容したり、柔軟に冗談を言ったりしてくれるようになることだと思うんです」

関東学院大学理工学部理工学科情報ネット・メディアコースの吉川厚教授はそう語る。吉川教授が取り組むのは、「ずっと付き合う」にこだわったAIの開発だ。間違ったことを言ったとしても、適宜指摘して改善することで、学習しながら成長していく。

AIに一方的に正解を教えてもらうのではなく、対等に付き合っていける関係性。それを実現するには、ユーザーが主体的に行動を起こせるようなデザインも必要だ。

「言葉の意味を調べたいとき、Webの辞書であれば素早く正解にたどり着けるよさがある。ただ、紙の辞書を使う時に、調べたい単語の周りにある情報が目に入って読み込んでしまうことがありますよね。そうした見せ方に、ユーザーの主体的な行動を促すヒントがあると思います」

社会的なバイアスを再生産することなく
新しいインターフェースを生み出す

医療現場のシチュエーションで「話しやすさ」を生む仕組みを調査

ずっと付き合うためには、AIに対しての「話しやすさ」も大事になる。相手に伝えやすい/心理的抵抗感のない仕組みについて調べるために、吉川教授は心理学的な実験にも取り組んだ。

「医療現場で、人には話しづらい症状について打ち明ける際、医療従事者の属性によって言いやすさは変わるのか。そうしたことを調査すると、男性であるか女性であるか、医師であるか看護師であるか、若者であるか年配であるかによって自己を開示できる度合いが異なることがわかりました。そこには、権威(看護師よりも医師)に対する服従の心理や、ジェンダーバイアスが存在する可能性もありました。私たちはそれを事実としては認めつつ、肯定はしないスタンスです。今後の社会を考えるうえでは、必要のない差別や偏見を再生産しない方向をめざしてインターフェースをデザインしたいと思っているんです」

 ひとつの方法としては、AIの見た目を男性でも女性でもない中性的なものにすることも考えられるという。そうしたAIと接する時間が増えれば、性別やある属性に対する偏重のない世界になっていくかもしれない。接しやすいAIを追い求めながら、同時に現状の社会構造のなかにある問題点は無視せず、テクノロジーを使ってより持続可能で、みんなが生きやすい社会をつくる。それが吉川教授のめざすところだ。

友だちのようなAIにリアルな身体は必要なのか?

未来社会をどうデザインしたいか、その社会では何が求められ、どんなテクノロジーが必要なのか─―。吉川教授は、人工知能が当たり前になった世界をイメージし、そこで私たちが何を必要とするのかを多角的に追究し続けている。

「最速で正解を導き出す道具としてではなく、友だちのようにずっと付き合っていけるインターフェースをつくりたい。これは正確性すら問い直す作業で、ビッグデータを起点とした技術を開発している大手IT企業が手を出さない領域だとも思っています。いま悩んでいるのは、こうしたAIエージェントにリアルな身体が必要なのかどうかということ。子どもがぬいぐるみを抱きかかえたりすると、自然に語りやすかったりするんですよね。ユーザーが積極的に関わるためには、リアル(真実)に寄せたほうがいいのか、あえて情報をそぎ落とすのか。これはAIの社会利用を考えるうえでずっと問い続けたい面白い課題です」

性別、役職、年齢によって「言いやすさ」が変わるのか検証すると、年配男性は医師よりも看護師に話しやすくなるといった結果も見えた

「不気味の谷」とは、人型ロボットなどの様態があまりにも人間に近いときに、見る者に違和感や嫌悪感を抱かせるとされる現象。吉川教授はこれを踏まえてAIエージェントの姿を考えている

AIエージェントの共感率(傾聴度)が高いと人はどう感じるか検証。共感度が高すぎるとしつこさや馴れ馴れしさを感じる傾向も見られた

転載元:【研究で選ぶ大学進学情報「F-Lab.2024」】
©️2023 アローコーポレーション