神原 誠之 (カンバラ マサユキ)
KANBARA Masayuki
|
職名 |
教授 |
|
学位 |
博士(工学)(奈良先端科学技術大学院大学) |
|
専門分野 |
ヒューマンロボットインタラクション(HRI) |
|
ホームページ |
|
|
外部リンク |
|
|
神原 誠之 (カンバラ マサユキ) KANBARA Masayuki
|
Yu Fang, Yuichiro Fujimoto, Mitsuhiro Uratani, Isidro Butaslac, Taishi Sawabe, Masayuki Kanbara, Hirokazu Kato
Empathic Computing 2025年
出版者・発行元:Science Exploration Press
Aims: This study aims to investigate the relationship between eye movement behaviors and social competence, particularly focusing on listening patterns in multi-person conversations. The goal is to identify objective, quantifiable behavioral indicators of social competence to inform the development of assessment tools and training interventions.Methods: A three-person setting was designed with two conversational partners and one primary listener, and immersive eye-tracking data were collected using Microsoft HoloLens 2 during conversations on naturalistic topics. Social competence was rated by a clinical psychiatrist using standardized behavioral criteria, while analysis targeted three pre-selected indicators: nodding frequency, selective attention allocation to speaker’s regions of interest (head versus shoulders), and vertical gaze stability during listening.Results: The results revealed that nodding frequency showed a strong positive correlation with social competence scores, indicating its potential as a robust nonverbal biomarker. Participants with higher social competence demonstrated greater attention to the speaker’s head region while minimizing focus on less informative areas such as the shoulders. Furthermore, individuals with higher scores exhibited significantly lower vertical gaze dispersion, reflecting more focused and stable attentional control during social listening.Conclusion: This study establishes reliable eye movement-based indicators of social competence, highlighting their potential for assessing and enhancing social skills in real-world interactions. By integrating multimodal behavioral analysis, the findings provide a theoretical and technical foundation for developing personalized, real-time feedback systems for social competence training.
Effects of Eye Vergence and Accommodation on Interactions with Content on an AR Magic-lens Display and its Surroundings. 査読あり 国際誌
Geert Lugtenberg, Klen Copic Pucihar, Matjaz Kljun, Taishi Sawabe, Yuichiro Fujimoto, Masayuki Kanbara, Hirokazu Kato
IEEE transactions on visualization and computer graphics 31 ( 8 ) 4387 - 4399 2024年5月
Augmented reality (AR) magic-lens (ML) displays, such as handheld devices, offer a convenient and accessible way to enrich our environment using virtual imagery. Several display technologies, including conventional monocular, less common stereoscopic, and varifocal displays, are currently being used. Vergence and accommodation effects on depth perception, as well as vergence-accommodation conflict, have been studied, where users interact only with the content on the display. However, little research exists on how vergence and accommodation influence user performance and cognitive-task load when users interact with the content on a display and its surroundings in a short timeframe. Examples of this are validating augmented instructions before making an incision andperforming general hand-eye coordinated tasks such as grasping augmented objects. To improve interactions with future AR displays in such scenarios, we must improve our understanding of this influence. To this end, we conducted two fundamental visual-acuity user studies with 28 and 27 participants, while investigating eye vergence and accommodation distances on four ML displays. Our findings show that minimizing the accommodation difference between the display and its surroundings is crucial when the gaze between the display and its surroundings shifts rapidly. Minimizing the difference in vergence is more important when viewing the display and its surroundings as a single context without shifting the gaze. Interestingly, the vergence-accommodation conflict did not significantly affect the cognitive-task load nor play a pivotal role in the accuracy of interactions with AR ML content and its physical surroundings.
Artifact reduction in lenslet array near-eye displays. 査読あり
Bi Ye, Yuichiro Fujimoto, Taishi Sawabe, Masayuki Kanbara, Hirokazu Kato 0001
Vis. Comput. 40 ( 2 ) 601 - 618 2024年2月
Investigating the Efficacy of Pain Relief Through a Robot's Stroking with Speech. 査読あり
Kota Nieda, Taishi Sawabe, Masayuki Kanbara, Yuichiro Fujimoto, Hirokazu Kato 0001
ACM/IEEE International Conference on Human-Robot Interaction 794 - 797 2024年
ロボットの「話しながらなでる」動作が人の痛み知覚に与える影響の調査
新江田, 航大, 澤邊, 太志, 神原, 誠之, 藤本, 雄一郎, 加藤, 博一
信学技報 123 ( 154 ) 26 - 29 2023年8月
出版者・発行元:電子情報通信学会
痛みを訴える子供に対して大人が痛い患部に触れながら,「痛いの痛いの飛んでいけ」とおまじないをかける行為で,痛み知覚が軽減すると言われている.本研究の目的は,「痛いの痛いの飛んでいけ」に着目し,ロボットの「なでる動作」による痛み知覚の軽減効果を調査することである.この効果は,心理学的分野におけるゲートコントロール理論で説明することができる.この理論に基づき「話しながらなでる」動作による「痛み」軽減効果を被験者実験を通して調査した.ロボットアームによる「話しながらなでる動作」と低周波治療器による「痛み」の再現を,10名の被験者で評価した結果,「なでる」動作と「話しながらなでる」動作で痛み軽減の可能性が示唆された.
島田, 和輝, 澤邊, 太志, 宍戸, 英彦, 神原, 誠之, 北原, 格
第84回全国大会講演論文集 2022 ( 1 ) 71 - 72 2022年2月
自動走行下では、車両の加減速やカーブといった車両の加速度変化を予測しにくいため、自身で運転しているときに比べて、身体が大きく揺さぶられることで不快感が増し、乗り物酔いが起こりやすいとされている。本研究では、その自動走行下での不快感を軽減することを目的として、身体にかかる加速度を前もって搭乗者に知覚させるような映像を提示することで予備動作を促し、身体の揺れを軽減させることを試みた。実験は、電動車椅子とHMDを利用して疑似的な自動走行環境を再現し、あらかじめ撮影した映像に対し、加速度に応じた変換を施した映像を電動車椅子搭乗者に提示するといった方法で行った。
移動感覚制御のためのXRモビリティプラットフォーム—マルチメディアストレージ メディア工学 映像表現&コンピュータグラフィックス
澤邊 太志, 神原 誠之, 藤本 雄一郎, 加藤 博一
映像情報メディア学会技術報告 = ITE technical report 46 ( 6 ) 331 - 336 2022年2月
組み立て・メンテナンス作業を支援する汎用型AR作業支援システムのコンテンツ記述フォーマット—第185回 ヒューマンインタフェース学会研究会 人工現実感,エンタテインメント,メディアエクスペリエンスおよび一般
上田 俊太郎, 藤本 雄一郎, 澤邊 太志, 神原 誠之, 加藤 博一
ヒューマンインタフェース学会研究報告集 23 57 - 61 2021年
光透過型ディスプレイの錯覚的色域拡張の一検討 (メディアエクスペリエンス・バーチャル環境基礎)
秋山 諒, 山本 豪志朗, 天野 敏之, プロプスキ アレクサンダー, 藤本 雄一郎, 神原 誠之, 加藤 博一
電子情報通信学会技術研究報告 = IEICE technical report : 信学技報 119 ( 386 ) 49 - 53 2020年1月
Motion Sense-free Cabin:自動走行時の快適性向上を目的とした搭乗者の移動感覚制御
2024年4月 - 2028年3月
学術振興機構 科学研究費助成事業 基盤研究(B)
神原 誠之, 澤邊 太志, 北原 格
常時認証と対話環境推定に基づくプライバシを守るヒューマンロボットインタラクション
2024年4月 - 2027年3月
学術振興機構 科学研究費助成事業 基盤研究(C)
村川 賀彦, 神原 誠之, 中西 功
人に快感情を与える「話しながらなでる」ロボットの実現
2023年4月 - 2027年3月
学術振興機構 科学研究費助成事業 基盤研究(B)
高汐 一紀, 神原 誠之, 佐藤 弥
研究計画初年度となる2023年度は、下記研究項目における議論を並行して進めた。
<BR>
研究項目1:「なでる動作の力学的センシングおよび動作設計」に関しては、ストレスを抱えている際の腕の力みに即応して手を優しく握り返すロボットを提案した。鳥取県日南町国民健康保険日南病院にて実施されたフィールドワークの知見にもとづき、ロボットを抱える強さによりストレスの有無を判断する手法の提案と、ぬいぐるみ型ロボットのプロトタイピングを行なった。ロボットを抱える強さとストレスの関係性について検証するため、ストレス下と安静時でロボットを抱える強さを計測、比較を行った。結果として、ストレス下では、安静時に比べて弱い力でロボットを抱えていることがわかった。
<BR>
研究項目2・3:「快感情を与える「話しながらなでる」動作の高度化」および「同動作の心理的評価」に関しては、これまでのロボットの触覚の知覚にはロボットの外観に大きく影響することが示されているため、「話しながらなでる」ロボットの外見 VR によって視覚的特徴を変化させ、その影響を調査した。本年度はステレオタイプ・コンテンツ・モデル(SCM)を用いて26人の参加者を対象に2部構成のユーザスタディを行い、その結果、印象が暖かいと認識される外見は、印象が冷たい外見よりも好かれ好まれることがわかった。さらに、ロボットによる「話しながらなでる」動作が,心理的影響のみならず,身体的苦痛の知覚を変化させるかを検証した。実験では,ゲートコントロール理論に基づき「なでる」動作と「話しながらなでる」動作に痛み知覚軽減効果があるのかを37 名の被験者による評価実験を実施した。その結果,「話しながらなでる」動作で痛み知覚軽減効果が示唆され,より快感情を与える「話しながらなでる」動作は「なでる」動作より痛み知覚軽減効果が大きいことが示された。
XR自動走行プラットフォームを用いた搭乗者の快適性を向上する移動感覚制御
2021年4月 - 2024年3月
学術振興機構 科学研究費助成事業 基盤研究(B)
神原 誠之, 北原 格
マルチモーダルタッチケアロボットの開発と心理学的検証
2019年4月 - 2023年3月
学術振興機構 科学研究費助成事業 基盤研究(A)
小笠原 司, 高松 淳, 松原 崇充, 神原 誠之, 佐藤 弥, 丁 明, 趙 崇貴
本年度は以下の研究内容に取り組んだ。
(1)触覚によるインタラクション技術開発に関しては、人の手を模したハンドの改良を行った。ハンドの形状や機能を検討するため、再構成可能なハンド機構を製作した。そして、心理・精神的ストレスと人体の体温変化の関係について検討し、動的センシングの有用性について考察した。また、「なでる・さする」動作を計画・実行するタッチケア制御技術に関して、強く摺動動作を実行することなく、軽く触れただけで対象物のテクスチャやマイクロ形状等に関する触覚情報を取得可能なシステムの構成を検討した。
(2) 視覚・聴覚・触覚刺激統合による「話しながらなでる」動作のさらなる詳細な検証を試みた。介抱の際のように相手に快感情を与えるタッチケアを、ロボットで実装するために必要な「話しながらなでる」動作のモデル化を実現するために、人の「話しながらなでる」動作の計測を行った。具体的には、介抱する環境を、人がマネキンをなでることで再現し、「話しながらなでる」動作のなでる動作、話す速度などの計測を行った。計測データを解析することで、話す速度となでる速度に正の相関がある点、なでる動作の折り返しのタイミングと話す文章の文節が一致する傾向があることが明らかになった。
(3)マルチモーダルタッチケアの心理学的検証に関しては、視覚・聴覚によるインタラクション技術開発の項目で開発した対話方法に関して、より効果的な「なでながら話す」動作を検証するために被験者実験による心的変容の主観的・客観的評価に関する実験を行った。昨年度に得た、「話す」のみ、「なでる」のみ、よりも「なでながら話す」動作が人間に効果的な影響を与えることができるという知見を立証するために、追加の被験者実験を行った。