【ジャーナル等】

  • 1) 小池 英樹, 小林 貴訓, 佐藤 洋一, “机型実世界指向システムにおける紙と電子情報の統合および手指による実時間インタラクションの実現,” 情報処理学会論文誌, vol.42, no.3, pp.577-585, 2001.
  • 2) H. Koike, Y. Sato and Y. Kobayashi, “Integrating Paper and Digital Information on EnhancedDesk: A Method for Realtime Finger Tracking on an Augmented Desk System,” ACM Trans. Computer-Human Interaction, vol.8, no.4, pp.307-322, 2001.
  • 3) 鈴木 達也, 岩崎 慎介, 小林 貴訓, 佐藤 洋一, 杉本 晃宏, “環境モデルの導入による人物追跡の安定化,” 電子情報通信学会論文誌D-II, vol.J88-D-II, no.8, pp.1592-1600, 2005.
  • (上記英訳) T. Suzuki, S. Iwasaki, Y. Kobayashi, Y. Sato and A. Sugimoto, “Incorporating Envi-ronment Models for Improving Vision-Based Tracking of People,” Systems and Computers in Ja-pan, vol.38, no.2, pp.71-80, 2007.
  • 4) 小林 貴訓, 杉村 大輔, 平澤 宏祐, 鈴木 直彦, 鹿毛 裕史, 佐藤 洋一, 杉本 晃宏, “パーティクルフィルタとカスケード型識別器の統合による人物三次元追跡,” 電子情報通信学会論文誌 D, vol.J90-D, no.8, pp.2049-2059, 2007.
  • 5) 鈴木 直彦, 平澤 宏祐, 田中 健一, 小林 貴訓, 佐藤 洋一, 藤野 陽三, “人物動線データ群における逸脱行動人物検出及び行動パターン分類,” 電子情報通信学会論文誌D, vol.J91-D, no.6, pp.1550-1560, 2008.
  • 6) 杉村 大輔, 小林 貴訓, 佐藤 洋一, 杉本 晃宏, “行動履歴に基づく人物存在確率の利用による人物三次元追跡の安定化,” 情報処理学会論文誌 コンピュータビジョンとイメージメディア, vol.1, no.2, pp.100-110, 2008.
  • 7) D. Das, A. Mansur, Y. Kobayashi and Y. Kuno, “An Integrated Method for Multiple Object Detection and Localization,” International Symposium on Visual Computing (ISVC2008), Lecture Notes in Computer Science, vol.5359, pp.133-144, 2008.
  • 8) 秋谷 直矩, 丹羽 仁史, 岡田 真依, 山崎 敬一, 小林 貴訓, 久野 義徳, 山崎 晶子, “高齢者介護施設におけるコミュニケーションチャンネル確立過程の分析と支援システムの提案,” 情報処理学会論文誌, vol.50, no.1, pp.302-313, 2009. (平成21年度情報処理学会論文賞受賞)
  • 9) 大野 宏, 中嶋 信生, 佐藤 洋一, 小林 貴訓, 杉村 大輔, 加納 梢, “不審行動検知による万引き防止策の一提案,” 日本セキュリティ・マネジメント学会論文誌, vol.23, no.1, pp.26-38, 2009.
  • 10) L. Cao, Y. Kobayashi and Y. Kuno, “Spatial Relation Model for Object Recognition in Human-Robot Interaction,” International Conference on Intelligent Computing (ICIC2009), Lecture Notes in Computer Science, vol.5754, pp.574-584, 2009.
  • 11) D. Das, Y. Kobayashi and Y. Kuno, “Multiple Object Category Detection and Localization Using Generative and Discriminative Models,” IEICE Trans. Information and System, vol.E92-D, no.10, pp.2112-2121, 2009.
  • 12) 星 洋輔,小林 貴訓,久野 義徳,岡田 真依,山崎 敬一,山崎 晶子,”観客を話に引き込むミュージアムガイドロボット:言葉と身体的行動の連携,” 電子情報通信学会論文誌A, vol.J92-A, no.11, pp.764-772, 2009.
  • 13) D. Das, Y. Kobayashi and Y. Kuno, “Efficient Hypothesis Generation through Sub-categorization for Multiple Object Detection,” International Symposium on Visual Computing (ISVC2009), Lecture Notes in Computer Science, vol.5876, pp.160-171, 2009.
  • 14) D. Das, Y. Kobayashi and Y. Kuno, “Object Detection and Localization in Clutter Range Images Using Edge Features,” International Symposium on Visual Computing (ISVC2009), Lecture Notes in Computer Science, vol.5876, pp.172-183, 2009.
  • 15) T. Razali, R. Zhu, Y. Kobayashi and Y. Kuno, “Smart Wheelchair Navigation Based on User’s Gaze on Destination,” International Conference on Intelligent Computing (ICIC2010), Communications in Computer and Information Science, vol.93, pp.387-394, 2010.
  • 16) D. Das, Y. Kobayashi and Y. Kuno, “Object Detection in Cluttered Range Images Using Edgel Geometry,” IEEJ Trans. Electronics, Information and Systems, vol.130, no.9, pp.1572-1580, 2010.
  • 17) M. Mannan, D. Das, Y. Kobayashi and Y. Kuno, “Object Material Classification by Surface Reflection Analysis with a Time-of-Flight Range Sensor,” International Symposium on Visual Computing (ISVC2010), Lecture Notes in Computer Science, vol.6454, pp.439-448, 2010.
  • 18) W. Quan, H. Niwa, N. Ishikawa, Y. Kobayashi and Y. Kuno, “Assisted-care Robot Based on Sociological Interaction Analysis,” Computers in Human Behavior, vol.27, issue 5, pp.1527-1534, Elsevier, 2011.
  • 19) D. Das, Y. Kobayashi and Y. Kuno, “Sub-category Optimization through Cluster Performance Analysis for Multi-Pose Object Detection,” IEICE Trans. Information and System, vol.94, no.7, pp.1467-1478, 2011.
  • 20) T. Razali, Y. Kobayashi and Y. Kuno, “Multi-view Head Detection and Tracking with Long Range Capability for Social Navigation Planning,” International Symposium on Visual Computing (ISVC2011), Lecture Notes in Computer Science, vol.6939, pp.418-427, 2011.
  • 21) M. Mannan, H. Fukuda, Y. Kobayashi and Y. Kuno, “Material Information Acquisition Using a ToF Range Sensor for Interactive Object Recognition,” International Symposium on Visual Computing (ISVC2011), Lecture Notes in Computer Science, vol.6939, pp.116-125, 2011.
  • 22) M.M. Hoque, T. Onuki, E. Tsuburaya, Y. Kobayashi, Y. Kuno, T. Sato and S. Kodama, “An Empirical Framework to Control Human Attention by Robot,” Asian Conference on Computer Vision (ACCV2010) Workshop, Lecture Notes in Computer Science, vol.6468, pp.430-4392. 2011.
  • 23) 小林 貴訓, 行田 将彦, 田畠 知弥, 久野 義徳, 山崎 敬一, 渋谷 百代, 関 由起子, 山崎 晶子, “多人数場面において受容者の予期を支援するケアサービスロボット,” 情報処理学会論文誌, vol.52, no.12, pp.3316-3327, 2011.
  • 24) S. Mori, Y. Kobayashi and Y. Kuno, “Understanding the Meaning of Shape Description for Interactive Object Recognition,” International Conference on Intelligent Computing (ICIC2011), Lecture Notes in Computer Science, vol.6838, pp.350-356, 2012.
  • 25) Y. Kobayashi, Y. Kinpara, E. Takano, Y. Kuno, K. Yamazaki and A. Yamazaki, “Robotic Wheelchair Moving with Caregiver Collaboratively,” International Conference on Intelligent Computing (ICIC2011), Lecture Notes in Computer Science, vol.6839, pp.523-532, 2012.
  • 26) 小林 貴訓, 高野 恵利衣, 金原 悠貴, 久野 義徳, 小池 智哉, 山崎 晶子, 山崎 敬一, “同伴者の振舞いの観察に基づいて自動併走するロボット車椅子,” 情報処理学会論文誌, vol.53, no.7, pp.1687-1697, 2012.
  • 27) H. Fukuda, S. Mori, Y. Kobayashi and Y. Kuno, “Object Recognition for Service Robots through Verbal Interaction about Multiple Attribute Information,” International Symposium on Visual Computing (ISVC2012), Lecture Notes in Computer Science, vol.7431, pp.620-631, 2012.
  • 28) R. Tomari, Y. Kobayashi and Y. Kuno, “Wide Field of View Kinect Undistortion for Social Navigation Implementation,” International Symposium on Visual Computing (ISVC2012), Lecture Notes in Computer Science, vol.7432, pp.526-535, 2012.
  • 29) L. Cao, Y. Kobayashi and Y. Kuno, “A Spatial-Based Approach for Groups of Objects,” International Symposium on Visual Computing (ISVC2012), Lecture Notes in Computer Science, vol.7432, pp.597-608, 2012.
  • 30) M. Hoque, D. Das, T. Onuki, Y. Kobayashi and Y. Kuno, “Robotic System Controlling Target Human’s Attention,” International Conference on Intelligent Computing (ICIC2012), Lecture Notes in Artificial Intelligence, vol.7390, pp.534-544, 2012.
  • 31) M. Yousuf, Y. Kobayashi, Y. Kuno, A. Yamazaki and K. Yamazaki, “Development of a Mobile Museum Guide Robot That Can Configure Spatial Formation with Visitors,” Intelligent Computing Technology, International Conference on Intelligent Computing (ICIC2012), Lecture Notes in Computer Science, vol.7389, pp.423-432, 2012. (Best Paper Award)
  • 32) L. Cao, Y. Kobayashi and Y. Kuno, “Spatial-Based Feature for Locating Objects,” International Conference on Intelligent Computing (ICIC2012), Lecture Notes in Artificial Intelligence, vol.7390, pp.128-137, 2012.
  • 33) R. Tomari, Y. Kobayashi and Y. Kuno. “Development of Smart Wheelchair System for a user with Severe Motor Impairment,” Journal of Procedia Engineering, vol.41, pp.538-546, Elsevier, 2012.
  • 34) 森 智史,福田 悠人,小林 貴訓,久野 義徳,加地 大介, “物体形状オントロジーに基づく指示形状物体の認識,” 画像電子学会誌, vol.42, no.4, pp.477-485, 2013.
  • 35) M. Hoque, T. Onuki, Y. Kobayashi and Y. Kuno, “Effect of Robot’s Gaze Behaviors for Attracting and Controlling Human Attention,” International Journal of Advanced Robotics, vol.27, no.11, pp.813-829, 2013.
  • 36) H. Fukuda, S. Mori, Y. Kobayashi, Y. Kuno and D. Kachi, “Object Recognition for Service Robots through Verbal Interaction based on Ontology,” Proc. ISVC2013, Lecture Notes in Computer Science, vol.8033, pp.395-406, 2013.
  • 37) H. Fukuda, S. Mori, K. Sakata, Y. Kobayashi and Y. Kuno, “Object Recognition for Service Robots Based on Human Description of Object Attributes,” IEEJ Trans. Electronics, Information and Systems, vol.133-C, no.1, pp.28-39, 2013.
  • 38) M. Yousuf, Y. Kobayashi, Y. Kuno, K. Yamazaki and A. Yamazaki, “A Mobile Guide Robot Capable of Establishing Appropriate Spatial Formations,” IEEJ Trans. Electronics, Information and Systems, vol.133-C, no.1, pp.18-27, 2013.
  • 39) R. Tomari, Y. Kobayashi and Y. Kuno, “Enhancing Wheelchair Maneuverability for Severe Impairment Users,” International Journal of Advanced Robotic Systems, vol.10, pp.1-13, 2013.
  • 40) T. Onuki, K. Ida, T. Ezure, T. Ishinoda, K. Sano, Y. Kobayashi and Y. Kuno, “Designing Robot Eyes and Head and Their Motions for Gaze Communication,” Proc. ICIC2014, Lecture Notes in Computer Science, vol.8588, pp.607-618, 2014. (Best Paper Award)
  • 41) R. Suzuki, T. Yamada, M. Arai, Y. Sato, Y. Kobayashi and Y. Kuno, “Multiple Robotic Wheelchair System Considering Group Communication,” International Conference on Visual Computing (ISVC2014), Lecture Notes in Computer Science, vol.8887, pp.805-814, 2014.
  • 42) T. Onuki, T. Ishinoda, E. Tsuburaya, Y. Miyata, Y. Kobayashi and Y. Kuno, “Designing Robot Eyes for Communicating Gaze,” Interaction Studies, vol.14, no.3, pp.451-479, 2014.
  • 43) A. Yamazaki, K. Yamazaki, K. Ikeda, M. Burdelski, M. Fukushima, T. Suzuki, M. Kurihara, Y. kuno and Y. Kobayashi, “Interaction Between a Quiz Robot and Multiple Participants,” Interaction Studies, vol.14. no.3, pp.366-389, 2014.
  • 44) R. Tomari, Y. Kobayashi and Y. Kuno, “A framework for Controlling Wheelchair Motion by Using Gaze Information,” International Journal of Integrated Engineering, vol.5, no.3, pp.40-45, 2014.
  • 45) M. Hoque, Y. Kobayashi and Y. Kuno, “A Proactive Approach of Robotic Framework for Making Eye Contact with Humans,” Advances in Human-Computer Interaction, vol.2014, no.8, pp.1-19, 2014.
  • 46) 鈴木 亮太, 新井 雅也, 佐藤 慶尚, 山田 大地, 小林 貴訓, 久野 義徳, 宮澤 怜, 福島 三穂子, 山崎 敬一, 山崎 晶子, “複数同伴者とのグループコミュニケーションを考慮した複数ロボット車椅子システム,” 電子情報通信学会論文誌A, vol.J98-A, no.1, pp.51-62, 2015.
  • 47) D. Das, G. Rashed, Y. Kobayashi and Y. Kuno, “Supporting Human-Robot Interaction Based on the Level of Visual Focus of Attention,” IEEE Trans. on Human-Machine Systems, vol.45, no.6, pp.664-675, 2015.
  • 48) A. Mannan, A. Lam, Y. Kobayashi and Y. Kuno, “Facial Expression Recognition Based on Hybrid Approach,” International Conference on Intelligent Computing (ICIC2015), Lecture Notes in Artificial Intelligence, vol.9227, pp.304-310, 2015.
  • 49) G. Rashed, T. Kikugawa, R. Suzuki, Y. Kobayashi and Y. Kuno, “Network Guide Robot System Proactively Initialing Interaction with Humans Based on Their Local and Global Behaviors,” International Conference on Intelligent Computing (ICIC2015), Lecture Notes in Computer Science, vol.9220, pp.283-294, 2015.
  • 50) L. Cao, A. Lam, Y. Kobayashi, Y. Kuno and D. Kachi, “Understanding Spatial Knowledge: An Ontology-Based Representation for Object Identification,” IIEEJ Trans. on Image Electronics and Visual Computing, vol.3, no.2, pp.150-163, 2015.
  • 51) Y. Kobayashi, R. Suzuki, T. Yamada, Y. Kuno, K. Yamazaki and A. Yamazaki, “Formations for Facilitating Communication among Robotic Wheelchair Users and Companions,” International Conference on Social Robotics (ICSR2015), Lecture Notes in Artificial Intelligence, vol.9388, pp.370-379, 2015.
  • 52) K. Yamazaki, A. Yamazaki, K. Ikeda, C. Liu, M. Fukushima, Y. Kobayashi and Y. Kuno, “I’ll Be There Next: A Multiplex Care Robot System that Conveys Service Order Using Gaze Gestures,” ACM Trans. Interactive Intelligent Systems, vol.5, issue 4, Article no.21, pp.1-21, 2016.
  • 53) A. Mannan, A. Lam, Y. Kobayashi and Y. Kuno, “Material Information Acquisition for Interactive Object Recognition by Service Robots,” IIEEJ Trans. on Image Electronics and Visual Computing, vol.4, no.1, pp.20-31, 2016.
  • 54) S. Mamun, R. Suzuki, A. Lam, Y. Kobayashi and Y. Kuno, “Terrain Recognition for Smart Wheelchair,” Proc. ICIC2016, Lecture Notes in Artificial Intelligence, vol.9773, pp.461-470, 2016.
  • 55) G. Rashed, R. Suzuki, T. Yonezawa, A. Lam, Y. Kobayashi and Y. Kuno, “Robustly Tracking People with LIDARs in a Crowded Museum for Behavioral Analysis,” IEICE Trans. on Fundamentals of Electronics, Communications and Computer Sciences, vol. E100-A, no.11, pp.2458-2469, 2017.
  • 56) S. Mamun, A. Lam, Y. Kobayashi and Y. Kuno, “Single Laser Bidirectional Sensing for Robotic Wheelchair Step Detection and Measurement,” Proc. ICIC2017, Lecture Notes in Artificial Intelligence, vol.10363, pp.37-47, 2017.
  • 57) K. Das, S. Ali, K. Otsu, H. Fukuda, A. Lam, Y. Kobayashi and Y. Kuno, “Detecting Inner Emotions from Video Based Heart Rate Sensing,” Proc. ICIC2017, Lecture Notes in Artificial Intelligence, vol.10363, pp.48-57, 2017.
  • 58) G. Rashed, D. Das, Y. Kobayashi and Y. Kuno, “A Study on Proactive Methods for Initiating Interaction with Human by Social Robots,” Asian Journal of Convergence in Technology, vol.4, issue 2, pp.1-10, 2018.
  • 59) A. S. Phyo, H. Fukuda, A. Lam, Y. Kobayashi and Y. Kuno, “Natural Calling Gesture Recognition in Crowded Environments,” Proc. ICIC2018, Lecture Notes in Computer Science, vol.10954, pp.8-14, 2018.
  • 60) K. Das, A. Lam, H. Fukuda, Y. Kobayashi and Y. Kuno, “Classification of Emotions from Video Based Cardiac Pulse Estimation,” Proc. ICIC2018, Lecture Notes in Artificial Intelligence, vol.10956, pp.296-305, 2018.
  • 61) S. Ali, S. A. Mamun, H. Fukuda, A. Lam, Y. Kobayashi and Y. Kuno, “Smart Robotic Wheelchair for Bus Boarding Using CNN Combined with Hough Transforms,” Proc. ICIC2018, Lecture Notes in Artificial Intelligence, vol.10956, pp.163-172, 2018.
  • 62) Y. Kobayashi, S. Yamazaki, H. Takahashi, H. Fukuda and Y. Kuno, “Robotic Shopping Trolley for Supporting the Elderly,” International Conference on Applied Human Factors and Ergonomics (AHFE2018), Advances in Intelligent Systems and Computing, vol.779, 2018.
  • 63) 大津 耕陽, 福島 史康, 高橋 秀和, 平原 実留, 福田 悠人, 小林 貴訓, 久野 義徳, 山崎 敬一, “Affinity Live:演者と観客の一体感を増強する双方向ライブ支援システム,” 情報処理学会論文誌, vol.59, no.11, pp.2019-2029, 2018.
  • 64) 小松 由和, 山崎 晶子, 山崎 敬一, 池田 佳子, 歌田 夢香, 久野 義徳, 小林 貴訓, 福田 悠人, “遠隔買い物支援における複数視点と音声の位置,” 情報処理学会論文誌, vol.60. no.1, pp.157-165, 2019.
    【会議論文】

  • 1) Y. Sato, Y. Kobayashi and H. Koike, “Fast Tracking of Hands and Fingertips in Infrared Images for Augmented Desk Interface,” Proc. IEEE Automatic Face and Gesture Recognition (FG2000), pp462-467, 2000.
  • 2) H. Koike, Y. Sato, Y. Kobayashi, H. Tobita and M. Kobayashi, “Interactive Textbook and Interactive Venn Diagram: Natural and Intuitive Interface on Augmented Desk System,” Proc. Conference on Human Factors in Computing Systems (CHI2000), pp.121-128, 2000.
  • 3) Y. Kobayashi, D. Sugimura, Y. Sato, H. Hirasawa, N. Suzuki, H. Kage and A. Sugimoto, “3D Head Tracking using the Particle Filter with Cascaded Classifiers,” Proc. British Machine Vision Conference (BMVC2006), pp.37-46, 2006.
  • 4) N. Suzuki, K. Hirasawa, K. Tanaka, Y. Kobayashi, Y. Sato and Y. Fujino, “Learning Motion Patterns and Anomaly Detection by Human Trajectory Analysis,” Proc. International Conference on Systems, Man and Cybernetics, pp.498-503, 2007.
  • 5) D. Sugimura, Y. Kobayashi, Y. Sato and A. Sugimoto, “Incorporating Long-Term Observations of Human Actions for Stable 3D People Tracking,” Proc. IEEE Workshop on Motion and Video Computing (WMVC2008), pp.1-7, 2008.
  • 6) A. Mansur, K. Sakata, Y. Kobayashi and Y. Kuno, “Human Robot Interaction through Simple Expressions for Object Recognition,” Proc. International Symposium in Robot and Human Interactive Communication (Ro-Man2008), pp.647-652, 2008.
  • 7) Y. Kobayashi, Y. Hoshi, G. Hoshino, T. Kasuya, M. Fueki and Y. Kuno. “Museum Guide Robot with Three Communication Modes,” Proc. International Conference on Intelligent Robots and Systems (IROS2008), 2008.
  • 8) Y. Kobayashi, Y. Kinpara, T. Shibusawa and Y. Kuno, “Collaborative Robotic Wheelchair Based on Visual and Laser Sensing,” Proc. Workshop on Frontiers of Computer Vision (FCV2009), pp.1-6, 2009.
  • 9) K. Yamazaki, A. Yamazaki, M. Okada, Y. Kuno, Y. Kobayashi, Y. Hoshi, K. Pitsch, P. Luff, D.V. Lehn and C. Heath, “Revealing Gauguin: Engaging Visitors in Robot Guide’s Explanation in an Art Museum,” Proc. CHI2009, pp1437-1446, 2009.
  • 10) D. Das, Y. Kobayashi and Y. Kuno, “A hybrid model for multiple object category detection and localization,” Proc. IAPR Conference on Machine Vision Applications (MVA2009), pp.431-434, 2009.
  • 11) Y. Kobayashi, Y. Kinpara, T. Shibusawa and Y. Kuno, “Robotic Wheelchair Based on Observations of People Using Integrated Sensors,” Proc. IROS2009, pp.2013-2018, 2009.
  • 12) D. Das, Y. Kobayashi and Y. Kuno, “Decomposition and Detection of Multiple Object Categories through Automatic Topic Optimization,” Proc. FCV2010, pp.481-485, 2010.
  • 13) Y. Kobayashi and Y. Kuno, “People Tracking using Integrated Sensors for Human Robot Interaction,” Proc. IEEE International Conference on Industrial Technology (ICIT2010), pp.1597-1602, 2010.
  • 14) D. Das, Y. Kobayashi and Y. Kuno, “Sub-Category Optimization for Multi-View Multi-Pose Object Detection,” Proc. International Conference on Pattern Recognition (ICPR2010), pp.1405-1408, 2010.
  • 15) Y. Kobayashi, T. Shibata, Y. Hoshi, Y. Kuno, M. Okada and K. Yamazaki, “I Will Ask You: Choosing Answerers by Observing Gaze Responses Using Integrated Sensors for Museum Guide Robots,” Proc. Ro-Man2010, pp.687-692, 2010.
  • 16) C. Lu, Y. Kobayashi and Y. Kuno, “Spatial Resolution for Robot to Detect Objects,” Proc. IROS2010, pp.4548-4553, 2010.
  • 17) Y. Kinpara, E. Takano, Y. Kobayashi and Y. Kuno, “Situation-Driven Control of a Robotic Wheelchair to Follow a Caregiver,” Proc. FCV2011, pp.1-6, 2011.
  • 18) M. Gyoda, T. Tabata, Y. Kobayashi and Y. Kuno, “Mobile Care Robot Accepting Requests through nonverbal Interaction,” Proc. FCV2011, 2011.
  • 19) M. Hoque, T. Onuki, Y. Kobayashi and Y. Kuno, “Controlling Human Attention through Robot’s Gaze Behaviors,” Proc. International Conference on Human System Interaction (HSI2011), pp.195-202, 2011. (Best Presentation Award)
  • 20) M. Mannan, H. Fukuda, L. Cao, Y. Kobayashi and Y. Kuno, “3D Free-Form Object Material Identification by Surface Reflection Analysis with a Time-of-Flight Range Sensor,” Proc. MVA2011, pp.227-230, 2011.
  • 21) Y. Kobayashi, M. Gyoda, T. Tabata, Y. Kuno, K. Yamazaki, M. Shibuya, Y. Seki and A. Yamazaki, “A Considerate Care Robot Able to Serve in Multi-party Settings,” Proc. Ro-Man2011, pp.27-32, 2011.
  • 22) L. Cao, D. Das, Y. Kobayashi and Y. Kuno, “Object spatial recognition for service robots: Where is the front?” Proc. International Conference on Mechatronics and Automation (ICMA2011), pp.875-880, 2011.
  • 23) M. Yousuf, Y. Kobayashi, A. Yamazaki and Y. Kuno, “Implementation of F-Formation and “Pause and Restart” for a Mobile Museum Guide Robot,” Proc. International Workshop on Multimodality in Multispace Interaction (MiMI2011), 2011.
  • 24) E. Takano, Y. Kobayashi and Y. Kuno, “Multiple Robotic Wheelchair System Based on the Observation of Circumstance,” Proc. FCV2012, pp.222-226, 2012.
  • 25) M. Yousuf, Y. Kobayashi, A. Yamazaki, K. Yamazaki and Y. Kuno, “A Mobile Guide Robot Capable of Formulating Spatial Formations,” Proc. FCV2012, pp.274-280, 2012.
  • 26) H. Fukuda, Y. Kobayashi and Y. Kuno, “Interactive Object Recognition Using Attribute Information,” Proc. FCV2012, pp.306-310, 2012.
  • 27) A. Yamazaki, K. Yamazaki, T. Ohyama, Y. Kobayashi and Y. Kuno, “A Techno-Sociological Solution for Designing a Museum Guide Robot: Regarding Choosing an Appropriate Visitor,” Proc. International Conference on Human-Robot Interaction (HRI2012), pp.309-316, 2012.
  • 28) R. Tomari, Y. Kobayashi and Y. Kuno, “Empirical Framework for Autonomous Wheelchair System in Human-Shared Environments,” Proc. ICMA2012, pp.493-498, 2012.
  • 29) M. Hoque, D. Das, T. Onuki, Y. Kobayashi and Y. Kuno, “Model for Controlling a Target Human’s Attention in Multi-Party Settings,” Proc. Ro-Man2012, pp.476-483, 2012.
  • 30) D. Das, M. Hoque, T. Onuki, Y. Kobayashi and Y. Kuno, “Vision-Based Attention Control System for Socially Interactive Robots,” Proc. Ro-Man2012, pp.496-502, 2012.
  • 31) M. Hoque, D. Das, T. Onuki, Y. Kobayashi and Y. Kuno, “An Integrated Approach of Attention Control of Target Human by nonverbal Behaviors of Robots in Different Viewing Situations,” Proc. IROS2012, pp.1399-1406, 2012.
  • 32) Y. Kobayashi, R. Suzuki and Y. Kuno, “Robotic Wheelchair with Omni-directional Vision for Moving alongside a Caregiver,” Annual Conference of the IEEE Industrial Electronics Society (IECON2012), pp.4177-4182, 2012.
  • 33) T. Onuki, T. Ishinoda, Y. Kobayashi and Y. Kuno, “Designing Robot Eyes for Gaze Communication,” Proc. FCV2013, pp.97-102, 2013.
  • 34) T. Ohyama, E. Yoshida, Y. Kobayashi and Y. Kuno, “Tracking a Robot and Visitors in a Museum Using Sensor Poles,” Proc. FCV2013, pp.36-41, 2013.
  • 35) M. Hoque, K. Deb, D. Das, Y. Kobayashi and Y. Kuno, “An Intelligent Human-robot Interaction Framework to Control the Human Attention,” International Conference on Informatics, Electronics & Vision (ICIEV2013), 2013.
  • 36) D. Das, Y. Kobayashi and Y. Kuno, “Observing Human’s Face for Robot’s Controlling His/her Attention,” Proc. International Conference on Quality Control by Artificial Vision (QCAV2013), pp.138-143, 2013.
  • 37) T. Oyama, E. Yoshida, Y. Kobayashi and Y. Kuno, “Tracking Visitors with Sensor Poles for Robot’s Museum Guide Tour,” Proc. HSI2013, pp.645-650, 2013.
  • 38) A. Yousuf, Y. Kobayashi, Y. Kuno, A. Yamazaki and K. Yamazaki, “How to Move Towards Visitors: A Model for Museum Guide Robots to Initiate Conversation,” Proc. Ro-Man2013, pp.587-592, 2013.
  • 39) Y. Sato, M. Arai, R. Suzuki, Y. Kobayashi, Y. Kuno, K. Yamazaki and A. Yamazaki, “A Maneuverable Robotic Wheelchair Able to Move Adaptively with a Caregiver by Considering the Situation,” Proc. Ro-Man2013, pp.282-287, 2013.
  • 40) D. Das, Y. Kobayashi and Y. Kuno, “Attracting Attention and Establishing a Communication Channel based on the Level of Visual Focus of Attention,” Proc. IROS2013, pp.2194-2201, 2013.
  • 41) T. Tabata, Y. Kobayashi and Y. Kuno, “Recognition of Request through Hand Gesture for Mobile Care Robots,” Proc. IECON2013, pp.8304-8308, 2013.
  • 42) T. Onuki, T. Ezure, T. Ishinoda, Y. Kobayashi and Y. Kuno, “Static and Dynamic Robot Gaze Expressions to Communicating with Humans,” Proc. FCV2014, 2014.
  • 43) A. Kanda, M. Arai, R. Suzuki, Y. Kobayashi and Y. Kuno, “Recognizing Groups of Visitors for a Robot Museum Guide Tour,” Proc. HSI2014, pp.123-128, 2014.
  • 44) M. Arai, Y. Sato, R. Suzuki, Y. Kobayashi, Y. Kuno, S. Miyazawa, M. Fukushima, K. Yamazaki and A. Yamazaki, “Robotic Wheelchair Moving with Multiple Companions,” Proc. Ro-Man2014, 2014.
  • 45) H. Fukuda, S. Mori, Y. Kobayashi, Y. Kuno and D. Kachi, “Object Recognition Based on Human Description Ontology for Service Robots,” Proc. IECON2014, 2014.
  • 46) S. Shimizu, H. Koyasu, Y. Kobayashi and Y. Kuno, “Object Pose Estimation Using Category Information from a Single Image,” Proc. FCV2015, 2015. (Best Poster Award)
  • 47) S. Goto, Y. Matsuda, T. Kikugawa, Y. Kobayashi and Y. Kuno, “Remote Communication Support System as Communication Catalyst for Dementia Care,” Proc. IECON2015, 2015.
  • 48) G. Rashed, R. Suzuki, A. Lam, Y. Kobayashi and Y. Kuno, “A Vision Based Guide Robot System: Initiating Proactive Social Human Robot Interaction in Museum Scenarios,” International Conference on Computer & Information Engineering (ICCIE 2015), 2015.
  • 49) D. Hosohara, H. Fukuda, Y. Kobayashi and Y. Kuno, “Object Recognition Using Size Information Based on Pre-trained Convolutional Neural Network,” Proc. FCV2016, 2016.
  • 50) G. Rashed, R. Suzuki, T. Yonezawa, A. Lam, Y. Kobayashi and Y. Kuno, “Tracking Visitors in a Real Museum for Behavioral Analysis,” Joint 8th International Conference on Soft Computing and Intelligent Systems and 17th International Symposium on Advanced Intelligent Systems (SCIS-ISIS2016), 2016.
  • 51) H. Fukuda, Y. Kobayashi, Y. Kuno, A. Yamazaki, K. Ikeda and K. Yamazaki, “Analysis of Multi-party Human Interaction towards a Robot Mediator,” Proc. RO-MAN2016, 2016.
  • 52) K. Otsu, H. Fukuda, Y. Kobayashi and Y. Kuno, “Remote Monitoring and Communication System with a Doll-like Robot for the Elderly,” Proc. IECON2016, 2016.
  • 53) Q. Zhong, H. Fukuda, Y. Kobayashi and Y. Kuno, “Object Identification to Service Robots using a Mobile Interface from User’s Perspective,” International Workshop on Frontiers of Computer Vision (IW-FCV2017), 2017.
  • 54) K. Otsu, H. Takahashi, H. Fukuda, Y. Kobayashi and Y. Kuno, “Enhanced Concert Experience using Multimodal Feedback from Live Performers,” Proc. HSI2017, pp.290-294, 2017.
  • 55) S. Mamun, S. Ali, H. Fukuda, A. Lam, Y. Kobayashi and Y. Kuno, “Companion Following Robotic Wheelchair with Bus Boarding Capabilities,” Proc. ICIEV2018, 2018. (Best Paper Award)
  • 56) H. Fukuda, K. Yamazaki, A. Yamazaki, Y. Saito, E. Iiyama, S. Yamazaki, Y. Kobayashi, Y. Kuno and K. Ikeda, “Enhancing Multiparty Cooperative Movements: A Robotic Wheelchair that Assists in Predicting Next Actions,” International Conference on Multimodal Interaction (ICMI2018), pp.409-417, 2018.
  • 57) F. Endo, H. Fukuda, Y. Kobayashi and Y. Kuno, “Pedestrian Tracking and Identification by Integrating Multiple Sensor Information,” Proc. IW-FCV2019, 2019.
    【その他】

  • 1) 小林 貴訓, 小池 英樹, 佐藤 洋一, “赤外線画像を用いた指先実時間追跡によるEnhancedDeskの実現,” ヒューマンインタフェース学会 ヒューマンインタフェースシンポジウム(HIS1999), pp.417-422, 1999.
  • 2) 小林 貴訓, 佐藤 洋一, 小池 英樹, “EnhancedDeskのための赤外線画像を用いた実時間指先認識インタフェース,” 日本ソフトウェア科学会 インタラクティブシステムとソフトウェアに関するワークショップⅦ (WISS1999), pp.49-54, 1999.
  • 3) 岡 兼司, 小林 貴訓, 佐藤 洋一, 小池 英樹, “複数指先軌跡の実時間計測とHCIへの応用,” 情報処理学会 コンピュータビジョンとイメージメディア研究会, 2000-CVIM-123-7, pp.51-58, 2000.
  • 4) 田村 直樹, 川名 康仁, 山本 康夫,小林 貴訓, “ソフトウェア部品庫EvoManにおけるツール連携機能,” 情報処理学会 研究報告 ソフトウェア工学, vol.2002, no.92, 2002.
  • 5) 小林 貴訓, 佐藤 洋一, 杉本 晃宏, “視野を共有しないカメラ群を用いた人物行動軌跡の推定,” 情報処理学会 コンピュータビジョンとイメージメディア研究会, 2005-CVIM-150-21, pp.169-176, 2005.
  • 6) 鈴木 直彦, 平澤 宏祐, 田中 健一, 小林 貴訓, 佐藤 洋一, 藤野 陽三, “Hidden Markov Modelを用いた逸脱行動人物検出,” 電子情報通信学会 パターン認識・メディア理解研究会, vol.106, no.99, PRMU2006-46, pp.43-48, 2006.
  • 7) 小林 貴訓, 杉村 大輔, 平澤 宏祐, 鈴木 直彦, 鹿毛 裕史, 佐藤 洋一, 杉本 晃宏, “カスケード型識別器を用いたパーティクルフィルタによる人物三次元追跡,” 画像の認識・理解シンポジウム(MIRU2006), 2006.
  • 8) 小林 貴訓, 佐藤 洋一, 杉本 晃宏, “疎分散カメラ群を用いた人物行動軌跡の推定,” 画像の認識・理解シンポジウム(MIRU2006), 2006.
  • 9) 杉村 大輔, 小林 貴訓, 佐藤 洋一, 杉本 晃宏, “行動履歴を反映させた適応的環境属性を伴う三次元人物追跡,” 情報処理学会 コンピュータビジョンとイメージメディア研究会, 2006-CVIM-156-21, pp.171-178, 2006.
  • 10) 鈴木 直彦, 平澤 宏祐, 田中 健一, 小林 貴訓, 佐藤 洋一, 藤野 陽三, “人物動線データ分析による逸脱行動人物の検出,” 情報処理学会 コンピュータビジョンとイメージメディア研究会, 2007-CVIM-158-15, pp.109-115, 2007.
  • 11) 杉村 大輔, 小林 貴訓, 佐藤 洋一, 杉本 晃宏, “行動履歴に基づいた環境属性の自動構築を伴う三次元人物追跡,” 画像の認識・理解シンポジウム(MIRU2007), 2007.
  • 12) 小林 貴訓, 杉村 大輔, 関 真規人, 平澤 宏祐, 鈴木 直彦, 鹿毛 裕史, 佐藤 洋一, 杉本 晃宏, “分散カメラとレーザ測域センサの統合によるエリア内人物追跡,” 画像の認識・理解シンポジウム(MIRU2007), 2007.
  • 13) 小林 貴訓, 佐藤 洋一, 杉村 大輔, 関 真規人,平澤 宏祐,鈴木 直彦, 鹿毛 裕史, 杉本 晃宏, “パーティクルフィルタとカスケード型識別器の統合による人物三次元追跡 ~人物追跡の頑健化・高精度化に向けて~,” 画像ラボ, vol.18, no.12,pp.28-33,2007.
  • 14) 糟谷 智樹, 小林 貴訓, 久野 義徳, “ミュージアムガイドロボットへの遠隔対話指示,” 電子情報通信学会総合大会, p.95, 2008.
  • 15) 渋澤 朋央, 小林 貴訓, 久野 義徳, “鑑賞行動を支援するロボット車椅子システム,” 電子情報通信学会総合大会, p.169, 2008.
  • 16) 小林 貴訓, 佐藤 洋一, “分散センサ情報の統合によるエリア内人物追跡と動線推定,” 情報処理学会 コンピュータビジョンとイメージメディア研究会, 2008-CVIM-163-30, pp.231-246, 2008.
  • 17) 笛木 雅人, 糟谷 智樹, 星 洋輔, 星野 豪, 小林 貴訓, 久野 義徳, “3つのコミュニケーションモードを持つネットワークロボット,” 画像センシングシンポジウム(SSII2008), 2008.
  • 18) T. Sibusawa, Y. Kobayashi and Y. Kuno, “Robotic Wheelchair for Museum Visit,” Proc. SICE Annual Conference (SICE2008), 2008.
  • 19) Y. Hoshi, Y. Kobayashi, T. Kasuya, M. Fueki and Y. Kuno. “Interactively Instructing a Guide Robot through a Network,” Proc. International Conference on Control, Automation and Systems (ICASS2008), pp.1841-1845, 2008.
  • 20) 岡田 真依, 星 洋輔, 山崎 敬一, 山崎 晶子, 久野 義徳, 小林 貴訓, “美術館における観客を引き込む解説ロボット,” HAIシンポジウム(HAI2008), 2008.
  • 21) 小林 貴訓, 久野 義徳, 加地 大介, “オントロジーに基づくロボットビジョンの提案,” 電子情報通信学会総合大会, p.165, 2009.
  • 22) 森 智史, 小林 貴訓, 久野 義徳, “オントロジーに基づく対話物体認識,” 電子情報通信学会総合大会, p.183, 2009.
  • 23) 石川 直人, 藤原 直樹, 全 文星, 小林 貴訓, 久野 義徳, “移動介護ロボットのための頭部動作に基づく対象者の認識,” 電子情報通信学会総合大会, p.220, 2009.
  • 24) 柴田 高志, 小林 貴訓, 久野 義徳, “複数鑑賞者をガイドするロボットのための頭部ジェスチャ認識,” 電子情報通信学会総合大会, p.222, 2009.
  • 25) 金原 悠貴, 小林 貴訓, 久野 義徳, “介護者の状態の観察に基づいたロボット車椅子の制御,” 電子情報通信学会総合大会, p.238, 2009.
  • 26) L. Cao, Y. Kobayashi and Y. Kuno, “Spatial Relation Descriptions for Interactive Robot Vision,” 電子情報通信学会総合大会, 2009.
  • 27) 全 文星, 小林 貴訓, 久野 義徳, “介護ロボットのための距離画像を用いた複数人からの依頼理解,” 電子情報通信学会総合大会, 2009.
  • 28) Y. Kobayashi, Y. Kuno, H. Niwa, N. Akiya, M. Okada, K. Yamazaki and A. Yamazaki, “Assisted-Care Robot Initiation Communication in Multiparty Settings,” Proc. CHI2009 Extended Abstracts, pp.3583-3588, 2009.
  • 29) 小林 貴訓, 金原 悠貴, 久野 義徳, “複合センサを用いた人物の行動計測に基づく自律移動車椅子,” 画像センシングシンポジウム(SSII2009), 2009.
  • 30) 久野 義徳,小林 貴訓, “人間とのコミュニケーションに関するビジョン技術,” 日本ロボット学会誌, vol.47, no.6, pp.40-43, 2009.
  • 31) D. Das, Y. Kobayashi and Y. Kuno, “Multiple Object Detection and Localization using Range and Color Images for Service Robots,” Proc. ICCAS-SICE International Joint Conference, pp.3485-3489, 2009.
  • 32) Y. Kobayashi, T. Shibata, Y. Hoshi, Y. Kuno, M. Okada, K. Yamazaki and A. Yamazaki, “Head Tracking and Gesture Recognition in Museum Guide Robots for Multiparty Settings,” Proc. European Conference on Computer Supported Cooperative Work (ECSCW2009) Poster, 2009.
  • 33) W. Quan, N. Ishikawa, Y. Kobayashi and Y. Kuno, “Assisted-Care Robot Based on Sociological Interaction Analysis,” Proc. ICIC2009, 2009.
  • 34) D. Das, Y. Kobayashi and Y. Kuno, “Multiple Object Detection and Localization using Range and Color Images for Service Robots,” Proc. ICROS-SICE International Joint Conference, pp.3485-3489, 2009.
  • 35) D. Das, Y. Kobayashi and Y. Kuno, “Object Detection for Service Robots using a Hybrid Autonomous/Interactive Approach,” Proc. International Conference on Computer Vision (ICCV2009) Workshops (Computer Vision for Humano.id Robots in Real Environments), 2009.
  • 36) Y. Kuno, K. Sakata and Y. Kobayashi, “Object Recognition in Service Robots: Conducting Verbal Interaction on Color and Spatial Relationship,” Proc. ICCV2009 Workshops (Human-Computer Interaction), pp.2025-2031, 2009.
  • 37) 柴田 高志, 鴇田 憲, 星 洋輔, 小林 貴訓, 久野 義徳, “複数鑑賞者に適応的な身体的行動を用いて解説をするミュージアムガイドロボット,” 計測自動制御学会システムインテグレーション部門講演会論文集(SI2009), pp.1252-1254, 2009.
  • 38) Y. Kobayashi, T. Shibata, Y. Hoshi, Y. Kuno, M. Okada and K. Yamazaki, “Choosing Answerers by Observing Gaze Responses for Museum Guide Robots,” Proc. Human Robot Interaction (HRI2010) Late Breaking Report, pp.109-110, 2010.
  • 39) 石川 直人, 行田 将彦, 浅羽 健太郎, 小林 貴訓, 久野 義徳, “移動しながら見回りする介護ロボット,” 情報処理学会全国大会, pp.5.15-16, 2010.
  • 40) 柴田 高志, 星 洋輔, 鴇田 憲, 小林 貴訓, 久野 義徳, “頭部動作の計測に基づき質問相手を選択するガイドロボット,” 情報処理学会全国大会, pp.5.21-22, 2010.
  • 41) 金原 悠貴, 高野 恵利衣, 小林 貴訓, 久野 義徳, “介護者の意図と周辺状況の観察に基づくロボット車椅子,” 情報処理学会全国大会, pp.5.17-18, 2010.
  • 42) 高野 恵利衣, 金原 悠貴, 小林 貴訓, 久野 義徳, “周辺状況を考慮して介護者に追随するロボット車椅子,” 電子情報通信学会総合大会, p.197, 2009. (高野が学術奨励賞受賞)
  • 43) 朱 エイ, 小林 貴訓, 久野 義徳, “利用者の目的地推定に基づく自律移動車椅子の提案,” 電子情報通信学会総合大会学生ポスターセッション, p.161, 2009.
  • 44) 行田 将彦, 小林 貴訓, 久野 義徳, “高齢者を見守る介護ロボットのための自律移動システムの提案,” 電子情報通信学会総合大会学生ポスターセッション, p.160, 2009.
  • 45) 小林 貴訓, “人の顔と頭の追跡技術,” 映像情報メディア学会誌, vol.64, no.4, pp.463-467, 2010.
  • 46) Y. Kobayashi, T. Shibata, Y. Hoshi, Y. Kuno, M. Okada and K. Yamazaki, “Selective Functiono.f Speaker Gaze before and during Questions-Towards Developing Museum Guide Robots,” Proc. CHI2010 Extended Abstracts, pp.4201-4206, 2010.
  • 47) 金原 悠貴, 高野 恵利衣, 小林 貴訓, 久野 義徳, “周辺状況を考慮して介護者と協調移動するロボット車椅子,” 画像センシングシンポジウム(SSII2010), 2010.
  • 48) Y. Kobayashi, M. Gyoda, T. Tabata, Y. Kuno, K. Yamazaki, M. Shibuya and Y. Seki, “Assisted-Care Robot Dealing with Multiple Requests in Multi-party Settings,” Proc. HRI2011 Late Breaking Report, 2011.
  • 49) 小貫 朋実, 圓谷 恵美, 小林 貴訓, 久野 義徳, “自然な動作で人間の注視を獲得するロボット頭部動作の検討,” 電子情報通信学会総合大会, p.150, 2011.
  • 50) 田畠 知弥, 行田 将彦, 小林 貴訓, 久野 義徳, “複数の人に非言語で対応する介護ロボット,” 電子情報通信学会総合大会, p.151, 2011.
  • 51) 大山 貴也, 柴田 高志, 小林 貴訓, 久野 義徳, “ミュージアムガイドロボットのための詳細な頭部ジェスチャ計測システムの開発,”電子情報通信学会総合大会, p.182, 2011.
  • 52) 鈴木 亮太, 小林 貴訓, 久野 義徳, “視聴覚情報の融合による依頼者認識システムの開発,” 電子情報通信学会総合大会学生ポスターセッション, 2011.
  • 53) 圓谷 恵美, 小貫 朋実, 小林 貴訓, 久野 義徳, “親しみやすさと視線の読みとりやすさを兼ね備えたロボットの目のデザイン,” 電子情報通信学会総合大会(学生ポスターセッション), 2011.
  • 54) 胡 少丹, 小林 貴訓, 久野 義徳, “搭乗者の不安を和らげるロボット車椅子の動作提示方法の検討,” 電子情報通信学会総合大会学生ポスターセッション, 2011.
  • 55) Y. Kobayashi, Y. Kinpara, E. Takano, Y. Kuno, K. Yamazaki and A. Yamazaki, “Robotic Wheelchair Moving with Caregiver Collaboratively Depending on Circumstances,” Proc. CHI2011 Extended Abstracts, pp.2239-2244, 2011.
  • 56) 福田 悠人, 小林 貴訓, 久野 義徳, “対話物体認識のための材質情報の獲得,” 画像センシングシンポジウム(SSII2011), 2011.
  • 57) 行田 将彦, 田畠 知弥, 小林 貴訓, 久野 義徳, “非言語行動で依頼を受け付ける移動介護ロボット,” 画像センシングシンポジウム(SSII2011), 2011.
  • 58) 福田 悠人, 小林 貴訓, 久野 義徳, “材質を含む属性情報を利用したサービスロボットのための対話物体認識,” 精密工学会サマーセミナー2011, 2011.
  • 59) 高野 恵利衣, 小林 貴訓, 久野 義徳, “コミュニケーションを考慮した複数ロボット車椅子システム,” 精密工学会サマーセミナー2011, 2011.
  • 60) M. Hoque, T. Onuki, E. Tsuburaya, Y. Kobayashi and Y. Kuno, “Controlling Human Attention by Robot’s Behavior Depending on his/her Viewing Situations,” Proc. International Conference on Social Robotics (ICSR2011), pp.37-40, 2011.
  • 61) 小貫 朋実, 宮田 雄規, 小林 貴訓, 久野 義徳, “親しみやすさと視線コミュニケーション機能を考慮したロボットの目のデザイン,” HAIシンポジウム, 2011.
  • 62) 行田 将彦, 田畠 知弥, 小林 貴訓, 久野 義徳, 山崎敬一, 佐藤信吾, 山崎晶子, “多重的身体行動を用いて複数人からの依頼に対応するケアロボット,” 情報処理学会研究報告,vol.2012-HCI-146, no.12, 2012.
  • 63) 福田 悠人, 小林 貴訓, 久野 義徳, “RGB-Dカメラを用いたサービスロボットのための対話物体認識,” 情報処理学会研究報告,vol.2012-CVIM-180, no.34, 2012.
  • 64) M. Hoque, T. Onuki, D. Das, Y. Kobayashi and Y. Kuno, “Attracting and Controlling Human Attention through Robot’s Behaviors Suited to the Situation,” Proc. HRI2012 Late Breaking Report, pp.149-150, 2012.
  • 65) M. Yousuf, Y. Kobayashi, Y. Kuno, K. Yamazaki and A. Yamazaki, “Establishment of Spatial Formation by a Mobile Guide Robot,” Proc. HRI2012 Late Breaking Report, pp.281-282, 2012.
  • 66) T. Ohyama, Y. Maeda, C. Mori, Y. Kobayashi, Y. Kuno, R. Fujita, K. Yamazaki, S. Miyazawa, A. Yamazaki and K. Ikeda, “Implementing Human Questioning Strategies into Quizzing-Robot,” Proc. HRI2012 Video, p.423, 2012.
  • 67) 鈴木 亮太, 小林 貴訓, 久野 義徳, “介護者に併走するロボット車椅子のためのタッチパネルインタフェース,” 電子情報通信学会総合大会, p.191, 2012.
  • 68) 望月 博康, 小林 貴訓, 久野 義徳, “鑑賞者を適切な位置に誘導するガイドロボット,” 電子情報通信学会総合大会学生ポスターセッション, 2012.
  • 69) X. Xin, Y. Kobayashi and Y. Kuno, “Robotic Wheelchair Moving with the Caregiver at the Selected Position According to the Situation,” 電子情報通信学会総合大会学生ポスターセッション, 2012.
  • 70) 鈴木 亮太, 高野 恵利衣, 宗像 信聡, 小林 貴訓, 久野 義徳, “全方位カメラによる周辺情報を用いたロボット車椅子の開発,” 画像センシングシンポジウム(SSII2012), 2012.
  • 71) 小貫 朋実, 宮田 雄規, 小林 貴訓, 久野 義徳, “視線コミュニケーションを考慮したロボット頭部の開発,” 画像センシングシンポジウム(SSII2012), 2012.
  • 72) M. Yousuf, Y. Kobayashi, Y. Kuno, K. Yamazaki and A. Yamazaki, “Model of Guide Robot Behavior to Explain Multiple Exhibits to Multiple Visitors,” Proc. International Session of 30th Annual Conference of the Robotics Society of Japan (RSJ2012), pp.83-86, 2012.
  • 73) K. Ikeda, A. Yamazaki, K. Yamazaki, T. Ohyama, Y. Kobayashi and Y. Kuno, “A Strategy to Enhance Visitors’ Audience Participation towards a Museum Guide Robot,” Proc. IROS2012 Workshop on Human-Agent Interaction, 2012.
  • 74) R. Suzuki, E. Takano, Y. Kobayashi, Y. Kuno, K. Yamazaki and A. Yamazaki, “Robotic Wheelchair Easy to Move and Communicate with Companions,” Proc. IROS2012 Workshop on Progress, Challenges and Future Perspectives in Navigation and Manipulation Assistance for Robotic Wheelchairs, 2012.
  • 75) Y. Kobayashi, R. Suzuki, Y. Sato, M. Arai, Y. Kuno, A. Yamazaki and K. Yamazaki, “Robotic Wheelchair Easy to Move and Communicate with Companions,” Proc. CHI2013 Extended Abstracts, pp.3079-3082, 2013.
  • 76) R. Suzuki, Y. Sato, Y. Kobayashi, Y. Kuno, K. Yamazaki, M. Arai and A. Yamazaki, “Robotic Wheelchair Moving Alongside a Companion,” Proc. HRI2013 Demonstration, p.D01, 2013. (Best Demonstration Award)
  • 77) M. Fukushima, R. Fujita, M. Kurihara, T. Suzuki, K. Yamazaki, A. Yamazaki, K. Ikeda, Y. Kuno, Y. Kobayashi, T. Ohyama and E. Yoshida, “Question Strategy and Interculturality in Human-Robot Interaction,” Proc. HRI2013 Late breaking Report, pp.125-126, 2013.
  • 78) D. Das, M. Hoque, T. Onuki, Y. Kobayashi and Y. Kuno, “Attention Control System Considering the Target Person’s Attention Level,” Proc. HRI2013 Late breaking Report, pp.111-112, 2013.
  • 79) T. Onuki, T. Ishinoda, Y. Kobayashi and Y. Kuno, “Design of Robot Eyes Suitable for Gaze Communication,” Proc. HRI2013 Late breaking Report, pp.203-204, 2013.
  • 80) 新井 雅也, 山崎 晶子, 小林 貴訓, 久野 義徳, “不可視マーカを用いた複数ロボット車椅子の位置認識,” 電子情報通信学会総合大会, p.140, 2013.
  • 81) 福田 悠人, 小林 貴訓, 久野 義徳, 加地 大介, “オントロジーに基づく対話を援用した物体認識の検討,” 電子情報通信学会総合大会, p.151, 2013.
  • 82) 佐藤 慶尚, 小林 貴訓, 久野 義徳, “同伴者の行動に配慮したロボット車椅子の協調移動に関する検討,” 電子情報通信学会総合大会学生ポスターセッション, p.127, 2013.
  • 83) 田畠 知弥, 小林 貴訓, 久野 義徳, “介護支援ロボットのためのユーザリクエスト認識手法の検討,” 電子情報通信学会総合大会学生ポスターセッション, p.128, 2013.
  • 84) 小貫 朋実, 江連 智香, 石野田 貴文, 小林 貴訓, 久野 義徳, “注視を演出するコミュニケーションロボット,” 画像センシングシンポジウム(SSII2013), 2013.
  • 85) 新井 雅也, 佐藤 慶尚, 鈴木 亮太, 小林 貴訓, 久野 義徳, “周辺状況を考慮してコミュニケーションを支援するロボット車椅子,” 画像の認識・理解シンポジウム(MIRU2013), 2013.
  • 86) 森 智史, 福田 悠人, 小林 貴訓, 久野 義徳, 加地 大介, “オントロジーに基づく形状認識,” 画像の認識・理解シンポジウム(MIRU2013), 2013.
  • 87) D. Das, M. G. Rashed, Y. Kobayashi and Y. Kuno, “Recognizing Gaze Pattern for Human Robot Interaction,” Proc. HRI2014 Late Breaking Report, pp.142-143, 2014.
  • 88) Y. Sato, R. Suzuki, M. Arai, Y. Kobayashi and Y. Kuno, M. Fukushima, K. Yamazaki and A. Yamazaki, “Multiple Robotic Wheelchair System Able to Move with a Companion using Map Information,” Proc. HRI2014 Late Breaking Report, pp.286-287, 2014.
  • 89) 神田 敦, 小林 貴訓, 久野 義徳, “ミュージアムガイドロボットのための移動軌跡に基づく観客グループ判別,” 電子情報通信学会総合大会, p.155, 2014.
  • 90) 佐野 要, 小貫 朋実, 井田 賢人, 小林 貴訓, 久野 義徳, “人の注視を誘導する目と連動したロボットの振り向き動作の検討,” 電子情報通信学会総合大会, p.156, 2014.
  • 91) 松田 成, 久野 義徳, 小林 貴訓, “認知症者の介護を支援する遠隔コミュニケーションシステム,” 電子情報通信学会総合大会学生ポスターセッション, p.80, 2014.
  • 92) 光野 泰弘, 小林 貴訓, 久野 義徳, “対話を援用したグラフカットに基づく物体領域抽出,” 電子情報通信学会総合大会学生ポスターセッション, p.81, 2014.
  • 93) 福田 悠人, 森 聡史, 小林 貴訓, 久野 義徳, 加地 大介, “サービスロボットのための物体表現オントロジーに基づいた物体認識,” 画像センシングシンポジウム(SSII2014), 2014.
  • 94) 山崎 敬一, 小林 貴訓, “ジャパンエクスポ2015の参加報告と遠隔ファン支援実験,” 情報処理学会論文誌デジタルコンテンツ(DCON), vol.4, no.1, pp.iv-vi, 2015.
  • 95) G. Rashed, R. Suzuki, A. Lam, Y. Kobayashi and Y. Kuno, “Toward Museum Guide Robots Proactively Initiating Interaction with Humans,” Proc. HRI2015 Late Breaking Report, 2015.
  • 96) K. Sano, K. Murata, R. Suzuki, Y. Kuno, D. Itagaki and Y. Kobayashi, “Museum Guide Robot by Considering Static and Dynamic Gaze Expressions to Communicate with Visitors,” Proc. HRI2015 Late Breaking Report, 2015.
  • 97) Y. Kuno, S. Goto, Y. Matsuda, T. Kikugawa, A. Lam and Y. Kobayashi, “Toward a Robot System Supporting Communication between People with Dementia and Their Relatives,” Proc. IROS2015 Late Breaking Report, 2015.
  • 98) 横倉 拓朗, 小林 貴訓, 久野 義徳, “一緒に移動する同伴者を自動認識するロボット車椅子,” 電子情報通信学会総合大会, 2015.
  • 99) 板垣 大二朗, 小林 貴訓, 久野 義徳, “レーザ測域センサを用いた環境情報を考慮した人物追跡,” 電子情報通信学会総合大会, 2015.
  • 100) 菊川 俊樹, 小林 貴訓, 久野 義徳, “ロボットを用いた遠隔コミュニケーションシステム,” 電子情報通信学会総合大会, 2015.
  • 101) 山我 直史, 小林 貴訓, 久野 義徳, “相手の集中度を考慮したロボットによる注意獲得,” 電子情報通信学会総合大会学生ポスターセッション, p.52, 2015.
  • 102) 澤田 拳, 小林 貴訓, 久野 義徳, “ロボット車椅子の進路提示手法に関する検討,” 電子情報通信学会総合大会学生ポスターセッション, p.53, 2015.
  • 103) 秋山 俊貴, 小林 貴訓, 久野 義徳, “エージェント対話システムのための高速カメラを用いた表情認識,” 電子情報通信学会総合大会学生ポスターセッション, p.53, 2015.
  • 104) 松田 成, 小林 貴訓, 久野 義徳, “認知症介護を支援する遠隔コミュニケーションシステム,” 画像センシングシンポジウム(SSII2015), 2015.
  • 105) 石川 雅貴, 小林 貴訓, 久野 義徳, “サービスロボットのためのRGB-Dデータの領域分割に基づく時間経過を考慮したシーン理解,” パターン計測シンポジウム, 2015.
  • 106) 大津 耕陽, 小林 貴訓, 久野 義徳, “高齢者の状態センシングに基づく遠隔見守りシステム,” パターン計測シンポジウム, 2015.
  • 107) 堀江 直人, 小林 貴訓, 久野 義徳, “認知症介護支援のためのキーワード検出に基づく対話システム,” パターン計測シンポジウム, 2015.
  • 108) 横倉 拓朗, 鈴木 亮太, 小林 貴訓, 久野 義徳, “慣性計測センサを用いたロボット車椅子ユーザの暴れと立ち上がり検知,” 電子情報通信学会総合大会, 2016.
  • 109) 水村 育美, 鈴木 亮太, 小林 貴訓, 久野 義徳, “テレビ電話を介した視聴覚情報によるロボットの遠隔操作,” 電子情報通信学会総合大会, 2016.
  • 110) 米澤 拓也, 鈴木 亮太, Md. Golam Rashed, 小林 貴訓, 久野 義徳, “美術館来訪者の興味度の推定に向けた移動行動の分析,” 電子情報通信学会総合大会, 2016.
  • 111) 大津 耕陽, 小林 貴訓, 久野 義徳, “対話状況の観察に基づく高齢者遠隔見守りシステム,” 電子情報通信学会総合大会, 2016.
  • 112) 高橋 秀和, 鈴木 亮太, 小林 貴訓, 久野 義徳, “陳列状況の変化に頑健な自律移動ショッピングカート,” 電子情報通信学会総合大会学生ポスターセッション, p.111, 2016.
  • 113) 渡邉 真悠, 福田 悠人, 小林 貴訓, 久野 義徳, “複数視点間の認識結果の統合に基づく物体認識,” 電子情報通信学会総合大会学生ポスターセッション, p.112, 2016.
  • 114) 大津 耕陽, 松田 成, 福田 悠人, 小林 貴訓, 久野 義徳, “テレビ電話と連携した人形型デバイスを用いた高齢者の遠隔見守りシステム,” 画像センシングシンポジウム(SSII2016), 2016.
  • 115) 細原 大輔, 福田 悠人, 小林 貴訓, 久野 義徳, “付加情報を用いた学習済みCNNに基づく物体認識,” 画像センシングシンポジウム(SSII2016), 2016.
  • 116) 関根 凌太, 高橋 秀和, 鈴木 亮太, 福田 悠人, 小林 貴訓, 久野 義徳, 山崎 敬一, 山崎 晶子, “BLE対応スマートフォンを持った同伴者と協調移動するロボット車椅子,” 電子情報通信学会HCS研究会, 電子情報通信学会技術研究報告HCS, 2016.
  • 117) 楊 澤坤, 福田 悠人, 山崎 敬一, 山崎 晶子, 小林 貴訓, 久野義徳, “ロボットが誘発する多人数相互行為の分析,” 電子情報通信学会HCS研究会, 電子情報通信学会技術研究報告HCS, 2016.
  • 118) Sidra Tariq, 福田 悠人, 小林 貴訓, 久野 義徳, “遠隔ビデオ通話機能を備えた自律追従型見守りロボット,” HAIシンポジウム, 2016.
  • 119) 鈴木 亮太, 中村 優介, 福田 悠人, 小林 貴訓, 久野 義徳, “ベクションを用いたパーソナルモビリティの誘導,” 情報処理学会インラクション2017, 2017.
  • 120) 遠藤 文人, 鈴木 亮太, 福田 悠人, 小林 貴訓, 久野 義徳, “スマートフォン搭載センサを用いた歩行者同定,” 電子情報通信学会総合大会, 2017.
  • 121) 山崎 誠治, 高橋 秀和, 鈴木 亮太, 山田 大地, 福田 悠人, 小林 貴訓, 久野 義徳, “位置情報に基づくサ―ビスを提供する自律移動ショッピングカート,” 電子情報通信学会総合大会, 2017.
  • 122) 高田 靖人, 福田 悠人, 小林 貴訓, 久野 義徳, “ロボットの視線フィードバックを援用した指示物体の同定,” 電子情報通信学会総合大会, 2017.
  • 123) J.T. Husna, H. Fukuda, Y. Kobayashi and Y. Kuno, “Blind Area Detection for Safe and Comfortable Navigation of Robotic Wheelchairs,” 電子情報通信学会総合大会学生ポスターセッション, p.50, 2017.
  • 124) R. Kumari, H. Fukuda, Y. Kobayashi and Y. Kuno, “Robotic Agent to Support Navigation and Communication for Autonomous Wheelchair,” 電子情報通信学会総合大会学生ポスターセッション, p.51, 2017.
  • 125) 三浦 且之, 福田 悠人, 小林 貴訓, 久野 義徳, “ロボットのための動的観察に基づく物体認識手法の提案,” 電子情報通信学会総合大会学生ポスターセッション, p.52, 2017.
  • 126) 長嶺 洋佑, 大津 耕陽, 福田 悠人, 小林 貴訓, 久野 義徳, “玄関での日常会話を援用した徘徊抑止システムの提案,” 2017年電子情報通信学会総合大会学生ポスターセッション, p.53, 2017.
  • 127) K. Das, K. Otsu, A. Lam, Y. Kobayashi, and Y. Kuno, “Towards Detecting the Inner Emotions of Multiple People,” 第99回パターン計測部会研究会, 2017.
  • 128) 大津 耕陽, 倉橋 知己, Tilottoma Das, 福田 悠人, Lam Antony, 小林 貴訓, 久野 義徳, “環境変化に頑健なビデオ映像による心拍数計測手法,” 画像センシングシンポジウム(SSII2017), 2017. (最優秀学術賞受賞)
  • 129) 山崎 誠治, 高橋 秀和, 鈴木 亮太, 山田 大地, 福田 悠人, 小林 貴訓, 久野 義徳, “高齢者の買い物を支援するロボットショッピングカート,” 画像センシングシンポジウム(SSII2017), 2017.
  • 130) 山本 祐介, 福田 悠人, 小林 貴訓, 久野 義徳, “DNNに基づく感情推定手法の対話ロボットへの応用,” パターン計測部会研究会, 2017.
  • 131) J. Li, H. Fukuda, Y. Kobayashi, Y. Kuno, “Precise Bus Door Detection for Robotic Wheelchair Boarding,” パターン計測部会研究会, 2017.
  • 132) H. Fukuda, Y. Kobayashi and Y. Kuno, “Teleoperation of a Robot through Audio-Visual Signal via Video Chat,” Proc. HRI2018 Late Breaking Report, 2018.
  • 133) 飯山 恵美, 福田 悠人, 小林 貴訓, 久野 義徳, 山崎 敬一, “自律移動車椅子の動作を伝えるエージェントロボットの開発,” 電子情報通信学会総合大会, 2018.
  • 134) 後藤 宏輔, 福田 悠人, 小林 貴訓, 久野 義徳, “レーザ測域センサの反射強度を用いた物体姿勢追跡,” 電子情報通信学会総合大会, 2018.
  • 135) 歌田 夢香, 福田 悠人, 小林 貴訓, 久野 義徳, 山崎 敬一, “全天球カメラを用いた遠隔買い物支援システム,” 電子情報通信学会総合大会, 2018.
  • 136) 川久保 公補, 福田 悠人, 小林 貴訓, 久野 義徳, 瀧澤 秀和, “清掃ロボット運用支援のための遠隔画像監視システム,” 電子情報通信学会総合大会, 2018.
  • 137) 李 明輝, 福田 悠人, 小林 貴訓, 久野 義徳, “人間の瞬きを再現した会話エージェント,” 電子情報通信学会総合大会, 2018.
  • 138) 泉田 駿, 鈴木 亮太, 福田 悠人, 小林 貴訓, 久野 義徳, “視覚効果によるパーソナルモビリティの誘導,” 電子情報通信学会総合大会, 2018.
  • 139) 下舘 尚規, 福田 悠人, 小林 貴訓, 久野 義徳, “スマートフォンを援用した移動ロボットのための人物同定,” 電子情報通信学会総合大会学生ポスターセッション, p.34, 2018.
  • 140) 李 春軒, 福田 悠人, 久野 義徳, 小林 貴訓, “多人数動作解析に基づく相互関係の理解,” 電子情報通信学会総合大会学生ポスターセッション, p.35, 2018.
  • 141) 及川 開斗, 福田 悠人, 久野 義徳, 小林 貴訓, “発話状況認識に基づく遠隔対話支援エージェント,” 電子情報通信学会総合大会学生ポスターセッション, p.36, 2018.
  • 142) 福島 史康, 大津 耕陽, 福田 悠人, 久野 義徳, 平原 実留, 山崎 敬一, 小林 貴訓, “演者と聴衆の一体感を増強させるインタラクティブペンライト,” 電子情報通信学会総合大会学生ポスターセッション, p.183, 2018.
  • 143) 李 明輝, 福田 悠人, 小林 貴訓, 久野 義徳, “瞬きの引き込み現象を援用した対話エージェント,” 情報処理学会コンピュータビジョンとイメージメディア研究会, 2018-CVIM-212-33, pp.1-5, 2018.
  • 144) 大津 耕陽, Tilottoma Das, 福田 悠人, Lam Antony, 小林 貴訓, 久野 義徳, “映像解析に基づく頑健・高速な心拍数計測手法,” 画像センシングシンポジウム(SSII2018), 2018.
  • 145) 歌田 夢香, 福田 悠人, 小林 貴訓, 久野 義徳, 山崎 敬一, “全天球カメラを用いた遠隔対話のための視点映像生成,” 画像センシングシンポジウム(SSII2018), 2018.
  • 146) 寺内 涼太, 福島 史康 , 大津 耕陽, 福田 悠人, 小林 貴訓, 久野 義徳, 山崎 敬一, “一体感を増強する遠隔ライブ参加システム,” インタラクション2019, 2019.
  • 147) 中根 旺浩, 福田 悠人, 小林 貴訓, 久野 義徳, “搬送ロボットのための遠隔操作システムの開発,” 電子情報通信学会総合大会, 2019.
  • 148) 後藤 陸, 福田 悠人, 小林 貴訓, 久野 義徳, “LiDARを用いた歩容情報計測に基づくユーザ属性の推定, 電子情報通信学会総合大会, 2019.
  • 149) 尾形 恵, 福田 悠人, 小林 貴訓, 久野 義徳, “ロボット車椅子のための電磁場変動センサを用いた同伴者位置計測,” 電子情報通信学会総合大会, 2019.
  • 150) 吉原 拓海, 福田 悠人, 小林 貴訓, 久野 義徳, “搬送ロボットのための音声入力インタフェースの開発,” 電子情報通信学会総合大会, 2019.
  • 151) 傳 思成, 福田 悠人, 小林 貴訓, 久野 義徳, “エンゲージメント推定に基づくビデオ通話支援ロボット,” 電子情報通信学会総合大会, 2019.
  • 152) 小澤 稔浩, 福田 悠人, 小林 貴訓, 久野 義徳, “歩行者追跡に基づいて周辺状況を可視化するインタラクティブイルミネーション,” 電子情報通信学会総合大会, 2019.
  • 153) 板垣 立稀, 福田 悠人, 小林 貴訓, 久野 義徳, “メディエータロボットを用いた非同期遠隔共食支援システム,” 電子情報通信学会総合大会, 2019.
  • 154) 大津 耕陽, 福田 悠人, Antony Lam, 小林 貴訓, 久野 義徳, 映像解析に基づく頑健・高速な心拍数計測手法, 画像ラボ, 2019.