Journal
Y.-H. Hu, S. Yokoi, Y. Hatada, Y. Hiroi, T. Narumi, and T. Hiraki, "LUIDA: Large-scale Unified Infrastructure for Digital Assessments Based on a Commercial Metaverse Platform," (under review), 2026.
https://arxiv.org/abs/2504.17705 ↗︎Conference
S. Yokoi, K. Matsumoto, T. Narumi, and H. Kuzuoka, "Effects of the Combination of a Mobile Robot for Haptic Feedback and Hand Redirection on Detection Thresholds," in Proceedings of the Augmented Humans International Conference 2025 (AHs '25), pp. 115–123.
https://doi.org/10.1145/3745900.3746068 ↗︎S. Yokoi*, R. Ohara*, K. Murayama, K. Nakano, and T. Narumi, "What Does an Angel's Halo Taste Like? Exploring the Structure of Gustatory Comedy Through a Case Analysis of Ajigiri," IFIP–ICEC 2025, LNCS vol. 16042, Springer, 2025. (*equal contribution)
https://doi.org/10.1007/978-3-032-02555-5_27 ↗︎K. Murayama, S. Noguchi, S. Yokoi, T. Narumi, H. Kuzuoka, and K. Matsumoto, "Modeling Multisensory Integration in Hand Redirection: A Bayesian Causal Inference Framework for Understanding Individual Variability," ACM Symposium on Applied Perception 2025 (SAP '25), Article 13, pp. 1–11, 2025.
https://doi.org/10.1145/3736702.3744358 ↗︎Workshop
S. Yokoi, K. Matsumoto, and T. Narumi, "Make Impossible Objects Possible in VR by Displaying Distinct 3D Models," VR-HSA 2025 (Workshop in conjunction with IEEE VR 2025), 2025.
S. Yokoi*, S. Tokida*, Y. Hiroi, and T. Hiraki, "Verselyzer: A Statistical Analysis Interface Enabling Non-Experts to Assess Metaverse Branding Effectiveness," 4th Workshop on Seamless Reality (WSR), in conjunction with IEEE VR 2026, 2026. (*equal contribution)
https://yhiroi.github.io/assets/pdf/2026_IEEEVR_WS_KPI_Interface.pdf ↗︎Sotaro Yokoi, "Toward Embodied AI that Promotes Trust Between Visually Impaired and Sighted Individuals," JST ASPIRE Workshop 2026, 2026.
https://koikelab-team.github.io/aspire-workshop2026-page/ ↗︎Poster
A. Yamaguchi*, S. Yokoi*, K. Matsumoto, and T. Narumi, "TableMorph: Haptic Experience with Movable Tables and Redirection," ACM SIGGRAPH Asia 2023 Emerging Technologies, Article 19, pp. 1–2, 2023. (*co-first authors, acceptance rate 24.2%)
https://doi.org/10.1145/3610541.3614574 ↗︎S. Yokoi, T. Yoshida, K. Matsumoto, and T. Narumi, "Interactive Impossible Objects: Designing Physical Interaction with Impossible Objects Using Binocular Disparity Adjustment and Redirection," ACM SIGGRAPH 2025 Emerging Technologies, Article 11, pp. 1–2, 2025.
https://doi.org/10.1145/3721257.3734030 ↗︎S. Yokoi et al., "Katakko: Embodiment of Modular Robots through Automatic Motion Mapping," ACM SIGGRAPH 2026 Emerging Technologies (accepted).
S. Yokoi and J. Rekimoto, "MermaidLLM: Dataflow Diagrams for Explainable Skill Formalization and Real-time Support with Multimodal LLMs," in Adjunct Proceedings of the 38th Annual ACM Symposium on User Interface Software and Technology (UIST Adjunct '25), Article 103, pp. 1–3, 2025.
https://doi.org/10.1145/3746058.3758449 ↗︎S. Yokoi, K. Amitani, N. Hamanishi, and J. Rekimoto, "Jaku-in: A Cultural Skills Training System for Recording and Reproducing Three-Dimensional Body, Eye, and Hand Movements," ACM SIGGRAPH Asia 2024 Posters, Article 23, pp. 1–2, 2024.
https://doi.org/10.1145/3681756.3697977 ↗︎Domestic Conference
横井総太朗, 松本啓吾, 鳴海拓志.「不可能立体を立体視環境で透視投影を用いて可視化するシステム」, WISS2024, 2-A02, 2024年.(ポスター)
横井総太朗, 松本啓吾, 鳴海拓志, 葛岡英明.「移動ロボットを用いた動的な触覚刺激がハプティックリターゲティングの知覚閾値へ及ぼす影響」, 第29回日本バーチャルリアリティ学会大会, 1A-11, 2024年.
中野萌士, 松倉悠, 谷川智洋, 横井総太朗, 大原嶺, 村山皓平, 柳田康幸, 鳴海拓志, 和田有史, 大野雅貴.「天使の輪っかの味を作ろう 〜コンテンツから考える味覚インタフェースの未来〜」, 第30回日本バーチャルリアリティ学会大会, OS1H5, 2025年9月.(オーガナイズドセッション)
横井総太朗*, 時田聡実*, 廣井裕一, 平木剛史.「メタバース空間における実世界ブランディング効果を促進するKPI設計支援インタフェースの開発と評価」, 第30回日本バーチャルリアリティ学会大会, 3C1-07, 2025年9月. (*equal contribution)
横井総太朗, 大原嶺, 村山皓平, 中野萌士, 鳴海拓志.「味喜利のビデオ分析を通じた味覚的コメディの実現に向けた検討」, 第34回 香り・味と生体情報研究会(SBR/NSI合同研究会), 東京大学, 2025年2月.
横井総太朗, 松本啓吾, 鳴海拓志.「インタラクティブな不可能立体を扱うVR体験」, 第19回錯覚ワークショップ「錯覚の解明・モデリング・アート化とその応用」, 明治大学中野キャンパス, 2025年3月.
https://cmma.mims.meiji.ac.jp/events/jointresearch_seminars/index_2024.html ↗︎Contributed Articles
横井総太朗.「IEEE VR 2025」参加報告, 日本バーチャルリアリティ学会 Newsletter, Vol. 30, No. 4, 2025年4月.
https://vrsj.org/report/13127/ ↗︎Exhibitions
横井総太朗.「視覚障害者と晴眼者の身体動作を翻訳するロボット」,「ちょっと先のおもしろい未来 —CHANGE TOMORROW—」, 東京ポートシティ竹芝, 2025年11月2日–3日.
横井総太朗, ウチダキョウカ.「交差点にて」, 富ヶ谷, 2025年8月.
横井総太朗.「触れる不可能立体」, 東京大学制作展 Extra 2024 付いて離れて, 2024年11月.
https://www.iiiexhibition.com/ ↗︎横井総太朗, 小西優多郎, 李伊婧, 平林晴馬, 吉田翼, 都築あい.「Prismatic Diary」, 東京大学制作展 2024 付いて離れて, 2024年11月.
https://www.iiiexhibition.com/ ↗︎横井総太朗, 小西優多郎, 李伊婧, 平林晴馬, 吉田翼, 都築あい.「Prismatic Diary」, 東京大学制作展 Extra 2024 なにいう展, 2024年7月.
https://iii-exhibition-2024-web.vercel.app///?workId=3 ↗︎Awards
Best Presentation Award, IEEE VR Workshop VR-HSA 2025, Jan 2025.
対話発表賞(プログラム委員会推薦), WISS2024, 2024年12月.
Grants & Selected Programs
IPA 2025年度 未踏IT人材発掘・育成事業 採択(採択率 9.2%)— 自己表現のためのモジュール型ソーシャルロボットの開発基盤の構築(共同クリエータ:四反田直樹, 松尾健登)
村田財団 研究助成 文理融合分野 2025年(採択率 7%)— Human-AI Teamingの設計と評価(修士課程学生として唯一の採択)
Scholarships
東京大学 SPRING GX(グリーントランスフォーメーション海外派遣プログラム)採択
知能社会国際卓越大学院プログラム(IIW)採択, 2024年5月.
公益財団法人キーエンス財団 2023年度「がんばれ!日本の大学生」応援給付金, 2023年6月.
Media Coverage
Sony XYN Web Portal Site,「SIGGRAPH 2025 | ソニーが提案する、制作プロセスを革新するソリューション群」, 2025年9月17日. — 東京大学と筑波大学による共同展示「Interactive Impossible Objects」が空間再現ディスプレイの活用事例として紹介.
https://xyn.sony.net/ja/news/20250912 ↗︎