<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>堀井隆斗 | 大阪大学</title><link>https://takato1414.github.io/</link><atom:link href="https://takato1414.github.io/index.xml" rel="self" type="application/rss+xml"/><description>堀井隆斗 | 大阪大学</description><generator>HugoBlox Kit (https://hugoblox.com)</generator><language>ja</language><lastBuildDate>Mon, 24 Oct 2022 00:00:00 +0000</lastBuildDate><image><url>https://takato1414.github.io/media/icon_hu_da05098ef60dc2e7.png</url><title>堀井隆斗 | 大阪大学</title><link>https://takato1414.github.io/</link></image><item><title>経歴詳細</title><link>https://takato1414.github.io/experience/</link><pubDate>Tue, 05 May 2026 00:00:00 +0000</pubDate><guid>https://takato1414.github.io/experience/</guid><description/></item><item><title>YouTube公開：対談バトル「感情はロボットに実装できるのか？【堀井隆斗 vs スズキ】」</title><link>https://takato1414.github.io/blog/youtube-crosstalk-emotion-robot/</link><pubDate>Mon, 20 Apr 2026 00:00:00 +0000</pubDate><guid>https://takato1414.github.io/blog/youtube-crosstalk-emotion-robot/</guid><description>&lt;p&gt;YouTubeにて、対談バトル「感情はロボットに実装できるのか？【堀井隆斗 vs スズキ】」が公開されました。CPC Camp 2026（集合的予測符号化と記号創発システムに関する春の研究合宿2026）で収録された「記号創発クロストーク」番外編です。&lt;/p&gt;
&lt;p&gt;「ロボットは感情をもてると思いますか？」研究者によるガチ対談です。&lt;/p&gt;
&lt;div style="position: relative; padding-bottom: 56.25%; height: 0; overflow: hidden;"&gt;
&lt;iframe allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share; fullscreen" loading="eager" referrerpolicy="strict-origin-when-cross-origin" src="https://www.youtube.com/embed/pzN5yP4m8wQ?autoplay=0&amp;amp;controls=1&amp;amp;end=0&amp;amp;loop=0&amp;amp;mute=0&amp;amp;start=0" style="position: absolute; top: 0; left: 0; width: 100%; height: 100%; border:0;" title="YouTube video"&gt;&lt;/iframe&gt;
&lt;/div&gt;</description></item><item><title>第21回日本感性工学会春季大会で中村萌さんが優秀発表賞を受賞しました</title><link>https://takato1414.github.io/blog/student-nakamura-jske-award/</link><pubDate>Wed, 15 Apr 2026 00:00:00 +0000</pubDate><guid>https://takato1414.github.io/blog/student-nakamura-jske-award/</guid><description>&lt;p&gt;第21回日本感性工学会春季大会（2026年3月16日〜18日、宇都宮大学陽東キャンパス）にて、中村萌さん（ポーラ化成工業株式会社／2026年4月より社会人博士課程D1として研究室に在籍）が優秀発表賞を受賞しました。&lt;/p&gt;
&lt;p&gt;発表タイトル：「自由記述データに基づく触覚印象と物理的特徴の対照学習－触りごこちを伝える「自由なことば」を設計につなぐ」
著者：中村萌、野村健太郎、水越興治、大石貴矢、池島俊季、堀井隆斗&lt;/p&gt;
&lt;p&gt;詳細は
をご覧ください。&lt;/p&gt;</description></item><item><title>CPC Spring Camp 2026にて野村健太郎さんがMVPに選ばれました</title><link>https://takato1414.github.io/blog/student-nomura-cpc-mvp/</link><pubDate>Wed, 01 Apr 2026 00:00:00 +0000</pubDate><guid>https://takato1414.github.io/blog/student-nomura-cpc-mvp/</guid><description>&lt;p&gt;集合的予測符号化と記号創発システムに関する春の研究合宿「CPC Spring Camp 2026」（2026年3月21日〜26日）にて、研究室の野村健太郎さん（M2）がMVPに選ばれました。&lt;/p&gt;
&lt;p&gt;詳細は
をご覧ください。&lt;/p&gt;</description></item><item><title>インタビュー記事「感情を持つロボットを作ることはできるのか？」が公開されました</title><link>https://takato1414.github.io/blog/qualia-interview-yomitai/</link><pubDate>Tue, 31 Mar 2026 00:00:00 +0000</pubDate><guid>https://takato1414.github.io/blog/qualia-interview-yomitai/</guid><description>&lt;p&gt;連載インタビュー「クオリアをめぐる冒険」第11回が、集英社WEBメディア「ヨミタイ」に公開されました。&lt;/p&gt;
&lt;p&gt;「感情を持つロボットを作ることはできるのか？」というテーマで、ロボットの感情やクオリアに関する研究についてお話ししています。&lt;/p&gt;
&lt;p&gt;記事はこちらからお読みいただけます：
&lt;/p&gt;</description></item><item><title>YouTube「博士と道化師」に出演：ロボットに殺されたい。</title><link>https://takato1414.github.io/blog/youtube-hakase-killed/</link><pubDate>Mon, 30 Mar 2026 00:00:00 +0000</pubDate><guid>https://takato1414.github.io/blog/youtube-hakase-killed/</guid><description>&lt;p&gt;YouTubeチャンネル「博士と道化師」に出演しました。「ロボットに殺されたい。」という刺激的なタイトルで、ロボットが感情を持つとはどういうことかについて語っています。&lt;/p&gt;
&lt;div style="position: relative; padding-bottom: 56.25%; height: 0; overflow: hidden;"&gt;
&lt;iframe allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share; fullscreen" loading="eager" referrerpolicy="strict-origin-when-cross-origin" src="https://www.youtube.com/embed/IXWABl-eND0?autoplay=0&amp;amp;controls=1&amp;amp;end=0&amp;amp;loop=0&amp;amp;mute=0&amp;amp;start=0" style="position: absolute; top: 0; left: 0; width: 100%; height: 100%; border:0;" title="YouTube video"&gt;&lt;/iframe&gt;
&lt;/div&gt;</description></item><item><title>YouTube「博士と道化師」に出演：ロボットには心臓が必要らしい…。</title><link>https://takato1414.github.io/blog/youtube-hakase-heart/</link><pubDate>Sun, 29 Mar 2026 00:00:00 +0000</pubDate><guid>https://takato1414.github.io/blog/youtube-hakase-heart/</guid><description>&lt;p&gt;YouTubeチャンネル「博士と道化師」に出演しました。「ロボットには心臓が必要らしい…。」というタイトルで、身体性と感情の関係についてお話ししています。&lt;/p&gt;
&lt;div style="position: relative; padding-bottom: 56.25%; height: 0; overflow: hidden;"&gt;
&lt;iframe allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share; fullscreen" loading="eager" referrerpolicy="strict-origin-when-cross-origin" src="https://www.youtube.com/embed/xetwDQr4qIk?autoplay=0&amp;amp;controls=1&amp;amp;end=0&amp;amp;loop=0&amp;amp;mute=0&amp;amp;start=0" style="position: absolute; top: 0; left: 0; width: 100%; height: 100%; border:0;" title="YouTube video"&gt;&lt;/iframe&gt;
&lt;/div&gt;</description></item><item><title>YouTube「博士と道化師」に出演：感情の正体を知りたければ、ロボットを調べろ</title><link>https://takato1414.github.io/blog/youtube-hakase-emotion/</link><pubDate>Sat, 28 Mar 2026 00:00:00 +0000</pubDate><guid>https://takato1414.github.io/blog/youtube-hakase-emotion/</guid><description>&lt;p&gt;YouTubeチャンネル「博士と道化師」に出演しました。「感情の正体を知りたければ、ロボットを調べろ」というタイトルで、ロボットを通じた感情研究のアプローチについてお話ししています。&lt;/p&gt;
&lt;div style="position: relative; padding-bottom: 56.25%; height: 0; overflow: hidden;"&gt;
&lt;iframe allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share; fullscreen" loading="eager" referrerpolicy="strict-origin-when-cross-origin" src="https://www.youtube.com/embed/x8ZZe35tzUE?autoplay=0&amp;amp;controls=1&amp;amp;end=0&amp;amp;loop=0&amp;amp;mute=0&amp;amp;start=0" style="position: absolute; top: 0; left: 0; width: 100%; height: 100%; border:0;" title="YouTube video"&gt;&lt;/iframe&gt;
&lt;/div&gt;</description></item><item><title>第2回OCEANSワークショップにて招待講演を行いました</title><link>https://takato1414.github.io/blog/oceans-workshop2026-invited/</link><pubDate>Wed, 11 Mar 2026 00:00:00 +0000</pubDate><guid>https://takato1414.github.io/blog/oceans-workshop2026-invited/</guid><description>&lt;p&gt;大阪大学吹田キャンパスにて開催された第2回OCEANSワークショップ（2026年3月11日）にて、「大規模言語モデルを用いた複数ロボット協調とVLAへのマルチモーダル指示提示」と題した招待講演を行いました。本ワークショップは「造船現場におけるロボティクスとAIの活用」をテーマに開催されました。&lt;/p&gt;
&lt;p&gt;詳細は
をご覧ください。&lt;/p&gt;</description></item><item><title>電子情報通信学会2026年総合大会にて招待講演を行いました</title><link>https://takato1414.github.io/blog/ieice-general2026-invited/</link><pubDate>Tue, 10 Mar 2026 00:00:00 +0000</pubDate><guid>https://takato1414.github.io/blog/ieice-general2026-invited/</guid><description>&lt;p&gt;電子情報通信学会2026年総合大会の依頼シンポジウムセッション「AIロボットとシステム数理」にて、「共生ロボット創出と人間理解のための記号創発ロボティクス」と題した招待講演を行いました。&lt;/p&gt;
&lt;p&gt;
&lt;/p&gt;</description></item><item><title>LocoGPT: GPT-Based Multi-Humanoid-Task Policy for Humanoid Locomotion</title><link>https://takato1414.github.io/publications/locogpt2026/</link><pubDate>Thu, 01 Jan 2026 00:00:00 +0000</pubDate><guid>https://takato1414.github.io/publications/locogpt2026/</guid><description/></item><item><title>日本感情心理学会第33回大会にて招待講演を行いました</title><link>https://takato1414.github.io/blog/jsre2025-invited/</link><pubDate>Sat, 25 Oct 2025 00:00:00 +0000</pubDate><guid>https://takato1414.github.io/blog/jsre2025-invited/</guid><description>&lt;p&gt;日本感情心理学会第33回大会（2025年10月25日、ライトキューブ宇都宮）の大会企画シンポジウム「感情研究における諸領域とのクロスポイント」にて、「構成論的アプローチによる感情理解 〜計算モデルでつなぐ内受容感覚から社会的相互作用まで〜」と題した招待講演を行いました。&lt;/p&gt;
&lt;p&gt;本シンポジウムは、神経科学・認知神経科学・認知発達ロボティクスの研究者による学際的対話を通じて感情の本質を領域横断的に再考する企画で、真田原行先生（情報通信研究機構）、植松朗先生（産業技術総合研究所）とともに話題提供しました。&lt;/p&gt;
&lt;p&gt;詳細は
をご覧ください。&lt;/p&gt;</description></item><item><title>TARAD: Task-Aware Robot Affordance-Centric Diffusion Policy Learned From LLM-Generated Demonstrations</title><link>https://takato1414.github.io/publications/tarad2025/</link><pubDate>Wed, 01 Oct 2025 00:00:00 +0000</pubDate><guid>https://takato1414.github.io/publications/tarad2025/</guid><description/></item><item><title>人とAIの共棲・共創 — Self Mirroring Twinsによる主体的社会創成</title><link>https://takato1414.github.io/projects/human-ai-symbiosis/</link><pubDate>Wed, 01 Oct 2025 00:00:00 +0000</pubDate><guid>https://takato1414.github.io/projects/human-ai-symbiosis/</guid><description>&lt;p&gt;自己の行動・嗜好・価値観を学習し模倣する「Self Mirroring Twins」と人間が共棲することで、自己理解の深化と行動変容を促し、主体的な社会創成を可能にする AI システム基盤を構築するプロジェクトです。&lt;/p&gt;
&lt;p&gt;私たちは、認知発達ロボティクスや能動的推論の知見をもとに、Self Mirroring Twins と人間との長期的なインタラクションのモデル化、双方の信念・予測の更新ダイナミクス、自己と他者（Twin）の境界形成プロセスの計算論的理解に取り組みます。さらに、Twin との対話を通じた行動変容の効果を、実環境ロボットや対話システム上で実証することを目指します。&lt;/p&gt;
&lt;section class="not-prose my-10"&gt;
&lt;div class="flex items-center gap-3 mb-6"&gt;
&lt;div class="flex-shrink-0 w-10 h-10 bg-primary-100 dark:bg-primary-900/50 rounded-full flex items-center justify-center"&gt;
&lt;svg class='w-5 h-5 text-primary-600 dark:text-primary-400' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="m9 7.5l3 4.5m0 0l3-4.5M12 12v5.25M15 12H9m6 3H9m12-3a9 9 0 1 1-18 0a9 9 0 0 1 18 0"/&gt;&lt;/svg&gt;
&lt;/div&gt;
&lt;h3 class="text-xl sm:text-2xl font-bold text-gray-900 dark:text-white tracking-tight m-0"&gt;関連する研究費&lt;/h3&gt;
&lt;/div&gt;
&lt;div class="grid grid-cols-1 gap-4"&gt;
&lt;div class="group flex gap-4 bg-gradient-to-br from-white/90 to-primary-50/30 dark:from-gray-800/90 dark:to-primary-900/20 rounded-xl p-5 shadow-md hover:shadow-xl transition-all duration-300 border border-transparent hover:border-primary-200 dark:hover:border-primary-800 backdrop-blur-md"&gt;
&lt;div class="flex-shrink-0 w-12 h-12 bg-white dark:bg-gray-800 ring-1 ring-gray-200 dark:ring-gray-700 rounded-full flex items-center justify-center shadow-sm"&gt;
&lt;svg class='w-6 h-6 text-primary-600 dark:text-primary-400' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M12 18v-5.25m0 0a6 6 0 0 0 1.5-.189m-1.5.189a6 6 0 0 1-1.5-.189m3.75 7.478a12.1 12.1 0 0 1-4.5 0m3.75 2.383a14.4 14.4 0 0 1-3 0M14.25 18v-.192c0-.983.658-1.823 1.508-2.316a7.5 7.5 0 1 0-7.517 0c.85.493 1.509 1.333 1.509 2.316V18"/&gt;&lt;/svg&gt;
&lt;/div&gt;
&lt;div class="flex-1 min-w-0"&gt;
&lt;p class="text-base sm:text-lg font-bold text-gray-900 dark:text-white leading-snug m-0"&gt;
Self Mirroring Twinsとの共棲による行動変容を通じた主体的社会創成
&lt;/p&gt;
&lt;div class="flex flex-wrap items-center gap-2 mt-2"&gt;
&lt;span class="inline-flex items-center text-xs font-semibold px-2.5 py-1 rounded-full bg-primary-100 text-primary-800 dark:bg-primary-900/40 dark:text-primary-200"&gt;JST CREST&lt;/span&gt;
&lt;span class="inline-flex items-center text-xs font-semibold px-2.5 py-1 rounded-full bg-sky-100 text-sky-800 dark:bg-sky-900/40 dark:text-sky-200"&gt;研究分担者&lt;/span&gt;
&lt;span class="inline-flex items-center text-xs font-mono px-2 py-0.5 rounded bg-gray-100 text-gray-700 dark:bg-gray-700 dark:text-gray-200"&gt;JPMJCR2561&lt;/span&gt;
&lt;/div&gt;
&lt;div class="flex flex-wrap gap-x-4 gap-y-1 text-sm text-gray-700 dark:text-gray-300 mt-2"&gt;
&lt;span class="inline-flex items-center gap-1"&gt;
&lt;svg class='w-4 h-4 opacity-70' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M6.75 3v2.25M17.25 3v2.25M3 18.75V7.5a2.25 2.25 0 0 1 2.25-2.25h13.5A2.25 2.25 0 0 1 21 7.5v11.25m-18 0A2.25 2.25 0 0 0 5.25 21h13.5A2.25 2.25 0 0 0 21 18.75m-18 0v-7.5A2.25 2.25 0 0 1 5.25 9h13.5A2.25 2.25 0 0 1 21 11.25v7.5"/&gt;&lt;/svg&gt;
2025年10月 – 2031年3月
&lt;/span&gt;
&lt;span class="inline-flex items-center gap-1"&gt;
&lt;svg class='w-4 h-4 opacity-70' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M15.75 6a3.75 3.75 0 1 1-7.5 0a3.75 3.75 0 0 1 7.5 0M4.501 20.118a7.5 7.5 0 0 1 14.998 0A17.9 17.9 0 0 1 12 21.75c-2.676 0-5.216-.584-7.499-1.632"/&gt;&lt;/svg&gt;
研究代表: 稲邑哲也（玉川大学）
&lt;/span&gt;
&lt;span class="inline-flex items-center gap-1"&gt;
&lt;svg class='w-4 h-4 opacity-70' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M12 21v-8.25M15.75 21v-8.25M8.25 21v-8.25M3 9l9-6l9 6m-1.5 12V10.333A48.4 48.4 0 0 0 12 9.75c-2.551 0-5.056.2-7.5.582V21M3 21h18M12 6.75h.008v.008H12z"/&gt;&lt;/svg&gt;
科学技術振興機構（JST）
&lt;/span&gt;
&lt;/div&gt;
&lt;div class="mt-2 text-sm text-gray-600 dark:text-gray-400 prose prose-sm dark:prose-invert max-w-none"&gt;戦略目標「人とAIの共生・協働社会を実現する学際的システム基盤の創出」領域。&lt;/div&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;/section&gt;</description></item><item><title>次世代造船所のためのAI協働ロボット</title><link>https://takato1414.github.io/projects/shipyard-ai-cobot/</link><pubDate>Tue, 01 Apr 2025 00:00:00 +0000</pubDate><guid>https://takato1414.github.io/projects/shipyard-ai-cobot/</guid><description>&lt;p&gt;造船現場では、人とロボットが安全柵を介さずに近接して作業する協働環境が強く求められています。本プロジェクトでは、AI を活用した協働ロボット（cobot）の動作獲得・タスク遂行アルゴリズムを開発し、複雑で多様な造船工程に柔軟に適応できる次世代造船所の実現に貢献します。&lt;/p&gt;
&lt;p&gt;私たちは、模倣学習・強化学習・大規模言語モデルや視覚言語モデルといった基盤モデルを組み合わせ、人の作業を観察・理解しながらロボットがスキルを獲得するフレームワークの研究に取り組みます。これにより、現場の作業者と安全に協調しつつ、長尾分布のタスクへも対応できる汎用協働ロボットの実装を目指します。&lt;/p&gt;
&lt;section class="not-prose my-10"&gt;
&lt;div class="flex items-center gap-3 mb-6"&gt;
&lt;div class="flex-shrink-0 w-10 h-10 bg-primary-100 dark:bg-primary-900/50 rounded-full flex items-center justify-center"&gt;
&lt;svg class='w-5 h-5 text-primary-600 dark:text-primary-400' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="m9 7.5l3 4.5m0 0l3-4.5M12 12v5.25M15 12H9m6 3H9m12-3a9 9 0 1 1-18 0a9 9 0 0 1 18 0"/&gt;&lt;/svg&gt;
&lt;/div&gt;
&lt;h3 class="text-xl sm:text-2xl font-bold text-gray-900 dark:text-white tracking-tight m-0"&gt;関連する研究費&lt;/h3&gt;
&lt;/div&gt;
&lt;div class="grid grid-cols-1 gap-4"&gt;
&lt;div class="group flex gap-4 bg-gradient-to-br from-white/90 to-primary-50/30 dark:from-gray-800/90 dark:to-primary-900/20 rounded-xl p-5 shadow-md hover:shadow-xl transition-all duration-300 border border-transparent hover:border-primary-200 dark:hover:border-primary-800 backdrop-blur-md"&gt;
&lt;div class="flex-shrink-0 w-12 h-12 bg-white dark:bg-gray-800 ring-1 ring-gray-200 dark:ring-gray-700 rounded-full flex items-center justify-center shadow-sm"&gt;
&lt;svg class='w-6 h-6 text-primary-600 dark:text-primary-400' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M4.5 12a7.5 7.5 0 0 0 15 0m-15 0a7.5 7.5 0 1 1 15 0m-15 0H3m16.5 0H21m-1.5 0H12m-8.457 3.077l1.41-.513m14.095-5.13l1.41-.513M5.106 17.785l1.15-.964m11.49-9.642l1.149-.964M7.501 19.795l.75-1.3m7.5-12.99l.75-1.3m-6.063 16.658l.26-1.477m2.605-14.772l.26-1.477m0 17.726l-.26-1.477M10.698 4.614l-.26-1.477M16.5 19.794l-.75-1.299M7.5 4.205L12 12m6.894 5.785l-1.149-.964M6.256 7.178l-1.15-.964m15.352 8.864l-1.41-.513M4.954 9.435l-1.41-.514M12.002 12l-3.75 6.495"/&gt;&lt;/svg&gt;
&lt;/div&gt;
&lt;div class="flex-1 min-w-0"&gt;
&lt;p class="text-base sm:text-lg font-bold text-gray-900 dark:text-white leading-snug m-0"&gt;
&lt;a href="https://www.nmri.go.jp/bridge/" target="_blank" rel="noopener" class="no-underline hover:text-primary-600 dark:hover:text-primary-400 transition-colors"&gt;AIの活用による次世代造船所の実現に資する技術開発&lt;/a&gt;
&lt;/p&gt;
&lt;div class="flex flex-wrap items-center gap-2 mt-2"&gt;
&lt;span class="inline-flex items-center text-xs font-semibold px-2.5 py-1 rounded-full bg-primary-100 text-primary-800 dark:bg-primary-900/40 dark:text-primary-200"&gt;BRIDGE（研究開発とSociety 5.0との橋渡しプログラム）&lt;/span&gt;
&lt;span class="inline-flex items-center text-xs font-semibold px-2.5 py-1 rounded-full bg-sky-100 text-sky-800 dark:bg-sky-900/40 dark:text-sky-200"&gt;研究分担者&lt;/span&gt;
&lt;/div&gt;
&lt;div class="flex flex-wrap gap-x-4 gap-y-1 text-sm text-gray-700 dark:text-gray-300 mt-2"&gt;
&lt;span class="inline-flex items-center gap-1"&gt;
&lt;svg class='w-4 h-4 opacity-70' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M6.75 3v2.25M17.25 3v2.25M3 18.75V7.5a2.25 2.25 0 0 1 2.25-2.25h13.5A2.25 2.25 0 0 1 21 7.5v11.25m-18 0A2.25 2.25 0 0 0 5.25 21h13.5A2.25 2.25 0 0 0 21 18.75m-18 0v-7.5A2.25 2.25 0 0 1 5.25 9h13.5A2.25 2.25 0 0 1 21 11.25v7.5"/&gt;&lt;/svg&gt;
2025年度 – （継続中）
&lt;/span&gt;
&lt;span class="inline-flex items-center gap-1"&gt;
&lt;svg class='w-4 h-4 opacity-70' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M12 21v-8.25M15.75 21v-8.25M8.25 21v-8.25M3 9l9-6l9 6m-1.5 12V10.333A48.4 48.4 0 0 0 12 9.75c-2.551 0-5.056.2-7.5.582V21M3 21h18M12 6.75h.008v.008H12z"/&gt;&lt;/svg&gt;
海上・港湾・航空技術研究所 海上技術安全研究所（海技研）
&lt;/span&gt;
&lt;/div&gt;
&lt;div class="mt-2 text-sm text-gray-600 dark:text-gray-400 prose prose-sm dark:prose-invert max-w-none"&gt;CSTI主導のBRIDGEプログラムにおける施策。具体的な役割・期間は契約に応じて変更の可能性あり。&lt;/div&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;/section&gt;</description></item><item><title>心地よさを生む社会的触覚 — 個人差と認知科学的理解</title><link>https://takato1414.github.io/projects/social-touch/</link><pubDate>Tue, 01 Apr 2025 00:00:00 +0000</pubDate><guid>https://takato1414.github.io/projects/social-touch/</guid><description>&lt;p&gt;撫でる、軽く触れる、握手するといった他者からの触れ合いは、私たちに強い心地よさや安心感をもたらします。しかし、その心地よさをどのような神経・認知メカニズムが支えているか、また「心地よさ」の感じ方の個人差がどこから生じるかは未解明です。&lt;/p&gt;
&lt;p&gt;本プロジェクトでは、心理物理実験・神経科学計測・計算論的モデリングを組み合わせ、社会的触覚が生み出す情動価値とその個人差を体系的に解明します。私たちは、触覚を介した情動的ヒューマンロボットインタラクションの観点から、能動的推論や生成モデルに基づく計算論的フレームワークを構築し、ロボットが個人の触覚的好みに適応的に応答する基盤を目指します。&lt;/p&gt;
&lt;section class="not-prose my-10"&gt;
&lt;div class="flex items-center gap-3 mb-6"&gt;
&lt;div class="flex-shrink-0 w-10 h-10 bg-primary-100 dark:bg-primary-900/50 rounded-full flex items-center justify-center"&gt;
&lt;svg class='w-5 h-5 text-primary-600 dark:text-primary-400' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="m9 7.5l3 4.5m0 0l3-4.5M12 12v5.25M15 12H9m6 3H9m12-3a9 9 0 1 1-18 0a9 9 0 0 1 18 0"/&gt;&lt;/svg&gt;
&lt;/div&gt;
&lt;h3 class="text-xl sm:text-2xl font-bold text-gray-900 dark:text-white tracking-tight m-0"&gt;関連する研究費&lt;/h3&gt;
&lt;/div&gt;
&lt;div class="grid grid-cols-1 gap-4"&gt;
&lt;div class="group flex gap-4 bg-gradient-to-br from-white/90 to-primary-50/30 dark:from-gray-800/90 dark:to-primary-900/20 rounded-xl p-5 shadow-md hover:shadow-xl transition-all duration-300 border border-transparent hover:border-primary-200 dark:hover:border-primary-800 backdrop-blur-md"&gt;
&lt;div class="flex-shrink-0 w-12 h-12 bg-white dark:bg-gray-800 ring-1 ring-gray-200 dark:ring-gray-700 rounded-full flex items-center justify-center shadow-sm"&gt;
&lt;svg class='w-6 h-6 text-primary-600 dark:text-primary-400' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M4.26 10.147a60 60 0 0 0-.491 6.347A48.6 48.6 0 0 1 12 20.904a48.6 48.6 0 0 1 8.232-4.41a61 61 0 0 0-.491-6.347m-15.482 0a51 51 0 0 0-2.658-.813A60 60 0 0 1 12 3.493a60 60 0 0 1 10.399 5.84q-1.345.372-2.658.814m-15.482 0A51 51 0 0 1 12 13.489a50.7 50.7 0 0 1 7.74-3.342M6.75 15a.75.75 0 1 0 0-1.5a.75.75 0 0 0 0 1.5m0 0v-3.675A55 55 0 0 1 12 8.443m-7.007 11.55A5.98 5.98 0 0 0 6.75 15.75v-1.5"/&gt;&lt;/svg&gt;
&lt;/div&gt;
&lt;div class="flex-1 min-w-0"&gt;
&lt;p class="text-base sm:text-lg font-bold text-gray-900 dark:text-white leading-snug m-0"&gt;
&lt;a href="https://kaken.nii.ac.jp/grant/KAKENHI-PROJECT-25H00581/" target="_blank" rel="noopener" class="no-underline hover:text-primary-600 dark:hover:text-primary-400 transition-colors"&gt;心地よさを生む社会的触覚の仕組みとその個人差：認知科学的理解の深化&lt;/a&gt;
&lt;/p&gt;
&lt;div class="flex flex-wrap items-center gap-2 mt-2"&gt;
&lt;span class="inline-flex items-center text-xs font-semibold px-2.5 py-1 rounded-full bg-primary-100 text-primary-800 dark:bg-primary-900/40 dark:text-primary-200"&gt;基盤研究(A)&lt;/span&gt;
&lt;span class="inline-flex items-center text-xs font-semibold px-2.5 py-1 rounded-full bg-sky-100 text-sky-800 dark:bg-sky-900/40 dark:text-sky-200"&gt;研究分担者&lt;/span&gt;
&lt;span class="inline-flex items-center text-xs font-mono px-2 py-0.5 rounded bg-gray-100 text-gray-700 dark:bg-gray-700 dark:text-gray-200"&gt;25H00581&lt;/span&gt;
&lt;/div&gt;
&lt;div class="flex flex-wrap gap-x-4 gap-y-1 text-sm text-gray-700 dark:text-gray-300 mt-2"&gt;
&lt;span class="inline-flex items-center gap-1"&gt;
&lt;svg class='w-4 h-4 opacity-70' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M6.75 3v2.25M17.25 3v2.25M3 18.75V7.5a2.25 2.25 0 0 1 2.25-2.25h13.5A2.25 2.25 0 0 1 21 7.5v11.25m-18 0A2.25 2.25 0 0 0 5.25 21h13.5A2.25 2.25 0 0 0 21 18.75m-18 0v-7.5A2.25 2.25 0 0 1 5.25 9h13.5A2.25 2.25 0 0 1 21 11.25v7.5"/&gt;&lt;/svg&gt;
2025年4月 – 2030年3月
&lt;/span&gt;
&lt;span class="inline-flex items-center gap-1"&gt;
&lt;svg class='w-4 h-4 opacity-70' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M15.75 6a3.75 3.75 0 1 1-7.5 0a3.75 3.75 0 0 1 7.5 0M4.501 20.118a7.5 7.5 0 0 1 14.998 0A17.9 17.9 0 0 1 12 21.75c-2.676 0-5.216-.584-7.499-1.632"/&gt;&lt;/svg&gt;
研究代表: 北田亮（神戸大学）
&lt;/span&gt;
&lt;span class="inline-flex items-center gap-1"&gt;
&lt;svg class='w-4 h-4 opacity-70' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M12 21v-8.25M15.75 21v-8.25M8.25 21v-8.25M3 9l9-6l9 6m-1.5 12V10.333A48.4 48.4 0 0 0 12 9.75c-2.551 0-5.056.2-7.5.582V21M3 21h18M12 6.75h.008v.008H12z"/&gt;&lt;/svg&gt;
日本学術振興会（科研費）
&lt;/span&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;/section&gt;</description></item><item><title>Creative Agents: Simulating the Systems Model of Creativity With Generative Agents</title><link>https://takato1414.github.io/publications/creative-agents2025/</link><pubDate>Sat, 01 Mar 2025 00:00:00 +0000</pubDate><guid>https://takato1414.github.io/publications/creative-agents2025/</guid><description/></item><item><title>LiP-LLM: Integrating Linear Programming and Dependency Graph With LLMs for Multi-Robot Task Planning</title><link>https://takato1414.github.io/publications/lip-llm2025/</link><pubDate>Sat, 01 Feb 2025 00:00:00 +0000</pubDate><guid>https://takato1414.github.io/publications/lip-llm2025/</guid><description/></item><item><title>Data-Driven Motion Planning: A Survey on Deep Neural Networks, RL, and LLM Approaches</title><link>https://takato1414.github.io/publications/data-driven-motion2025/</link><pubDate>Wed, 01 Jan 2025 00:00:00 +0000</pubDate><guid>https://takato1414.github.io/publications/data-driven-motion2025/</guid><description/></item><item><title>予測符号化に基づく乳児学習原理の解明</title><link>https://takato1414.github.io/projects/infant-predictive-coding/</link><pubDate>Mon, 01 Apr 2024 00:00:00 +0000</pubDate><guid>https://takato1414.github.io/projects/infant-predictive-coding/</guid><description>&lt;p&gt;ヒト乳児は、限られた経験から世界の構造や他者の意図を驚くほど短時間で獲得します。本プロジェクトでは、予測符号化（predictive coding）と能動的推論（active inference）の枠組みに立脚し、乳児の学習原理を計算モデルとして定式化することを目指します。&lt;/p&gt;
&lt;p&gt;私たちは、マルチモーダル感覚情報の統合や、養育者との社会的インタラクションにおける期待・予測誤差の生成過程をモデル化し、認知発達ロボティクスの観点から実機ロボット実験と発達心理実験の架橋を行います。これにより、ヒト乳児の学習原理を「再現可能」な計算論として記述し、発達障害理解やロボットの早期学習アルゴリズムへの応用にも展開します。&lt;/p&gt;
&lt;section class="not-prose my-10"&gt;
&lt;div class="flex items-center gap-3 mb-6"&gt;
&lt;div class="flex-shrink-0 w-10 h-10 bg-primary-100 dark:bg-primary-900/50 rounded-full flex items-center justify-center"&gt;
&lt;svg class='w-5 h-5 text-primary-600 dark:text-primary-400' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="m9 7.5l3 4.5m0 0l3-4.5M12 12v5.25M15 12H9m6 3H9m12-3a9 9 0 1 1-18 0a9 9 0 0 1 18 0"/&gt;&lt;/svg&gt;
&lt;/div&gt;
&lt;h3 class="text-xl sm:text-2xl font-bold text-gray-900 dark:text-white tracking-tight m-0"&gt;関連する研究費&lt;/h3&gt;
&lt;/div&gt;
&lt;div class="grid grid-cols-1 gap-4"&gt;
&lt;div class="group flex gap-4 bg-gradient-to-br from-white/90 to-primary-50/30 dark:from-gray-800/90 dark:to-primary-900/20 rounded-xl p-5 shadow-md hover:shadow-xl transition-all duration-300 border border-transparent hover:border-primary-200 dark:hover:border-primary-800 backdrop-blur-md"&gt;
&lt;div class="flex-shrink-0 w-12 h-12 bg-white dark:bg-gray-800 ring-1 ring-gray-200 dark:ring-gray-700 rounded-full flex items-center justify-center shadow-sm"&gt;
&lt;svg class='w-6 h-6 text-primary-600 dark:text-primary-400' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M4.26 10.147a60 60 0 0 0-.491 6.347A48.6 48.6 0 0 1 12 20.904a48.6 48.6 0 0 1 8.232-4.41a61 61 0 0 0-.491-6.347m-15.482 0a51 51 0 0 0-2.658-.813A60 60 0 0 1 12 3.493a60 60 0 0 1 10.399 5.84q-1.345.372-2.658.814m-15.482 0A51 51 0 0 1 12 13.489a50.7 50.7 0 0 1 7.74-3.342M6.75 15a.75.75 0 1 0 0-1.5a.75.75 0 0 0 0 1.5m0 0v-3.675A55 55 0 0 1 12 8.443m-7.007 11.55A5.98 5.98 0 0 0 6.75 15.75v-1.5"/&gt;&lt;/svg&gt;
&lt;/div&gt;
&lt;div class="flex-1 min-w-0"&gt;
&lt;p class="text-base sm:text-lg font-bold text-gray-900 dark:text-white leading-snug m-0"&gt;
&lt;a href="https://kaken.nii.ac.jp/grant/KAKENHI-PROJECT-24H00719/" target="_blank" rel="noopener" class="no-underline hover:text-primary-600 dark:hover:text-primary-400 transition-colors"&gt;赤ちゃんはどのように学ぶのか？予測符号化理論に基づくヒト乳児の学習原理の解明&lt;/a&gt;
&lt;/p&gt;
&lt;div class="flex flex-wrap items-center gap-2 mt-2"&gt;
&lt;span class="inline-flex items-center text-xs font-semibold px-2.5 py-1 rounded-full bg-primary-100 text-primary-800 dark:bg-primary-900/40 dark:text-primary-200"&gt;基盤研究(A)&lt;/span&gt;
&lt;span class="inline-flex items-center text-xs font-semibold px-2.5 py-1 rounded-full bg-sky-100 text-sky-800 dark:bg-sky-900/40 dark:text-sky-200"&gt;研究分担者&lt;/span&gt;
&lt;span class="inline-flex items-center text-xs font-mono px-2 py-0.5 rounded bg-gray-100 text-gray-700 dark:bg-gray-700 dark:text-gray-200"&gt;24H00719&lt;/span&gt;
&lt;/div&gt;
&lt;div class="flex flex-wrap gap-x-4 gap-y-1 text-sm text-gray-700 dark:text-gray-300 mt-2"&gt;
&lt;span class="inline-flex items-center gap-1"&gt;
&lt;svg class='w-4 h-4 opacity-70' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M6.75 3v2.25M17.25 3v2.25M3 18.75V7.5a2.25 2.25 0 0 1 2.25-2.25h13.5A2.25 2.25 0 0 1 21 7.5v11.25m-18 0A2.25 2.25 0 0 0 5.25 21h13.5A2.25 2.25 0 0 0 21 18.75m-18 0v-7.5A2.25 2.25 0 0 1 5.25 9h13.5A2.25 2.25 0 0 1 21 11.25v7.5"/&gt;&lt;/svg&gt;
2024年4月 – 2028年3月
&lt;/span&gt;
&lt;span class="inline-flex items-center gap-1"&gt;
&lt;svg class='w-4 h-4 opacity-70' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M15.75 6a3.75 3.75 0 1 1-7.5 0a3.75 3.75 0 0 1 7.5 0M4.501 20.118a7.5 7.5 0 0 1 14.998 0A17.9 17.9 0 0 1 12 21.75c-2.676 0-5.216-.584-7.499-1.632"/&gt;&lt;/svg&gt;
研究代表: 平井真洋（名古屋大学）
&lt;/span&gt;
&lt;span class="inline-flex items-center gap-1"&gt;
&lt;svg class='w-4 h-4 opacity-70' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M12 21v-8.25M15.75 21v-8.25M8.25 21v-8.25M3 9l9-6l9 6m-1.5 12V10.333A48.4 48.4 0 0 0 12 9.75c-2.551 0-5.056.2-7.5.582V21M3 21h18M12 6.75h.008v.008H12z"/&gt;&lt;/svg&gt;
日本学術振興会（科研費）
&lt;/span&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;div class="group flex gap-4 bg-gradient-to-br from-white/90 to-primary-50/30 dark:from-gray-800/90 dark:to-primary-900/20 rounded-xl p-5 shadow-md hover:shadow-xl transition-all duration-300 border border-transparent hover:border-primary-200 dark:hover:border-primary-800 backdrop-blur-md"&gt;
&lt;div class="flex-shrink-0 w-12 h-12 bg-white dark:bg-gray-800 ring-1 ring-gray-200 dark:ring-gray-700 rounded-full flex items-center justify-center shadow-sm"&gt;
&lt;svg class='w-6 h-6 text-primary-600 dark:text-primary-400' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M4.26 10.147a60 60 0 0 0-.491 6.347A48.6 48.6 0 0 1 12 20.904a48.6 48.6 0 0 1 8.232-4.41a61 61 0 0 0-.491-6.347m-15.482 0a51 51 0 0 0-2.658-.813A60 60 0 0 1 12 3.493a60 60 0 0 1 10.399 5.84q-1.345.372-2.658.814m-15.482 0A51 51 0 0 1 12 13.489a50.7 50.7 0 0 1 7.74-3.342M6.75 15a.75.75 0 1 0 0-1.5a.75.75 0 0 0 0 1.5m0 0v-3.675A55 55 0 0 1 12 8.443m-7.007 11.55A5.98 5.98 0 0 0 6.75 15.75v-1.5"/&gt;&lt;/svg&gt;
&lt;/div&gt;
&lt;div class="flex-1 min-w-0"&gt;
&lt;p class="text-base sm:text-lg font-bold text-gray-900 dark:text-white leading-snug m-0"&gt;
&lt;a href="https://kaken.nii.ac.jp/grant/KAKENHI-PROJECT-21H03783/" target="_blank" rel="noopener" class="no-underline hover:text-primary-600 dark:hover:text-primary-400 transition-colors"&gt;他者の動き情報に基づく乳児の学習メカニズムの解明とモデル化&lt;/a&gt;
&lt;/p&gt;
&lt;div class="flex flex-wrap items-center gap-2 mt-2"&gt;
&lt;span class="inline-flex items-center text-xs font-semibold px-2.5 py-1 rounded-full bg-primary-100 text-primary-800 dark:bg-primary-900/40 dark:text-primary-200"&gt;基盤研究(B)&lt;/span&gt;
&lt;span class="inline-flex items-center text-xs font-semibold px-2.5 py-1 rounded-full bg-sky-100 text-sky-800 dark:bg-sky-900/40 dark:text-sky-200"&gt;研究分担者&lt;/span&gt;
&lt;span class="inline-flex items-center text-xs font-mono px-2 py-0.5 rounded bg-gray-100 text-gray-700 dark:bg-gray-700 dark:text-gray-200"&gt;21H03783&lt;/span&gt;
&lt;/div&gt;
&lt;div class="flex flex-wrap gap-x-4 gap-y-1 text-sm text-gray-700 dark:text-gray-300 mt-2"&gt;
&lt;span class="inline-flex items-center gap-1"&gt;
&lt;svg class='w-4 h-4 opacity-70' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M6.75 3v2.25M17.25 3v2.25M3 18.75V7.5a2.25 2.25 0 0 1 2.25-2.25h13.5A2.25 2.25 0 0 1 21 7.5v11.25m-18 0A2.25 2.25 0 0 0 5.25 21h13.5A2.25 2.25 0 0 0 21 18.75m-18 0v-7.5A2.25 2.25 0 0 1 5.25 9h13.5A2.25 2.25 0 0 1 21 11.25v7.5"/&gt;&lt;/svg&gt;
2021年4月 – 2024年3月
&lt;/span&gt;
&lt;span class="inline-flex items-center gap-1"&gt;
&lt;svg class='w-4 h-4 opacity-70' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M15.75 6a3.75 3.75 0 1 1-7.5 0a3.75 3.75 0 0 1 7.5 0M4.501 20.118a7.5 7.5 0 0 1 14.998 0A17.9 17.9 0 0 1 12 21.75c-2.676 0-5.216-.584-7.499-1.632"/&gt;&lt;/svg&gt;
研究代表: 平井真洋（名古屋大学）
&lt;/span&gt;
&lt;span class="inline-flex items-center gap-1"&gt;
&lt;svg class='w-4 h-4 opacity-70' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M12 21v-8.25M15.75 21v-8.25M8.25 21v-8.25M3 9l9-6l9 6m-1.5 12V10.333A48.4 48.4 0 0 0 12 9.75c-2.551 0-5.056.2-7.5.582V21M3 21h18M12 6.75h.008v.008H12z"/&gt;&lt;/svg&gt;
日本学術振興会（科研費）
&lt;/span&gt;
&lt;/div&gt;
&lt;div class="mt-2 text-sm text-gray-600 dark:text-gray-400 prose prose-sm dark:prose-invert max-w-none"&gt;本プロジェクトの前駆研究（終了）&lt;/div&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;/section&gt;</description></item><item><title>クオリア・意識の構成論的研究</title><link>https://takato1414.github.io/research/qualia-consciousness/</link><pubDate>Mon, 01 Jan 2024 00:00:00 +0000</pubDate><guid>https://takato1414.github.io/research/qualia-consciousness/</guid><description>&lt;p&gt;ロボットは感情クオリアをもつことができるのか？この問いに対し、クオリア構造と情報構造の対応関係の解明に取り組んでいる。学術変革領域研究（A）「クオリア構造」プロジェクトに参画し、主観的体験の神経回路モデルや確率的生成モデルによるフレームワークの構築を進めている。東京大学IRCNとの共同研究も展開中。&lt;/p&gt;</description></item><item><title>ヒューマンロボットインタラクション</title><link>https://takato1414.github.io/research/hri/</link><pubDate>Mon, 01 Jan 2024 00:00:00 +0000</pubDate><guid>https://takato1414.github.io/research/hri/</guid><description>&lt;p&gt;社会的文脈における対話ロボット、メンタルヘルス支援、コミュニケーション支援など、人とロボットの共生を目指すインタラクション研究。触覚を介した情動的コミュニケーション、ロボットの意思決定の透明性を確保するためのグラフ構造世界モデルに基づく説明生成フレームワークなどに取り組んでいる。社会ロボット学グループ（吉川研究室）の一員として研究を推進。&lt;/p&gt;</description></item><item><title>ロボット学習・LLMによる行動計画</title><link>https://takato1414.github.io/research/robot-learning/</link><pubDate>Mon, 01 Jan 2024 00:00:00 +0000</pubDate><guid>https://takato1414.github.io/research/robot-learning/</guid><description>&lt;p&gt;模倣学習、強化学習、大規模言語モデル（LLM）を活用したロボットの自律的な行動計画・動作生成に関する研究。LLMと線形計画法を組み合わせたマルチロボットタスクプランニング（LiP-LLM）、アフォーダンスに基づく拡散ポリシー（TARAD）、ヒューマノイドロコモーション（LocoGPT）など、最先端の手法を開発している。&lt;/p&gt;</description></item><item><title>感情発達の計算論的モデリング</title><link>https://takato1414.github.io/research/emotion-development/</link><pubDate>Mon, 01 Jan 2024 00:00:00 +0000</pubDate><guid>https://takato1414.github.io/research/emotion-development/</guid><description>&lt;p&gt;人間の感情がマルチモーダル知覚（視覚・聴覚・触覚）を通じてどのように発達するかを計算論的にモデル化する研究。とくに乳児-養育者間インタラクションにおける触覚優位性に着目し、感情知覚の発達過程を確率的生成モデルによって再現する。能動的推論（Active Inference）に基づくエネルギー最小化フレームワークを用いた情動的ヒューマンロボットインタラクションにも取り組んでいる。&lt;/p&gt;</description></item><item><title>記号創発ロボティクス</title><link>https://takato1414.github.io/research/symbol-emergence/</link><pubDate>Mon, 01 Jan 2024 00:00:00 +0000</pubDate><guid>https://takato1414.github.io/research/symbol-emergence/</guid><description>&lt;p&gt;ロボットの身体的なインタラクションを通じて、記号や言語がいかに創発しうるかを探究する研究。行動と言語の統合的認知アーキテクチャの構築、分散型集合世界モデルによるエマージェントコミュニケーション、マルチタイムスケール認知システム（System 0/1/2/3）の理論構築に取り組んでいる。&lt;/p&gt;</description></item><item><title>自在CA制御技術の基盤研究開発（ムーンショット）</title><link>https://takato1414.github.io/projects/moonshot-cybernetic-avatar/</link><pubDate>Mon, 01 Jan 2024 00:00:00 +0000</pubDate><guid>https://takato1414.github.io/projects/moonshot-cybernetic-avatar/</guid><description>&lt;p&gt;内閣府ムーンショット型研究開発事業 目標1「
」の中で、サイバネティック・アバター（CA）が遠隔から自在に環境とインタラクションするための基盤技術の研究開発に取り組んでいます。AIによる自律化と人による遠隔操作をシームレスに統合する制御アーキテクチャの設計、社会実装に向けた検証を進めています。&lt;/p&gt;
&lt;p&gt;2024年1月の代表者変更により本課題を引き継ぎ、2025年12月からは継続課題（2030年11月まで）として研究を継続しています。詳細は
をご覧ください。&lt;/p&gt;
&lt;section class="not-prose my-10"&gt;
&lt;div class="flex items-center gap-3 mb-6"&gt;
&lt;div class="flex-shrink-0 w-10 h-10 bg-primary-100 dark:bg-primary-900/50 rounded-full flex items-center justify-center"&gt;
&lt;svg class='w-5 h-5 text-primary-600 dark:text-primary-400' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="m9 7.5l3 4.5m0 0l3-4.5M12 12v5.25M15 12H9m6 3H9m12-3a9 9 0 1 1-18 0a9 9 0 0 1 18 0"/&gt;&lt;/svg&gt;
&lt;/div&gt;
&lt;h3 class="text-xl sm:text-2xl font-bold text-gray-900 dark:text-white tracking-tight m-0"&gt;関連する研究費&lt;/h3&gt;
&lt;/div&gt;
&lt;div class="grid grid-cols-1 gap-4"&gt;
&lt;div class="group flex gap-4 bg-gradient-to-br from-white/90 to-primary-50/30 dark:from-gray-800/90 dark:to-primary-900/20 rounded-xl p-5 shadow-md hover:shadow-xl transition-all duration-300 border border-transparent hover:border-primary-200 dark:hover:border-primary-800 backdrop-blur-md"&gt;
&lt;div class="flex-shrink-0 w-12 h-12 bg-white dark:bg-gray-800 ring-1 ring-gray-200 dark:ring-gray-700 rounded-full flex items-center justify-center shadow-sm"&gt;
&lt;svg class='w-6 h-6 text-primary-600 dark:text-primary-400' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M15.59 14.37q.159.666.16 1.38a6 6 0 0 1-6 6v-4.8m5.84-2.58a14.98 14.98 0 0 0 6.16-12.12A14.98 14.98 0 0 0 9.631 8.41m5.96 5.96a14.9 14.9 0 0 1-5.841 2.58m-.119-8.54a6 6 0 0 0-7.381 5.84h4.8m2.581-5.84a14.9 14.9 0 0 0-2.58 5.84m2.699 2.7q-.155.032-.311.06a15 15 0 0 1-2.448-2.448l.06-.312m-2.24 2.39a4.49 4.49 0 0 0-1.757 4.306q.341.054.696.054a4.5 4.5 0 0 0 3.61-1.812M16.5 9a1.5 1.5 0 1 1-3 0a1.5 1.5 0 0 1 3 0"/&gt;&lt;/svg&gt;
&lt;/div&gt;
&lt;div class="flex-1 min-w-0"&gt;
&lt;p class="text-base sm:text-lg font-bold text-gray-900 dark:text-white leading-snug m-0"&gt;
&lt;a href="https://avatar-ss.org/activities/group04/index.html" target="_blank" rel="noopener" class="no-underline hover:text-primary-600 dark:hover:text-primary-400 transition-colors"&gt;自在CA制御技術の基盤研究開発&lt;/a&gt;
&lt;/p&gt;
&lt;div class="flex flex-wrap items-center gap-2 mt-2"&gt;
&lt;span class="inline-flex items-center text-xs font-semibold px-2.5 py-1 rounded-full bg-primary-100 text-primary-800 dark:bg-primary-900/40 dark:text-primary-200"&gt;ムーンショット型研究開発事業 目標1&lt;/span&gt;
&lt;span class="inline-flex items-center text-xs font-semibold px-2.5 py-1 rounded-full bg-emerald-100 text-emerald-800 dark:bg-emerald-900/40 dark:text-emerald-200"&gt;研究代表者&lt;/span&gt;
&lt;span class="inline-flex items-center text-xs font-mono px-2 py-0.5 rounded bg-gray-100 text-gray-700 dark:bg-gray-700 dark:text-gray-200"&gt;JPMJMS2011&lt;/span&gt;
&lt;/div&gt;
&lt;div class="flex flex-wrap gap-x-4 gap-y-1 text-sm text-gray-700 dark:text-gray-300 mt-2"&gt;
&lt;span class="inline-flex items-center gap-1"&gt;
&lt;svg class='w-4 h-4 opacity-70' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M6.75 3v2.25M17.25 3v2.25M3 18.75V7.5a2.25 2.25 0 0 1 2.25-2.25h13.5A2.25 2.25 0 0 1 21 7.5v11.25m-18 0A2.25 2.25 0 0 0 5.25 21h13.5A2.25 2.25 0 0 0 21 18.75m-18 0v-7.5A2.25 2.25 0 0 1 5.25 9h13.5A2.25 2.25 0 0 1 21 11.25v7.5"/&gt;&lt;/svg&gt;
2024年1月 – 2030年11月
&lt;/span&gt;
&lt;span class="inline-flex items-center gap-1"&gt;
&lt;svg class='w-4 h-4 opacity-70' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M12 21v-8.25M15.75 21v-8.25M8.25 21v-8.25M3 9l9-6l9 6m-1.5 12V10.333A48.4 48.4 0 0 0 12 9.75c-2.551 0-5.056.2-7.5.582V21M3 21h18M12 6.75h.008v.008H12z"/&gt;&lt;/svg&gt;
内閣府／JST
&lt;/span&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;/section&gt;</description></item><item><title>説明できる自律化インタラクションAIの研究開発と育児・発達支援への応用</title><link>https://takato1414.github.io/completed-projects/nedo-explainable-ai/</link><pubDate>Mon, 01 Jan 2024 00:00:00 +0000</pubDate><guid>https://takato1414.github.io/completed-projects/nedo-explainable-ai/</guid><description>&lt;p&gt;NEDO「人と共に進化する次世代人工知能に関する技術開発事業」の中で、自律的に行動するインタラクションAIに「説明性」を付与し、育児・発達支援の現場へ応用する研究を行いました。ロボットが自身の行動の根拠や内部状態をユーザーに伝えることで、安心感と信頼に基づいた長期的な関わりを可能にすることを目指しました。&lt;/p&gt;
&lt;p&gt;2024年1月の代表者変更により、2025年3月までを担当しました。&lt;/p&gt;
&lt;section class="not-prose my-10"&gt;
&lt;div class="flex items-center gap-3 mb-6"&gt;
&lt;div class="flex-shrink-0 w-10 h-10 bg-primary-100 dark:bg-primary-900/50 rounded-full flex items-center justify-center"&gt;
&lt;svg class='w-5 h-5 text-primary-600 dark:text-primary-400' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="m9 7.5l3 4.5m0 0l3-4.5M12 12v5.25M15 12H9m6 3H9m12-3a9 9 0 1 1-18 0a9 9 0 0 1 18 0"/&gt;&lt;/svg&gt;
&lt;/div&gt;
&lt;h3 class="text-xl sm:text-2xl font-bold text-gray-900 dark:text-white tracking-tight m-0"&gt;関連する研究費&lt;/h3&gt;
&lt;/div&gt;
&lt;div class="grid grid-cols-1 gap-4"&gt;
&lt;div class="group flex gap-4 bg-gradient-to-br from-white/90 to-primary-50/30 dark:from-gray-800/90 dark:to-primary-900/20 rounded-xl p-5 shadow-md hover:shadow-xl transition-all duration-300 border border-transparent hover:border-primary-200 dark:hover:border-primary-800 backdrop-blur-md"&gt;
&lt;div class="flex-shrink-0 w-12 h-12 bg-white dark:bg-gray-800 ring-1 ring-gray-200 dark:ring-gray-700 rounded-full flex items-center justify-center shadow-sm"&gt;
&lt;svg class='w-6 h-6 text-primary-600 dark:text-primary-400' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M8.25 3v1.5M4.5 8.25H3m18 0h-1.5M4.5 12H3m18 0h-1.5m-15 3.75H3m18 0h-1.5M8.25 19.5V21M12 3v1.5m0 15V21m3.75-18v1.5m0 15V21m-9-1.5h10.5a2.25 2.25 0 0 0 2.25-2.25V6.75a2.25 2.25 0 0 0-2.25-2.25H6.75A2.25 2.25 0 0 0 4.5 6.75v10.5a2.25 2.25 0 0 0 2.25 2.25m.75-12h9v9h-9z"/&gt;&lt;/svg&gt;
&lt;/div&gt;
&lt;div class="flex-1 min-w-0"&gt;
&lt;p class="text-base sm:text-lg font-bold text-gray-900 dark:text-white leading-snug m-0"&gt;
説明できる自律化インタラクションAIの研究開発と育児・発達支援への応用
&lt;/p&gt;
&lt;div class="flex flex-wrap items-center gap-2 mt-2"&gt;
&lt;span class="inline-flex items-center text-xs font-semibold px-2.5 py-1 rounded-full bg-primary-100 text-primary-800 dark:bg-primary-900/40 dark:text-primary-200"&gt;人と共に進化する次世代人工知能に関する技術開発事業&lt;/span&gt;
&lt;span class="inline-flex items-center text-xs font-semibold px-2.5 py-1 rounded-full bg-emerald-100 text-emerald-800 dark:bg-emerald-900/40 dark:text-emerald-200"&gt;研究代表者（代表者変更）&lt;/span&gt;
&lt;span class="inline-flex items-center text-xs font-mono px-2 py-0.5 rounded bg-gray-100 text-gray-700 dark:bg-gray-700 dark:text-gray-200"&gt;20220000000505&lt;/span&gt;
&lt;/div&gt;
&lt;div class="flex flex-wrap gap-x-4 gap-y-1 text-sm text-gray-700 dark:text-gray-300 mt-2"&gt;
&lt;span class="inline-flex items-center gap-1"&gt;
&lt;svg class='w-4 h-4 opacity-70' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M6.75 3v2.25M17.25 3v2.25M3 18.75V7.5a2.25 2.25 0 0 1 2.25-2.25h13.5A2.25 2.25 0 0 1 21 7.5v11.25m-18 0A2.25 2.25 0 0 0 5.25 21h13.5A2.25 2.25 0 0 0 21 18.75m-18 0v-7.5A2.25 2.25 0 0 1 5.25 9h13.5A2.25 2.25 0 0 1 21 11.25v7.5"/&gt;&lt;/svg&gt;
2024年1月 – 2025年3月
&lt;/span&gt;
&lt;span class="inline-flex items-center gap-1"&gt;
&lt;svg class='w-4 h-4 opacity-70' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M12 21v-8.25M15.75 21v-8.25M8.25 21v-8.25M3 9l9-6l9 6m-1.5 12V10.333A48.4 48.4 0 0 0 12 9.75c-2.551 0-5.056.2-7.5.582V21M3 21h18M12 6.75h.008v.008H12z"/&gt;&lt;/svg&gt;
新エネルギー・産業技術総合開発機構（NEDO）
&lt;/span&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;/section&gt;</description></item><item><title>クオリア構造学 — 主観的意識体験を客観性へ橋渡しする</title><link>https://takato1414.github.io/projects/qualia-structure/</link><pubDate>Sat, 01 Apr 2023 00:00:00 +0000</pubDate><guid>https://takato1414.github.io/projects/qualia-structure/</guid><description>&lt;p&gt;「赤の赤らしさ」「痛みの痛みらしさ」のような主観的意識体験（クオリア）を、構造として捉え科学の俎上に載せる試みです。本領域では、心理物理・神経科学・情報理論・機械学習を結節点として、クオリアの「構造」を計測・記述・比較するための方法論を構築します。&lt;/p&gt;
&lt;p&gt;私たちは計画研究「クオリア構造と情報構造の対応」（研究代表: 大泉匡史）に参画し、深層生成モデルや表現学習の観点から、人の主観的体験の構造と神経活動・行動データに内在する情報構造との対応関係をモデル化することに取り組みます。とくに、自己教師あり学習で得られる潜在表現と、心理物理的に得られる類似性構造の整合性を定量的に検証し、ロボットや人工知能における「内的体験の構造」の構成論的理解に挑みます。&lt;/p&gt;
&lt;section class="not-prose my-10"&gt;
&lt;div class="flex items-center gap-3 mb-6"&gt;
&lt;div class="flex-shrink-0 w-10 h-10 bg-primary-100 dark:bg-primary-900/50 rounded-full flex items-center justify-center"&gt;
&lt;svg class='w-5 h-5 text-primary-600 dark:text-primary-400' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="m9 7.5l3 4.5m0 0l3-4.5M12 12v5.25M15 12H9m6 3H9m12-3a9 9 0 1 1-18 0a9 9 0 0 1 18 0"/&gt;&lt;/svg&gt;
&lt;/div&gt;
&lt;h3 class="text-xl sm:text-2xl font-bold text-gray-900 dark:text-white tracking-tight m-0"&gt;関連する研究費&lt;/h3&gt;
&lt;/div&gt;
&lt;div class="grid grid-cols-1 gap-4"&gt;
&lt;div class="group flex gap-4 bg-gradient-to-br from-white/90 to-primary-50/30 dark:from-gray-800/90 dark:to-primary-900/20 rounded-xl p-5 shadow-md hover:shadow-xl transition-all duration-300 border border-transparent hover:border-primary-200 dark:hover:border-primary-800 backdrop-blur-md"&gt;
&lt;div class="flex-shrink-0 w-12 h-12 bg-white dark:bg-gray-800 ring-1 ring-gray-200 dark:ring-gray-700 rounded-full flex items-center justify-center shadow-sm"&gt;
&lt;svg class='w-6 h-6 text-primary-600 dark:text-primary-400' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M4.26 10.147a60 60 0 0 0-.491 6.347A48.6 48.6 0 0 1 12 20.904a48.6 48.6 0 0 1 8.232-4.41a61 61 0 0 0-.491-6.347m-15.482 0a51 51 0 0 0-2.658-.813A60 60 0 0 1 12 3.493a60 60 0 0 1 10.399 5.84q-1.345.372-2.658.814m-15.482 0A51 51 0 0 1 12 13.489a50.7 50.7 0 0 1 7.74-3.342M6.75 15a.75.75 0 1 0 0-1.5a.75.75 0 0 0 0 1.5m0 0v-3.675A55 55 0 0 1 12 8.443m-7.007 11.55A5.98 5.98 0 0 0 6.75 15.75v-1.5"/&gt;&lt;/svg&gt;
&lt;/div&gt;
&lt;div class="flex-1 min-w-0"&gt;
&lt;p class="text-base sm:text-lg font-bold text-gray-900 dark:text-white leading-snug m-0"&gt;
&lt;a href="https://kaken.nii.ac.jp/ja/grant/KAKENHI-ORGANIZER-23H04829/" target="_blank" rel="noopener" class="no-underline hover:text-primary-600 dark:hover:text-primary-400 transition-colors"&gt;クオリア構造学：主観的意識体験を科学的客観性へと橋渡しする超分野融合領域の創成&lt;/a&gt;
&lt;/p&gt;
&lt;div class="flex flex-wrap items-center gap-2 mt-2"&gt;
&lt;span class="inline-flex items-center text-xs font-semibold px-2.5 py-1 rounded-full bg-primary-100 text-primary-800 dark:bg-primary-900/40 dark:text-primary-200"&gt;学術変革領域研究(A) 領域&lt;/span&gt;
&lt;span class="inline-flex items-center text-xs font-semibold px-2.5 py-1 rounded-full bg-sky-100 text-sky-800 dark:bg-sky-900/40 dark:text-sky-200"&gt;研究分担者&lt;/span&gt;
&lt;span class="inline-flex items-center text-xs font-mono px-2 py-0.5 rounded bg-gray-100 text-gray-700 dark:bg-gray-700 dark:text-gray-200"&gt;23H04829&lt;/span&gt;
&lt;/div&gt;
&lt;div class="flex flex-wrap gap-x-4 gap-y-1 text-sm text-gray-700 dark:text-gray-300 mt-2"&gt;
&lt;span class="inline-flex items-center gap-1"&gt;
&lt;svg class='w-4 h-4 opacity-70' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M6.75 3v2.25M17.25 3v2.25M3 18.75V7.5a2.25 2.25 0 0 1 2.25-2.25h13.5A2.25 2.25 0 0 1 21 7.5v11.25m-18 0A2.25 2.25 0 0 0 5.25 21h13.5A2.25 2.25 0 0 0 21 18.75m-18 0v-7.5A2.25 2.25 0 0 1 5.25 9h13.5A2.25 2.25 0 0 1 21 11.25v7.5"/&gt;&lt;/svg&gt;
2023年4月 – 2028年3月
&lt;/span&gt;
&lt;span class="inline-flex items-center gap-1"&gt;
&lt;svg class='w-4 h-4 opacity-70' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M15.75 6a3.75 3.75 0 1 1-7.5 0a3.75 3.75 0 0 1 7.5 0M4.501 20.118a7.5 7.5 0 0 1 14.998 0A17.9 17.9 0 0 1 12 21.75c-2.676 0-5.216-.584-7.499-1.632"/&gt;&lt;/svg&gt;
研究代表: 土谷尚嗣（モナシュ大学）
&lt;/span&gt;
&lt;span class="inline-flex items-center gap-1"&gt;
&lt;svg class='w-4 h-4 opacity-70' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M12 21v-8.25M15.75 21v-8.25M8.25 21v-8.25M3 9l9-6l9 6m-1.5 12V10.333A48.4 48.4 0 0 0 12 9.75c-2.551 0-5.056.2-7.5.582V21M3 21h18M12 6.75h.008v.008H12z"/&gt;&lt;/svg&gt;
日本学術振興会（科研費）
&lt;/span&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;div class="group flex gap-4 bg-gradient-to-br from-white/90 to-primary-50/30 dark:from-gray-800/90 dark:to-primary-900/20 rounded-xl p-5 shadow-md hover:shadow-xl transition-all duration-300 border border-transparent hover:border-primary-200 dark:hover:border-primary-800 backdrop-blur-md"&gt;
&lt;div class="flex-shrink-0 w-12 h-12 bg-white dark:bg-gray-800 ring-1 ring-gray-200 dark:ring-gray-700 rounded-full flex items-center justify-center shadow-sm"&gt;
&lt;svg class='w-6 h-6 text-primary-600 dark:text-primary-400' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M4.26 10.147a60 60 0 0 0-.491 6.347A48.6 48.6 0 0 1 12 20.904a48.6 48.6 0 0 1 8.232-4.41a61 61 0 0 0-.491-6.347m-15.482 0a51 51 0 0 0-2.658-.813A60 60 0 0 1 12 3.493a60 60 0 0 1 10.399 5.84q-1.345.372-2.658.814m-15.482 0A51 51 0 0 1 12 13.489a50.7 50.7 0 0 1 7.74-3.342M6.75 15a.75.75 0 1 0 0-1.5a.75.75 0 0 0 0 1.5m0 0v-3.675A55 55 0 0 1 12 8.443m-7.007 11.55A5.98 5.98 0 0 0 6.75 15.75v-1.5"/&gt;&lt;/svg&gt;
&lt;/div&gt;
&lt;div class="flex-1 min-w-0"&gt;
&lt;p class="text-base sm:text-lg font-bold text-gray-900 dark:text-white leading-snug m-0"&gt;
&lt;a href="https://kaken.nii.ac.jp/ja/grant/KAKENHI-PLANNED-23H04834/" target="_blank" rel="noopener" class="no-underline hover:text-primary-600 dark:hover:text-primary-400 transition-colors"&gt;クオリア構造と情報構造の対応&lt;/a&gt;
&lt;/p&gt;
&lt;div class="flex flex-wrap items-center gap-2 mt-2"&gt;
&lt;span class="inline-flex items-center text-xs font-semibold px-2.5 py-1 rounded-full bg-primary-100 text-primary-800 dark:bg-primary-900/40 dark:text-primary-200"&gt;学術変革領域研究(A) 計画&lt;/span&gt;
&lt;span class="inline-flex items-center text-xs font-semibold px-2.5 py-1 rounded-full bg-sky-100 text-sky-800 dark:bg-sky-900/40 dark:text-sky-200"&gt;研究分担者&lt;/span&gt;
&lt;span class="inline-flex items-center text-xs font-mono px-2 py-0.5 rounded bg-gray-100 text-gray-700 dark:bg-gray-700 dark:text-gray-200"&gt;23H04834&lt;/span&gt;
&lt;/div&gt;
&lt;div class="flex flex-wrap gap-x-4 gap-y-1 text-sm text-gray-700 dark:text-gray-300 mt-2"&gt;
&lt;span class="inline-flex items-center gap-1"&gt;
&lt;svg class='w-4 h-4 opacity-70' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M6.75 3v2.25M17.25 3v2.25M3 18.75V7.5a2.25 2.25 0 0 1 2.25-2.25h13.5A2.25 2.25 0 0 1 21 7.5v11.25m-18 0A2.25 2.25 0 0 0 5.25 21h13.5A2.25 2.25 0 0 0 21 18.75m-18 0v-7.5A2.25 2.25 0 0 1 5.25 9h13.5A2.25 2.25 0 0 1 21 11.25v7.5"/&gt;&lt;/svg&gt;
2023年4月 – 2028年3月
&lt;/span&gt;
&lt;span class="inline-flex items-center gap-1"&gt;
&lt;svg class='w-4 h-4 opacity-70' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M15.75 6a3.75 3.75 0 1 1-7.5 0a3.75 3.75 0 0 1 7.5 0M4.501 20.118a7.5 7.5 0 0 1 14.998 0A17.9 17.9 0 0 1 12 21.75c-2.676 0-5.216-.584-7.499-1.632"/&gt;&lt;/svg&gt;
研究代表: 大泉匡史（東京大学）
&lt;/span&gt;
&lt;span class="inline-flex items-center gap-1"&gt;
&lt;svg class='w-4 h-4 opacity-70' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M12 21v-8.25M15.75 21v-8.25M8.25 21v-8.25M3 9l9-6l9 6m-1.5 12V10.333A48.4 48.4 0 0 0 12 9.75c-2.551 0-5.056.2-7.5.582V21M3 21h18M12 6.75h.008v.008H12z"/&gt;&lt;/svg&gt;
日本学術振興会（科研費）
&lt;/span&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;/section&gt;</description></item><item><title>音楽の身体知 — バイオフィードバックによる「感動」の強化</title><link>https://takato1414.github.io/projects/music-embodiment/</link><pubDate>Sat, 01 Oct 2022 00:00:00 +0000</pubDate><guid>https://takato1414.github.io/projects/music-embodiment/</guid><description>&lt;p&gt;音楽がもたらす「感動」や「鳥肌が立つ」体験（chills）は、聴き手の生理的・身体的反応と密接に結びついています。本プロジェクトでは、心拍・皮膚電気活動・呼吸などの生体信号を実時間で計測し、その変化を音楽演奏や楽曲生成にフィードバックする、新しい体験設計の枠組みを国際共同で構築します。&lt;/p&gt;
&lt;p&gt;私たちは、能動的推論や予測符号化の観点から、感動体験における期待・予測誤差・身体反応の循環をモデル化し、ロボット・AI 演奏者と聴き手の身体性を媒介とした双方向インタラクションの設計に貢献します。&lt;/p&gt;
&lt;section class="not-prose my-10"&gt;
&lt;div class="flex items-center gap-3 mb-6"&gt;
&lt;div class="flex-shrink-0 w-10 h-10 bg-primary-100 dark:bg-primary-900/50 rounded-full flex items-center justify-center"&gt;
&lt;svg class='w-5 h-5 text-primary-600 dark:text-primary-400' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="m9 7.5l3 4.5m0 0l3-4.5M12 12v5.25M15 12H9m6 3H9m12-3a9 9 0 1 1-18 0a9 9 0 0 1 18 0"/&gt;&lt;/svg&gt;
&lt;/div&gt;
&lt;h3 class="text-xl sm:text-2xl font-bold text-gray-900 dark:text-white tracking-tight m-0"&gt;関連する研究費&lt;/h3&gt;
&lt;/div&gt;
&lt;div class="grid grid-cols-1 gap-4"&gt;
&lt;div class="group flex gap-4 bg-gradient-to-br from-white/90 to-primary-50/30 dark:from-gray-800/90 dark:to-primary-900/20 rounded-xl p-5 shadow-md hover:shadow-xl transition-all duration-300 border border-transparent hover:border-primary-200 dark:hover:border-primary-800 backdrop-blur-md"&gt;
&lt;div class="flex-shrink-0 w-12 h-12 bg-white dark:bg-gray-800 ring-1 ring-gray-200 dark:ring-gray-700 rounded-full flex items-center justify-center shadow-sm"&gt;
&lt;svg class='w-6 h-6 text-primary-600 dark:text-primary-400' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M4.26 10.147a60 60 0 0 0-.491 6.347A48.6 48.6 0 0 1 12 20.904a48.6 48.6 0 0 1 8.232-4.41a61 61 0 0 0-.491-6.347m-15.482 0a51 51 0 0 0-2.658-.813A60 60 0 0 1 12 3.493a60 60 0 0 1 10.399 5.84q-1.345.372-2.658.814m-15.482 0A51 51 0 0 1 12 13.489a50.7 50.7 0 0 1 7.74-3.342M6.75 15a.75.75 0 1 0 0-1.5a.75.75 0 0 0 0 1.5m0 0v-3.675A55 55 0 0 1 12 8.443m-7.007 11.55A5.98 5.98 0 0 0 6.75 15.75v-1.5"/&gt;&lt;/svg&gt;
&lt;/div&gt;
&lt;div class="flex-1 min-w-0"&gt;
&lt;p class="text-base sm:text-lg font-bold text-gray-900 dark:text-white leading-snug m-0"&gt;
&lt;a href="https://kaken.nii.ac.jp/grant/KAKENHI-PROJECT-22KK0157/" target="_blank" rel="noopener" class="no-underline hover:text-primary-600 dark:hover:text-primary-400 transition-colors"&gt;音楽の身体知：音楽の「感動」を強化するバイオフィードバックシステムの開発&lt;/a&gt;
&lt;/p&gt;
&lt;div class="flex flex-wrap items-center gap-2 mt-2"&gt;
&lt;span class="inline-flex items-center text-xs font-semibold px-2.5 py-1 rounded-full bg-primary-100 text-primary-800 dark:bg-primary-900/40 dark:text-primary-200"&gt;国際共同研究強化(B)&lt;/span&gt;
&lt;span class="inline-flex items-center text-xs font-semibold px-2.5 py-1 rounded-full bg-sky-100 text-sky-800 dark:bg-sky-900/40 dark:text-sky-200"&gt;研究分担者&lt;/span&gt;
&lt;span class="inline-flex items-center text-xs font-mono px-2 py-0.5 rounded bg-gray-100 text-gray-700 dark:bg-gray-700 dark:text-gray-200"&gt;22KK0157&lt;/span&gt;
&lt;/div&gt;
&lt;div class="flex flex-wrap gap-x-4 gap-y-1 text-sm text-gray-700 dark:text-gray-300 mt-2"&gt;
&lt;span class="inline-flex items-center gap-1"&gt;
&lt;svg class='w-4 h-4 opacity-70' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M6.75 3v2.25M17.25 3v2.25M3 18.75V7.5a2.25 2.25 0 0 1 2.25-2.25h13.5A2.25 2.25 0 0 1 21 7.5v11.25m-18 0A2.25 2.25 0 0 0 5.25 21h13.5A2.25 2.25 0 0 0 21 18.75m-18 0v-7.5A2.25 2.25 0 0 1 5.25 9h13.5A2.25 2.25 0 0 1 21 11.25v7.5"/&gt;&lt;/svg&gt;
2022年10月 – 2026年3月
&lt;/span&gt;
&lt;span class="inline-flex items-center gap-1"&gt;
&lt;svg class='w-4 h-4 opacity-70' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M15.75 6a3.75 3.75 0 1 1-7.5 0a3.75 3.75 0 0 1 7.5 0M4.501 20.118a7.5 7.5 0 0 1 14.998 0A17.9 17.9 0 0 1 12 21.75c-2.676 0-5.216-.584-7.499-1.632"/&gt;&lt;/svg&gt;
研究代表: 大黒達也（東京大学）
&lt;/span&gt;
&lt;span class="inline-flex items-center gap-1"&gt;
&lt;svg class='w-4 h-4 opacity-70' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M12 21v-8.25M15.75 21v-8.25M8.25 21v-8.25M3 9l9-6l9 6m-1.5 12V10.333A48.4 48.4 0 0 0 12 9.75c-2.551 0-5.056.2-7.5.582V21M3 21h18M12 6.75h.008v.008H12z"/&gt;&lt;/svg&gt;
日本学術振興会（科研費）
&lt;/span&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;/section&gt;</description></item><item><title>インソールセンサと足底情報ビッグデータで切り開く足底科学</title><link>https://takato1414.github.io/projects/foot-bigdata/</link><pubDate>Fri, 01 Apr 2022 00:00:00 +0000</pubDate><guid>https://takato1414.github.io/projects/foot-bigdata/</guid><description>&lt;p&gt;立つ・歩く・走るといった日常動作は、すべて足底を介して地面と接続されています。本プロジェクトでは、装着性に優れたインソールセンサを開発し、長期にわたる個人足底情報を大規模に蓄積することで、運動・健康・スキルに関する新たな科学的基盤の構築を目指します。&lt;/p&gt;
&lt;p&gt;私たちは、収集された足底時系列データに対する機械学習・深層学習モデルの設計と、運動スキルや身体状態の自動推定アルゴリズムの開発に貢献します。これにより、運動学習支援やヒューマンモーションの計算論的理解、ロボティクスにおける運動制御モデルへの展開を図ります。&lt;/p&gt;
&lt;section class="not-prose my-10"&gt;
&lt;div class="flex items-center gap-3 mb-6"&gt;
&lt;div class="flex-shrink-0 w-10 h-10 bg-primary-100 dark:bg-primary-900/50 rounded-full flex items-center justify-center"&gt;
&lt;svg class='w-5 h-5 text-primary-600 dark:text-primary-400' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="m9 7.5l3 4.5m0 0l3-4.5M12 12v5.25M15 12H9m6 3H9m12-3a9 9 0 1 1-18 0a9 9 0 0 1 18 0"/&gt;&lt;/svg&gt;
&lt;/div&gt;
&lt;h3 class="text-xl sm:text-2xl font-bold text-gray-900 dark:text-white tracking-tight m-0"&gt;関連する研究費&lt;/h3&gt;
&lt;/div&gt;
&lt;div class="grid grid-cols-1 gap-4"&gt;
&lt;div class="group flex gap-4 bg-gradient-to-br from-white/90 to-primary-50/30 dark:from-gray-800/90 dark:to-primary-900/20 rounded-xl p-5 shadow-md hover:shadow-xl transition-all duration-300 border border-transparent hover:border-primary-200 dark:hover:border-primary-800 backdrop-blur-md"&gt;
&lt;div class="flex-shrink-0 w-12 h-12 bg-white dark:bg-gray-800 ring-1 ring-gray-200 dark:ring-gray-700 rounded-full flex items-center justify-center shadow-sm"&gt;
&lt;svg class='w-6 h-6 text-primary-600 dark:text-primary-400' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M4.26 10.147a60 60 0 0 0-.491 6.347A48.6 48.6 0 0 1 12 20.904a48.6 48.6 0 0 1 8.232-4.41a61 61 0 0 0-.491-6.347m-15.482 0a51 51 0 0 0-2.658-.813A60 60 0 0 1 12 3.493a60 60 0 0 1 10.399 5.84q-1.345.372-2.658.814m-15.482 0A51 51 0 0 1 12 13.489a50.7 50.7 0 0 1 7.74-3.342M6.75 15a.75.75 0 1 0 0-1.5a.75.75 0 0 0 0 1.5m0 0v-3.675A55 55 0 0 1 12 8.443m-7.007 11.55A5.98 5.98 0 0 0 6.75 15.75v-1.5"/&gt;&lt;/svg&gt;
&lt;/div&gt;
&lt;div class="flex-1 min-w-0"&gt;
&lt;p class="text-base sm:text-lg font-bold text-gray-900 dark:text-white leading-snug m-0"&gt;
&lt;a href="https://kaken.nii.ac.jp/grant/KAKENHI-PROJECT-22H00537/" target="_blank" rel="noopener" class="no-underline hover:text-primary-600 dark:hover:text-primary-400 transition-colors"&gt;インソールセンサ開発と個人足底情報ビッグデータ構築で切り開く足底科学&lt;/a&gt;
&lt;/p&gt;
&lt;div class="flex flex-wrap items-center gap-2 mt-2"&gt;
&lt;span class="inline-flex items-center text-xs font-semibold px-2.5 py-1 rounded-full bg-primary-100 text-primary-800 dark:bg-primary-900/40 dark:text-primary-200"&gt;基盤研究(A)&lt;/span&gt;
&lt;span class="inline-flex items-center text-xs font-semibold px-2.5 py-1 rounded-full bg-sky-100 text-sky-800 dark:bg-sky-900/40 dark:text-sky-200"&gt;研究分担者&lt;/span&gt;
&lt;span class="inline-flex items-center text-xs font-mono px-2 py-0.5 rounded bg-gray-100 text-gray-700 dark:bg-gray-700 dark:text-gray-200"&gt;22H00537&lt;/span&gt;
&lt;/div&gt;
&lt;div class="flex flex-wrap gap-x-4 gap-y-1 text-sm text-gray-700 dark:text-gray-300 mt-2"&gt;
&lt;span class="inline-flex items-center gap-1"&gt;
&lt;svg class='w-4 h-4 opacity-70' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M6.75 3v2.25M17.25 3v2.25M3 18.75V7.5a2.25 2.25 0 0 1 2.25-2.25h13.5A2.25 2.25 0 0 1 21 7.5v11.25m-18 0A2.25 2.25 0 0 0 5.25 21h13.5A2.25 2.25 0 0 0 21 18.75m-18 0v-7.5A2.25 2.25 0 0 1 5.25 9h13.5A2.25 2.25 0 0 1 21 11.25v7.5"/&gt;&lt;/svg&gt;
2022年4月 – 2027年3月
&lt;/span&gt;
&lt;span class="inline-flex items-center gap-1"&gt;
&lt;svg class='w-4 h-4 opacity-70' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M15.75 6a3.75 3.75 0 1 1-7.5 0a3.75 3.75 0 0 1 7.5 0M4.501 20.118a7.5 7.5 0 0 1 14.998 0A17.9 17.9 0 0 1 12 21.75c-2.676 0-5.216-.584-7.499-1.632"/&gt;&lt;/svg&gt;
研究代表: 川節拓実（大阪大学）
&lt;/span&gt;
&lt;span class="inline-flex items-center gap-1"&gt;
&lt;svg class='w-4 h-4 opacity-70' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M12 21v-8.25M15.75 21v-8.25M8.25 21v-8.25M3 9l9-6l9 6m-1.5 12V10.333A48.4 48.4 0 0 0 12 9.75c-2.551 0-5.056.2-7.5.582V21M3 21h18M12 6.75h.008v.008H12z"/&gt;&lt;/svg&gt;
日本学術振興会（科研費）
&lt;/span&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;/section&gt;</description></item><item><title>A Framework of Explanation Generation Toward Reliable Autonomous Robots</title><link>https://takato1414.github.io/publications/horii2021advrob/</link><pubDate>Fri, 01 Oct 2021 00:00:00 +0000</pubDate><guid>https://takato1414.github.io/publications/horii2021advrob/</guid><description/></item><item><title>Active Inference Through Energy Minimization in Multimodal Affective Human-Robot Interaction</title><link>https://takato1414.github.io/publications/horii2021frontiers/</link><pubDate>Thu, 01 Jul 2021 00:00:00 +0000</pubDate><guid>https://takato1414.github.io/publications/horii2021frontiers/</guid><description/></item><item><title>Modeling Development of Multimodal Emotion Perception Guided by Tactile Dominance and Perceptual Improvement</title><link>https://takato1414.github.io/publications/horii2018tcds/</link><pubDate>Sat, 01 Sep 2018 00:00:00 +0000</pubDate><guid>https://takato1414.github.io/publications/horii2018tcds/</guid><description/></item><item><title>確率モデルを用いた情動発達の構成的理解（特別研究員 DC2）</title><link>https://takato1414.github.io/completed-projects/dc2-emotion-development/</link><pubDate>Wed, 01 Apr 2015 00:00:00 +0000</pubDate><guid>https://takato1414.github.io/completed-projects/dc2-emotion-development/</guid><description>&lt;p&gt;日本学術振興会 特別研究員（DC2）として実施した博士課程プロジェクトです。乳児期の情動発達を確率的生成モデルによって構成的にモデル化し、養育者の知覚バイアスが乳児の情動構造の獲得・分化にどのように寄与するのかを計算論的に検討しました。本研究はその後の感情の構成的研究の出発点となり、感情の計算論的モデリングや能動的推論に基づくヒューマンロボットインタラクションへと発展しています。&lt;/p&gt;
&lt;section class="not-prose my-10"&gt;
&lt;div class="flex items-center gap-3 mb-6"&gt;
&lt;div class="flex-shrink-0 w-10 h-10 bg-primary-100 dark:bg-primary-900/50 rounded-full flex items-center justify-center"&gt;
&lt;svg class='w-5 h-5 text-primary-600 dark:text-primary-400' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="m9 7.5l3 4.5m0 0l3-4.5M12 12v5.25M15 12H9m6 3H9m12-3a9 9 0 1 1-18 0a9 9 0 0 1 18 0"/&gt;&lt;/svg&gt;
&lt;/div&gt;
&lt;h3 class="text-xl sm:text-2xl font-bold text-gray-900 dark:text-white tracking-tight m-0"&gt;関連する研究費&lt;/h3&gt;
&lt;/div&gt;
&lt;div class="grid grid-cols-1 gap-4"&gt;
&lt;div class="group flex gap-4 bg-gradient-to-br from-white/90 to-primary-50/30 dark:from-gray-800/90 dark:to-primary-900/20 rounded-xl p-5 shadow-md hover:shadow-xl transition-all duration-300 border border-transparent hover:border-primary-200 dark:hover:border-primary-800 backdrop-blur-md"&gt;
&lt;div class="flex-shrink-0 w-12 h-12 bg-white dark:bg-gray-800 ring-1 ring-gray-200 dark:ring-gray-700 rounded-full flex items-center justify-center shadow-sm"&gt;
&lt;svg class='w-6 h-6 text-primary-600 dark:text-primary-400' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M4.26 10.147a60 60 0 0 0-.491 6.347A48.6 48.6 0 0 1 12 20.904a48.6 48.6 0 0 1 8.232-4.41a61 61 0 0 0-.491-6.347m-15.482 0a51 51 0 0 0-2.658-.813A60 60 0 0 1 12 3.493a60 60 0 0 1 10.399 5.84q-1.345.372-2.658.814m-15.482 0A51 51 0 0 1 12 13.489a50.7 50.7 0 0 1 7.74-3.342M6.75 15a.75.75 0 1 0 0-1.5a.75.75 0 0 0 0 1.5m0 0v-3.675A55 55 0 0 1 12 8.443m-7.007 11.55A5.98 5.98 0 0 0 6.75 15.75v-1.5"/&gt;&lt;/svg&gt;
&lt;/div&gt;
&lt;div class="flex-1 min-w-0"&gt;
&lt;p class="text-base sm:text-lg font-bold text-gray-900 dark:text-white leading-snug m-0"&gt;
&lt;a href="https://kaken.nii.ac.jp/grant/KAKENHI-PROJECT-15J00671/" target="_blank" rel="noopener" class="no-underline hover:text-primary-600 dark:hover:text-primary-400 transition-colors"&gt;確率モデルを用いた情動発達の構成的理解：養育者の知覚バイアスが促す情動の構造化&lt;/a&gt;
&lt;/p&gt;
&lt;div class="flex flex-wrap items-center gap-2 mt-2"&gt;
&lt;span class="inline-flex items-center text-xs font-semibold px-2.5 py-1 rounded-full bg-primary-100 text-primary-800 dark:bg-primary-900/40 dark:text-primary-200"&gt;特別研究員奨励費（DC2）&lt;/span&gt;
&lt;span class="inline-flex items-center text-xs font-semibold px-2.5 py-1 rounded-full bg-emerald-100 text-emerald-800 dark:bg-emerald-900/40 dark:text-emerald-200"&gt;研究代表者&lt;/span&gt;
&lt;span class="inline-flex items-center text-xs font-mono px-2 py-0.5 rounded bg-gray-100 text-gray-700 dark:bg-gray-700 dark:text-gray-200"&gt;15J00671&lt;/span&gt;
&lt;/div&gt;
&lt;div class="flex flex-wrap gap-x-4 gap-y-1 text-sm text-gray-700 dark:text-gray-300 mt-2"&gt;
&lt;span class="inline-flex items-center gap-1"&gt;
&lt;svg class='w-4 h-4 opacity-70' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M6.75 3v2.25M17.25 3v2.25M3 18.75V7.5a2.25 2.25 0 0 1 2.25-2.25h13.5A2.25 2.25 0 0 1 21 7.5v11.25m-18 0A2.25 2.25 0 0 0 5.25 21h13.5A2.25 2.25 0 0 0 21 18.75m-18 0v-7.5A2.25 2.25 0 0 1 5.25 9h13.5A2.25 2.25 0 0 1 21 11.25v7.5"/&gt;&lt;/svg&gt;
2015年4月 – 2017年3月
&lt;/span&gt;
&lt;span class="inline-flex items-center gap-1"&gt;
&lt;svg class='w-4 h-4 opacity-70' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M12 21v-8.25M15.75 21v-8.25M8.25 21v-8.25M3 9l9-6l9 6m-1.5 12V10.333A48.4 48.4 0 0 0 12 9.75c-2.551 0-5.056.2-7.5.582V21M3 21h18M12 6.75h.008v.008H12z"/&gt;&lt;/svg&gt;
日本学術振興会（科研費）
&lt;/span&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;/section&gt;</description></item></channel></rss>