<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>研究プロジェクト | 堀井隆斗 | 大阪大学</title><link>https://takato1414.github.io/projects/</link><atom:link href="https://takato1414.github.io/projects/index.xml" rel="self" type="application/rss+xml"/><description>研究プロジェクト</description><generator>HugoBlox Kit (https://hugoblox.com)</generator><language>ja</language><lastBuildDate>Sun, 19 May 2024 00:00:00 +0000</lastBuildDate><image><url>https://takato1414.github.io/media/icon_hu_da05098ef60dc2e7.png</url><title>研究プロジェクト</title><link>https://takato1414.github.io/projects/</link></image><item><title>人とAIの共棲・共創 — Self Mirroring Twinsによる主体的社会創成</title><link>https://takato1414.github.io/projects/human-ai-symbiosis/</link><pubDate>Wed, 01 Oct 2025 00:00:00 +0000</pubDate><guid>https://takato1414.github.io/projects/human-ai-symbiosis/</guid><description>&lt;p&gt;自己の行動・嗜好・価値観を学習し模倣する「Self Mirroring Twins」と人間が共棲することで、自己理解の深化と行動変容を促し、主体的な社会創成を可能にする AI システム基盤を構築するプロジェクトです。&lt;/p&gt;
&lt;p&gt;私たちは、認知発達ロボティクスや能動的推論の知見をもとに、Self Mirroring Twins と人間との長期的なインタラクションのモデル化、双方の信念・予測の更新ダイナミクス、自己と他者（Twin）の境界形成プロセスの計算論的理解に取り組みます。さらに、Twin との対話を通じた行動変容の効果を、実環境ロボットや対話システム上で実証することを目指します。&lt;/p&gt;
&lt;section class="not-prose my-10"&gt;
&lt;div class="flex items-center gap-3 mb-6"&gt;
&lt;div class="flex-shrink-0 w-10 h-10 bg-primary-100 dark:bg-primary-900/50 rounded-full flex items-center justify-center"&gt;
&lt;svg class='w-5 h-5 text-primary-600 dark:text-primary-400' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="m9 7.5l3 4.5m0 0l3-4.5M12 12v5.25M15 12H9m6 3H9m12-3a9 9 0 1 1-18 0a9 9 0 0 1 18 0"/&gt;&lt;/svg&gt;
&lt;/div&gt;
&lt;h3 class="text-xl sm:text-2xl font-bold text-gray-900 dark:text-white tracking-tight m-0"&gt;関連する研究費&lt;/h3&gt;
&lt;/div&gt;
&lt;div class="grid grid-cols-1 gap-4"&gt;
&lt;div class="group flex gap-4 bg-gradient-to-br from-white/90 to-primary-50/30 dark:from-gray-800/90 dark:to-primary-900/20 rounded-xl p-5 shadow-md hover:shadow-xl transition-all duration-300 border border-transparent hover:border-primary-200 dark:hover:border-primary-800 backdrop-blur-md"&gt;
&lt;div class="flex-shrink-0 w-12 h-12 bg-white dark:bg-gray-800 ring-1 ring-gray-200 dark:ring-gray-700 rounded-full flex items-center justify-center shadow-sm"&gt;
&lt;svg class='w-6 h-6 text-primary-600 dark:text-primary-400' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M12 18v-5.25m0 0a6 6 0 0 0 1.5-.189m-1.5.189a6 6 0 0 1-1.5-.189m3.75 7.478a12.1 12.1 0 0 1-4.5 0m3.75 2.383a14.4 14.4 0 0 1-3 0M14.25 18v-.192c0-.983.658-1.823 1.508-2.316a7.5 7.5 0 1 0-7.517 0c.85.493 1.509 1.333 1.509 2.316V18"/&gt;&lt;/svg&gt;
&lt;/div&gt;
&lt;div class="flex-1 min-w-0"&gt;
&lt;p class="text-base sm:text-lg font-bold text-gray-900 dark:text-white leading-snug m-0"&gt;
Self Mirroring Twinsとの共棲による行動変容を通じた主体的社会創成
&lt;/p&gt;
&lt;div class="flex flex-wrap items-center gap-2 mt-2"&gt;
&lt;span class="inline-flex items-center text-xs font-semibold px-2.5 py-1 rounded-full bg-primary-100 text-primary-800 dark:bg-primary-900/40 dark:text-primary-200"&gt;JST CREST&lt;/span&gt;
&lt;span class="inline-flex items-center text-xs font-semibold px-2.5 py-1 rounded-full bg-sky-100 text-sky-800 dark:bg-sky-900/40 dark:text-sky-200"&gt;研究分担者&lt;/span&gt;
&lt;span class="inline-flex items-center text-xs font-mono px-2 py-0.5 rounded bg-gray-100 text-gray-700 dark:bg-gray-700 dark:text-gray-200"&gt;JPMJCR2561&lt;/span&gt;
&lt;/div&gt;
&lt;div class="flex flex-wrap gap-x-4 gap-y-1 text-sm text-gray-700 dark:text-gray-300 mt-2"&gt;
&lt;span class="inline-flex items-center gap-1"&gt;
&lt;svg class='w-4 h-4 opacity-70' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M6.75 3v2.25M17.25 3v2.25M3 18.75V7.5a2.25 2.25 0 0 1 2.25-2.25h13.5A2.25 2.25 0 0 1 21 7.5v11.25m-18 0A2.25 2.25 0 0 0 5.25 21h13.5A2.25 2.25 0 0 0 21 18.75m-18 0v-7.5A2.25 2.25 0 0 1 5.25 9h13.5A2.25 2.25 0 0 1 21 11.25v7.5"/&gt;&lt;/svg&gt;
2025年10月 – 2031年3月
&lt;/span&gt;
&lt;span class="inline-flex items-center gap-1"&gt;
&lt;svg class='w-4 h-4 opacity-70' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M15.75 6a3.75 3.75 0 1 1-7.5 0a3.75 3.75 0 0 1 7.5 0M4.501 20.118a7.5 7.5 0 0 1 14.998 0A17.9 17.9 0 0 1 12 21.75c-2.676 0-5.216-.584-7.499-1.632"/&gt;&lt;/svg&gt;
研究代表: 稲邑哲也（玉川大学）
&lt;/span&gt;
&lt;span class="inline-flex items-center gap-1"&gt;
&lt;svg class='w-4 h-4 opacity-70' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M12 21v-8.25M15.75 21v-8.25M8.25 21v-8.25M3 9l9-6l9 6m-1.5 12V10.333A48.4 48.4 0 0 0 12 9.75c-2.551 0-5.056.2-7.5.582V21M3 21h18M12 6.75h.008v.008H12z"/&gt;&lt;/svg&gt;
科学技術振興機構（JST）
&lt;/span&gt;
&lt;/div&gt;
&lt;div class="mt-2 text-sm text-gray-600 dark:text-gray-400 prose prose-sm dark:prose-invert max-w-none"&gt;戦略目標「人とAIの共生・協働社会を実現する学際的システム基盤の創出」領域。&lt;/div&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;/section&gt;</description></item><item><title>次世代造船所のためのAI協働ロボット</title><link>https://takato1414.github.io/projects/shipyard-ai-cobot/</link><pubDate>Tue, 01 Apr 2025 00:00:00 +0000</pubDate><guid>https://takato1414.github.io/projects/shipyard-ai-cobot/</guid><description>&lt;p&gt;造船現場では、人とロボットが安全柵を介さずに近接して作業する協働環境が強く求められています。本プロジェクトでは、AI を活用した協働ロボット（cobot）の動作獲得・タスク遂行アルゴリズムを開発し、複雑で多様な造船工程に柔軟に適応できる次世代造船所の実現に貢献します。&lt;/p&gt;
&lt;p&gt;私たちは、模倣学習・強化学習・大規模言語モデルや視覚言語モデルといった基盤モデルを組み合わせ、人の作業を観察・理解しながらロボットがスキルを獲得するフレームワークの研究に取り組みます。これにより、現場の作業者と安全に協調しつつ、長尾分布のタスクへも対応できる汎用協働ロボットの実装を目指します。&lt;/p&gt;
&lt;section class="not-prose my-10"&gt;
&lt;div class="flex items-center gap-3 mb-6"&gt;
&lt;div class="flex-shrink-0 w-10 h-10 bg-primary-100 dark:bg-primary-900/50 rounded-full flex items-center justify-center"&gt;
&lt;svg class='w-5 h-5 text-primary-600 dark:text-primary-400' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="m9 7.5l3 4.5m0 0l3-4.5M12 12v5.25M15 12H9m6 3H9m12-3a9 9 0 1 1-18 0a9 9 0 0 1 18 0"/&gt;&lt;/svg&gt;
&lt;/div&gt;
&lt;h3 class="text-xl sm:text-2xl font-bold text-gray-900 dark:text-white tracking-tight m-0"&gt;関連する研究費&lt;/h3&gt;
&lt;/div&gt;
&lt;div class="grid grid-cols-1 gap-4"&gt;
&lt;div class="group flex gap-4 bg-gradient-to-br from-white/90 to-primary-50/30 dark:from-gray-800/90 dark:to-primary-900/20 rounded-xl p-5 shadow-md hover:shadow-xl transition-all duration-300 border border-transparent hover:border-primary-200 dark:hover:border-primary-800 backdrop-blur-md"&gt;
&lt;div class="flex-shrink-0 w-12 h-12 bg-white dark:bg-gray-800 ring-1 ring-gray-200 dark:ring-gray-700 rounded-full flex items-center justify-center shadow-sm"&gt;
&lt;svg class='w-6 h-6 text-primary-600 dark:text-primary-400' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M4.5 12a7.5 7.5 0 0 0 15 0m-15 0a7.5 7.5 0 1 1 15 0m-15 0H3m16.5 0H21m-1.5 0H12m-8.457 3.077l1.41-.513m14.095-5.13l1.41-.513M5.106 17.785l1.15-.964m11.49-9.642l1.149-.964M7.501 19.795l.75-1.3m7.5-12.99l.75-1.3m-6.063 16.658l.26-1.477m2.605-14.772l.26-1.477m0 17.726l-.26-1.477M10.698 4.614l-.26-1.477M16.5 19.794l-.75-1.299M7.5 4.205L12 12m6.894 5.785l-1.149-.964M6.256 7.178l-1.15-.964m15.352 8.864l-1.41-.513M4.954 9.435l-1.41-.514M12.002 12l-3.75 6.495"/&gt;&lt;/svg&gt;
&lt;/div&gt;
&lt;div class="flex-1 min-w-0"&gt;
&lt;p class="text-base sm:text-lg font-bold text-gray-900 dark:text-white leading-snug m-0"&gt;
&lt;a href="https://www.nmri.go.jp/bridge/" target="_blank" rel="noopener" class="no-underline hover:text-primary-600 dark:hover:text-primary-400 transition-colors"&gt;AIの活用による次世代造船所の実現に資する技術開発&lt;/a&gt;
&lt;/p&gt;
&lt;div class="flex flex-wrap items-center gap-2 mt-2"&gt;
&lt;span class="inline-flex items-center text-xs font-semibold px-2.5 py-1 rounded-full bg-primary-100 text-primary-800 dark:bg-primary-900/40 dark:text-primary-200"&gt;BRIDGE（研究開発とSociety 5.0との橋渡しプログラム）&lt;/span&gt;
&lt;span class="inline-flex items-center text-xs font-semibold px-2.5 py-1 rounded-full bg-sky-100 text-sky-800 dark:bg-sky-900/40 dark:text-sky-200"&gt;研究分担者&lt;/span&gt;
&lt;/div&gt;
&lt;div class="flex flex-wrap gap-x-4 gap-y-1 text-sm text-gray-700 dark:text-gray-300 mt-2"&gt;
&lt;span class="inline-flex items-center gap-1"&gt;
&lt;svg class='w-4 h-4 opacity-70' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M6.75 3v2.25M17.25 3v2.25M3 18.75V7.5a2.25 2.25 0 0 1 2.25-2.25h13.5A2.25 2.25 0 0 1 21 7.5v11.25m-18 0A2.25 2.25 0 0 0 5.25 21h13.5A2.25 2.25 0 0 0 21 18.75m-18 0v-7.5A2.25 2.25 0 0 1 5.25 9h13.5A2.25 2.25 0 0 1 21 11.25v7.5"/&gt;&lt;/svg&gt;
2025年度 – （継続中）
&lt;/span&gt;
&lt;span class="inline-flex items-center gap-1"&gt;
&lt;svg class='w-4 h-4 opacity-70' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M12 21v-8.25M15.75 21v-8.25M8.25 21v-8.25M3 9l9-6l9 6m-1.5 12V10.333A48.4 48.4 0 0 0 12 9.75c-2.551 0-5.056.2-7.5.582V21M3 21h18M12 6.75h.008v.008H12z"/&gt;&lt;/svg&gt;
海上・港湾・航空技術研究所 海上技術安全研究所（海技研）
&lt;/span&gt;
&lt;/div&gt;
&lt;div class="mt-2 text-sm text-gray-600 dark:text-gray-400 prose prose-sm dark:prose-invert max-w-none"&gt;CSTI主導のBRIDGEプログラムにおける施策。具体的な役割・期間は契約に応じて変更の可能性あり。&lt;/div&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;/section&gt;</description></item><item><title>心地よさを生む社会的触覚 — 個人差と認知科学的理解</title><link>https://takato1414.github.io/projects/social-touch/</link><pubDate>Tue, 01 Apr 2025 00:00:00 +0000</pubDate><guid>https://takato1414.github.io/projects/social-touch/</guid><description>&lt;p&gt;撫でる、軽く触れる、握手するといった他者からの触れ合いは、私たちに強い心地よさや安心感をもたらします。しかし、その心地よさをどのような神経・認知メカニズムが支えているか、また「心地よさ」の感じ方の個人差がどこから生じるかは未解明です。&lt;/p&gt;
&lt;p&gt;本プロジェクトでは、心理物理実験・神経科学計測・計算論的モデリングを組み合わせ、社会的触覚が生み出す情動価値とその個人差を体系的に解明します。私たちは、触覚を介した情動的ヒューマンロボットインタラクションの観点から、能動的推論や生成モデルに基づく計算論的フレームワークを構築し、ロボットが個人の触覚的好みに適応的に応答する基盤を目指します。&lt;/p&gt;
&lt;section class="not-prose my-10"&gt;
&lt;div class="flex items-center gap-3 mb-6"&gt;
&lt;div class="flex-shrink-0 w-10 h-10 bg-primary-100 dark:bg-primary-900/50 rounded-full flex items-center justify-center"&gt;
&lt;svg class='w-5 h-5 text-primary-600 dark:text-primary-400' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="m9 7.5l3 4.5m0 0l3-4.5M12 12v5.25M15 12H9m6 3H9m12-3a9 9 0 1 1-18 0a9 9 0 0 1 18 0"/&gt;&lt;/svg&gt;
&lt;/div&gt;
&lt;h3 class="text-xl sm:text-2xl font-bold text-gray-900 dark:text-white tracking-tight m-0"&gt;関連する研究費&lt;/h3&gt;
&lt;/div&gt;
&lt;div class="grid grid-cols-1 gap-4"&gt;
&lt;div class="group flex gap-4 bg-gradient-to-br from-white/90 to-primary-50/30 dark:from-gray-800/90 dark:to-primary-900/20 rounded-xl p-5 shadow-md hover:shadow-xl transition-all duration-300 border border-transparent hover:border-primary-200 dark:hover:border-primary-800 backdrop-blur-md"&gt;
&lt;div class="flex-shrink-0 w-12 h-12 bg-white dark:bg-gray-800 ring-1 ring-gray-200 dark:ring-gray-700 rounded-full flex items-center justify-center shadow-sm"&gt;
&lt;svg class='w-6 h-6 text-primary-600 dark:text-primary-400' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M4.26 10.147a60 60 0 0 0-.491 6.347A48.6 48.6 0 0 1 12 20.904a48.6 48.6 0 0 1 8.232-4.41a61 61 0 0 0-.491-6.347m-15.482 0a51 51 0 0 0-2.658-.813A60 60 0 0 1 12 3.493a60 60 0 0 1 10.399 5.84q-1.345.372-2.658.814m-15.482 0A51 51 0 0 1 12 13.489a50.7 50.7 0 0 1 7.74-3.342M6.75 15a.75.75 0 1 0 0-1.5a.75.75 0 0 0 0 1.5m0 0v-3.675A55 55 0 0 1 12 8.443m-7.007 11.55A5.98 5.98 0 0 0 6.75 15.75v-1.5"/&gt;&lt;/svg&gt;
&lt;/div&gt;
&lt;div class="flex-1 min-w-0"&gt;
&lt;p class="text-base sm:text-lg font-bold text-gray-900 dark:text-white leading-snug m-0"&gt;
&lt;a href="https://kaken.nii.ac.jp/grant/KAKENHI-PROJECT-25H00581/" target="_blank" rel="noopener" class="no-underline hover:text-primary-600 dark:hover:text-primary-400 transition-colors"&gt;心地よさを生む社会的触覚の仕組みとその個人差：認知科学的理解の深化&lt;/a&gt;
&lt;/p&gt;
&lt;div class="flex flex-wrap items-center gap-2 mt-2"&gt;
&lt;span class="inline-flex items-center text-xs font-semibold px-2.5 py-1 rounded-full bg-primary-100 text-primary-800 dark:bg-primary-900/40 dark:text-primary-200"&gt;基盤研究(A)&lt;/span&gt;
&lt;span class="inline-flex items-center text-xs font-semibold px-2.5 py-1 rounded-full bg-sky-100 text-sky-800 dark:bg-sky-900/40 dark:text-sky-200"&gt;研究分担者&lt;/span&gt;
&lt;span class="inline-flex items-center text-xs font-mono px-2 py-0.5 rounded bg-gray-100 text-gray-700 dark:bg-gray-700 dark:text-gray-200"&gt;25H00581&lt;/span&gt;
&lt;/div&gt;
&lt;div class="flex flex-wrap gap-x-4 gap-y-1 text-sm text-gray-700 dark:text-gray-300 mt-2"&gt;
&lt;span class="inline-flex items-center gap-1"&gt;
&lt;svg class='w-4 h-4 opacity-70' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M6.75 3v2.25M17.25 3v2.25M3 18.75V7.5a2.25 2.25 0 0 1 2.25-2.25h13.5A2.25 2.25 0 0 1 21 7.5v11.25m-18 0A2.25 2.25 0 0 0 5.25 21h13.5A2.25 2.25 0 0 0 21 18.75m-18 0v-7.5A2.25 2.25 0 0 1 5.25 9h13.5A2.25 2.25 0 0 1 21 11.25v7.5"/&gt;&lt;/svg&gt;
2025年4月 – 2030年3月
&lt;/span&gt;
&lt;span class="inline-flex items-center gap-1"&gt;
&lt;svg class='w-4 h-4 opacity-70' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M15.75 6a3.75 3.75 0 1 1-7.5 0a3.75 3.75 0 0 1 7.5 0M4.501 20.118a7.5 7.5 0 0 1 14.998 0A17.9 17.9 0 0 1 12 21.75c-2.676 0-5.216-.584-7.499-1.632"/&gt;&lt;/svg&gt;
研究代表: 北田亮（神戸大学）
&lt;/span&gt;
&lt;span class="inline-flex items-center gap-1"&gt;
&lt;svg class='w-4 h-4 opacity-70' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M12 21v-8.25M15.75 21v-8.25M8.25 21v-8.25M3 9l9-6l9 6m-1.5 12V10.333A48.4 48.4 0 0 0 12 9.75c-2.551 0-5.056.2-7.5.582V21M3 21h18M12 6.75h.008v.008H12z"/&gt;&lt;/svg&gt;
日本学術振興会（科研費）
&lt;/span&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;/section&gt;</description></item><item><title>予測符号化に基づく乳児学習原理の解明</title><link>https://takato1414.github.io/projects/infant-predictive-coding/</link><pubDate>Mon, 01 Apr 2024 00:00:00 +0000</pubDate><guid>https://takato1414.github.io/projects/infant-predictive-coding/</guid><description>&lt;p&gt;ヒト乳児は、限られた経験から世界の構造や他者の意図を驚くほど短時間で獲得します。本プロジェクトでは、予測符号化（predictive coding）と能動的推論（active inference）の枠組みに立脚し、乳児の学習原理を計算モデルとして定式化することを目指します。&lt;/p&gt;
&lt;p&gt;私たちは、マルチモーダル感覚情報の統合や、養育者との社会的インタラクションにおける期待・予測誤差の生成過程をモデル化し、認知発達ロボティクスの観点から実機ロボット実験と発達心理実験の架橋を行います。これにより、ヒト乳児の学習原理を「再現可能」な計算論として記述し、発達障害理解やロボットの早期学習アルゴリズムへの応用にも展開します。&lt;/p&gt;
&lt;section class="not-prose my-10"&gt;
&lt;div class="flex items-center gap-3 mb-6"&gt;
&lt;div class="flex-shrink-0 w-10 h-10 bg-primary-100 dark:bg-primary-900/50 rounded-full flex items-center justify-center"&gt;
&lt;svg class='w-5 h-5 text-primary-600 dark:text-primary-400' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="m9 7.5l3 4.5m0 0l3-4.5M12 12v5.25M15 12H9m6 3H9m12-3a9 9 0 1 1-18 0a9 9 0 0 1 18 0"/&gt;&lt;/svg&gt;
&lt;/div&gt;
&lt;h3 class="text-xl sm:text-2xl font-bold text-gray-900 dark:text-white tracking-tight m-0"&gt;関連する研究費&lt;/h3&gt;
&lt;/div&gt;
&lt;div class="grid grid-cols-1 gap-4"&gt;
&lt;div class="group flex gap-4 bg-gradient-to-br from-white/90 to-primary-50/30 dark:from-gray-800/90 dark:to-primary-900/20 rounded-xl p-5 shadow-md hover:shadow-xl transition-all duration-300 border border-transparent hover:border-primary-200 dark:hover:border-primary-800 backdrop-blur-md"&gt;
&lt;div class="flex-shrink-0 w-12 h-12 bg-white dark:bg-gray-800 ring-1 ring-gray-200 dark:ring-gray-700 rounded-full flex items-center justify-center shadow-sm"&gt;
&lt;svg class='w-6 h-6 text-primary-600 dark:text-primary-400' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M4.26 10.147a60 60 0 0 0-.491 6.347A48.6 48.6 0 0 1 12 20.904a48.6 48.6 0 0 1 8.232-4.41a61 61 0 0 0-.491-6.347m-15.482 0a51 51 0 0 0-2.658-.813A60 60 0 0 1 12 3.493a60 60 0 0 1 10.399 5.84q-1.345.372-2.658.814m-15.482 0A51 51 0 0 1 12 13.489a50.7 50.7 0 0 1 7.74-3.342M6.75 15a.75.75 0 1 0 0-1.5a.75.75 0 0 0 0 1.5m0 0v-3.675A55 55 0 0 1 12 8.443m-7.007 11.55A5.98 5.98 0 0 0 6.75 15.75v-1.5"/&gt;&lt;/svg&gt;
&lt;/div&gt;
&lt;div class="flex-1 min-w-0"&gt;
&lt;p class="text-base sm:text-lg font-bold text-gray-900 dark:text-white leading-snug m-0"&gt;
&lt;a href="https://kaken.nii.ac.jp/grant/KAKENHI-PROJECT-24H00719/" target="_blank" rel="noopener" class="no-underline hover:text-primary-600 dark:hover:text-primary-400 transition-colors"&gt;赤ちゃんはどのように学ぶのか？予測符号化理論に基づくヒト乳児の学習原理の解明&lt;/a&gt;
&lt;/p&gt;
&lt;div class="flex flex-wrap items-center gap-2 mt-2"&gt;
&lt;span class="inline-flex items-center text-xs font-semibold px-2.5 py-1 rounded-full bg-primary-100 text-primary-800 dark:bg-primary-900/40 dark:text-primary-200"&gt;基盤研究(A)&lt;/span&gt;
&lt;span class="inline-flex items-center text-xs font-semibold px-2.5 py-1 rounded-full bg-sky-100 text-sky-800 dark:bg-sky-900/40 dark:text-sky-200"&gt;研究分担者&lt;/span&gt;
&lt;span class="inline-flex items-center text-xs font-mono px-2 py-0.5 rounded bg-gray-100 text-gray-700 dark:bg-gray-700 dark:text-gray-200"&gt;24H00719&lt;/span&gt;
&lt;/div&gt;
&lt;div class="flex flex-wrap gap-x-4 gap-y-1 text-sm text-gray-700 dark:text-gray-300 mt-2"&gt;
&lt;span class="inline-flex items-center gap-1"&gt;
&lt;svg class='w-4 h-4 opacity-70' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M6.75 3v2.25M17.25 3v2.25M3 18.75V7.5a2.25 2.25 0 0 1 2.25-2.25h13.5A2.25 2.25 0 0 1 21 7.5v11.25m-18 0A2.25 2.25 0 0 0 5.25 21h13.5A2.25 2.25 0 0 0 21 18.75m-18 0v-7.5A2.25 2.25 0 0 1 5.25 9h13.5A2.25 2.25 0 0 1 21 11.25v7.5"/&gt;&lt;/svg&gt;
2024年4月 – 2028年3月
&lt;/span&gt;
&lt;span class="inline-flex items-center gap-1"&gt;
&lt;svg class='w-4 h-4 opacity-70' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M15.75 6a3.75 3.75 0 1 1-7.5 0a3.75 3.75 0 0 1 7.5 0M4.501 20.118a7.5 7.5 0 0 1 14.998 0A17.9 17.9 0 0 1 12 21.75c-2.676 0-5.216-.584-7.499-1.632"/&gt;&lt;/svg&gt;
研究代表: 平井真洋（名古屋大学）
&lt;/span&gt;
&lt;span class="inline-flex items-center gap-1"&gt;
&lt;svg class='w-4 h-4 opacity-70' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M12 21v-8.25M15.75 21v-8.25M8.25 21v-8.25M3 9l9-6l9 6m-1.5 12V10.333A48.4 48.4 0 0 0 12 9.75c-2.551 0-5.056.2-7.5.582V21M3 21h18M12 6.75h.008v.008H12z"/&gt;&lt;/svg&gt;
日本学術振興会（科研費）
&lt;/span&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;div class="group flex gap-4 bg-gradient-to-br from-white/90 to-primary-50/30 dark:from-gray-800/90 dark:to-primary-900/20 rounded-xl p-5 shadow-md hover:shadow-xl transition-all duration-300 border border-transparent hover:border-primary-200 dark:hover:border-primary-800 backdrop-blur-md"&gt;
&lt;div class="flex-shrink-0 w-12 h-12 bg-white dark:bg-gray-800 ring-1 ring-gray-200 dark:ring-gray-700 rounded-full flex items-center justify-center shadow-sm"&gt;
&lt;svg class='w-6 h-6 text-primary-600 dark:text-primary-400' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M4.26 10.147a60 60 0 0 0-.491 6.347A48.6 48.6 0 0 1 12 20.904a48.6 48.6 0 0 1 8.232-4.41a61 61 0 0 0-.491-6.347m-15.482 0a51 51 0 0 0-2.658-.813A60 60 0 0 1 12 3.493a60 60 0 0 1 10.399 5.84q-1.345.372-2.658.814m-15.482 0A51 51 0 0 1 12 13.489a50.7 50.7 0 0 1 7.74-3.342M6.75 15a.75.75 0 1 0 0-1.5a.75.75 0 0 0 0 1.5m0 0v-3.675A55 55 0 0 1 12 8.443m-7.007 11.55A5.98 5.98 0 0 0 6.75 15.75v-1.5"/&gt;&lt;/svg&gt;
&lt;/div&gt;
&lt;div class="flex-1 min-w-0"&gt;
&lt;p class="text-base sm:text-lg font-bold text-gray-900 dark:text-white leading-snug m-0"&gt;
&lt;a href="https://kaken.nii.ac.jp/grant/KAKENHI-PROJECT-21H03783/" target="_blank" rel="noopener" class="no-underline hover:text-primary-600 dark:hover:text-primary-400 transition-colors"&gt;他者の動き情報に基づく乳児の学習メカニズムの解明とモデル化&lt;/a&gt;
&lt;/p&gt;
&lt;div class="flex flex-wrap items-center gap-2 mt-2"&gt;
&lt;span class="inline-flex items-center text-xs font-semibold px-2.5 py-1 rounded-full bg-primary-100 text-primary-800 dark:bg-primary-900/40 dark:text-primary-200"&gt;基盤研究(B)&lt;/span&gt;
&lt;span class="inline-flex items-center text-xs font-semibold px-2.5 py-1 rounded-full bg-sky-100 text-sky-800 dark:bg-sky-900/40 dark:text-sky-200"&gt;研究分担者&lt;/span&gt;
&lt;span class="inline-flex items-center text-xs font-mono px-2 py-0.5 rounded bg-gray-100 text-gray-700 dark:bg-gray-700 dark:text-gray-200"&gt;21H03783&lt;/span&gt;
&lt;/div&gt;
&lt;div class="flex flex-wrap gap-x-4 gap-y-1 text-sm text-gray-700 dark:text-gray-300 mt-2"&gt;
&lt;span class="inline-flex items-center gap-1"&gt;
&lt;svg class='w-4 h-4 opacity-70' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M6.75 3v2.25M17.25 3v2.25M3 18.75V7.5a2.25 2.25 0 0 1 2.25-2.25h13.5A2.25 2.25 0 0 1 21 7.5v11.25m-18 0A2.25 2.25 0 0 0 5.25 21h13.5A2.25 2.25 0 0 0 21 18.75m-18 0v-7.5A2.25 2.25 0 0 1 5.25 9h13.5A2.25 2.25 0 0 1 21 11.25v7.5"/&gt;&lt;/svg&gt;
2021年4月 – 2024年3月
&lt;/span&gt;
&lt;span class="inline-flex items-center gap-1"&gt;
&lt;svg class='w-4 h-4 opacity-70' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M15.75 6a3.75 3.75 0 1 1-7.5 0a3.75 3.75 0 0 1 7.5 0M4.501 20.118a7.5 7.5 0 0 1 14.998 0A17.9 17.9 0 0 1 12 21.75c-2.676 0-5.216-.584-7.499-1.632"/&gt;&lt;/svg&gt;
研究代表: 平井真洋（名古屋大学）
&lt;/span&gt;
&lt;span class="inline-flex items-center gap-1"&gt;
&lt;svg class='w-4 h-4 opacity-70' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M12 21v-8.25M15.75 21v-8.25M8.25 21v-8.25M3 9l9-6l9 6m-1.5 12V10.333A48.4 48.4 0 0 0 12 9.75c-2.551 0-5.056.2-7.5.582V21M3 21h18M12 6.75h.008v.008H12z"/&gt;&lt;/svg&gt;
日本学術振興会（科研費）
&lt;/span&gt;
&lt;/div&gt;
&lt;div class="mt-2 text-sm text-gray-600 dark:text-gray-400 prose prose-sm dark:prose-invert max-w-none"&gt;本プロジェクトの前駆研究（終了）&lt;/div&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;/section&gt;</description></item><item><title>自在CA制御技術の基盤研究開発（ムーンショット）</title><link>https://takato1414.github.io/projects/moonshot-cybernetic-avatar/</link><pubDate>Mon, 01 Jan 2024 00:00:00 +0000</pubDate><guid>https://takato1414.github.io/projects/moonshot-cybernetic-avatar/</guid><description>&lt;p&gt;内閣府ムーンショット型研究開発事業 目標1「
」の中で、サイバネティック・アバター（CA）が遠隔から自在に環境とインタラクションするための基盤技術の研究開発に取り組んでいます。AIによる自律化と人による遠隔操作をシームレスに統合する制御アーキテクチャの設計、社会実装に向けた検証を進めています。&lt;/p&gt;
&lt;p&gt;2024年1月の代表者変更により本課題を引き継ぎ、2025年12月からは継続課題（2030年11月まで）として研究を継続しています。詳細は
をご覧ください。&lt;/p&gt;
&lt;section class="not-prose my-10"&gt;
&lt;div class="flex items-center gap-3 mb-6"&gt;
&lt;div class="flex-shrink-0 w-10 h-10 bg-primary-100 dark:bg-primary-900/50 rounded-full flex items-center justify-center"&gt;
&lt;svg class='w-5 h-5 text-primary-600 dark:text-primary-400' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="m9 7.5l3 4.5m0 0l3-4.5M12 12v5.25M15 12H9m6 3H9m12-3a9 9 0 1 1-18 0a9 9 0 0 1 18 0"/&gt;&lt;/svg&gt;
&lt;/div&gt;
&lt;h3 class="text-xl sm:text-2xl font-bold text-gray-900 dark:text-white tracking-tight m-0"&gt;関連する研究費&lt;/h3&gt;
&lt;/div&gt;
&lt;div class="grid grid-cols-1 gap-4"&gt;
&lt;div class="group flex gap-4 bg-gradient-to-br from-white/90 to-primary-50/30 dark:from-gray-800/90 dark:to-primary-900/20 rounded-xl p-5 shadow-md hover:shadow-xl transition-all duration-300 border border-transparent hover:border-primary-200 dark:hover:border-primary-800 backdrop-blur-md"&gt;
&lt;div class="flex-shrink-0 w-12 h-12 bg-white dark:bg-gray-800 ring-1 ring-gray-200 dark:ring-gray-700 rounded-full flex items-center justify-center shadow-sm"&gt;
&lt;svg class='w-6 h-6 text-primary-600 dark:text-primary-400' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M15.59 14.37q.159.666.16 1.38a6 6 0 0 1-6 6v-4.8m5.84-2.58a14.98 14.98 0 0 0 6.16-12.12A14.98 14.98 0 0 0 9.631 8.41m5.96 5.96a14.9 14.9 0 0 1-5.841 2.58m-.119-8.54a6 6 0 0 0-7.381 5.84h4.8m2.581-5.84a14.9 14.9 0 0 0-2.58 5.84m2.699 2.7q-.155.032-.311.06a15 15 0 0 1-2.448-2.448l.06-.312m-2.24 2.39a4.49 4.49 0 0 0-1.757 4.306q.341.054.696.054a4.5 4.5 0 0 0 3.61-1.812M16.5 9a1.5 1.5 0 1 1-3 0a1.5 1.5 0 0 1 3 0"/&gt;&lt;/svg&gt;
&lt;/div&gt;
&lt;div class="flex-1 min-w-0"&gt;
&lt;p class="text-base sm:text-lg font-bold text-gray-900 dark:text-white leading-snug m-0"&gt;
&lt;a href="https://avatar-ss.org/activities/group04/index.html" target="_blank" rel="noopener" class="no-underline hover:text-primary-600 dark:hover:text-primary-400 transition-colors"&gt;自在CA制御技術の基盤研究開発&lt;/a&gt;
&lt;/p&gt;
&lt;div class="flex flex-wrap items-center gap-2 mt-2"&gt;
&lt;span class="inline-flex items-center text-xs font-semibold px-2.5 py-1 rounded-full bg-primary-100 text-primary-800 dark:bg-primary-900/40 dark:text-primary-200"&gt;ムーンショット型研究開発事業 目標1&lt;/span&gt;
&lt;span class="inline-flex items-center text-xs font-semibold px-2.5 py-1 rounded-full bg-emerald-100 text-emerald-800 dark:bg-emerald-900/40 dark:text-emerald-200"&gt;研究代表者&lt;/span&gt;
&lt;span class="inline-flex items-center text-xs font-mono px-2 py-0.5 rounded bg-gray-100 text-gray-700 dark:bg-gray-700 dark:text-gray-200"&gt;JPMJMS2011&lt;/span&gt;
&lt;/div&gt;
&lt;div class="flex flex-wrap gap-x-4 gap-y-1 text-sm text-gray-700 dark:text-gray-300 mt-2"&gt;
&lt;span class="inline-flex items-center gap-1"&gt;
&lt;svg class='w-4 h-4 opacity-70' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M6.75 3v2.25M17.25 3v2.25M3 18.75V7.5a2.25 2.25 0 0 1 2.25-2.25h13.5A2.25 2.25 0 0 1 21 7.5v11.25m-18 0A2.25 2.25 0 0 0 5.25 21h13.5A2.25 2.25 0 0 0 21 18.75m-18 0v-7.5A2.25 2.25 0 0 1 5.25 9h13.5A2.25 2.25 0 0 1 21 11.25v7.5"/&gt;&lt;/svg&gt;
2024年1月 – 2030年11月
&lt;/span&gt;
&lt;span class="inline-flex items-center gap-1"&gt;
&lt;svg class='w-4 h-4 opacity-70' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M12 21v-8.25M15.75 21v-8.25M8.25 21v-8.25M3 9l9-6l9 6m-1.5 12V10.333A48.4 48.4 0 0 0 12 9.75c-2.551 0-5.056.2-7.5.582V21M3 21h18M12 6.75h.008v.008H12z"/&gt;&lt;/svg&gt;
内閣府／JST
&lt;/span&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;/section&gt;</description></item><item><title>クオリア構造学 — 主観的意識体験を客観性へ橋渡しする</title><link>https://takato1414.github.io/projects/qualia-structure/</link><pubDate>Sat, 01 Apr 2023 00:00:00 +0000</pubDate><guid>https://takato1414.github.io/projects/qualia-structure/</guid><description>&lt;p&gt;「赤の赤らしさ」「痛みの痛みらしさ」のような主観的意識体験（クオリア）を、構造として捉え科学の俎上に載せる試みです。本領域では、心理物理・神経科学・情報理論・機械学習を結節点として、クオリアの「構造」を計測・記述・比較するための方法論を構築します。&lt;/p&gt;
&lt;p&gt;私たちは計画研究「クオリア構造と情報構造の対応」（研究代表: 大泉匡史）に参画し、深層生成モデルや表現学習の観点から、人の主観的体験の構造と神経活動・行動データに内在する情報構造との対応関係をモデル化することに取り組みます。とくに、自己教師あり学習で得られる潜在表現と、心理物理的に得られる類似性構造の整合性を定量的に検証し、ロボットや人工知能における「内的体験の構造」の構成論的理解に挑みます。&lt;/p&gt;
&lt;section class="not-prose my-10"&gt;
&lt;div class="flex items-center gap-3 mb-6"&gt;
&lt;div class="flex-shrink-0 w-10 h-10 bg-primary-100 dark:bg-primary-900/50 rounded-full flex items-center justify-center"&gt;
&lt;svg class='w-5 h-5 text-primary-600 dark:text-primary-400' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="m9 7.5l3 4.5m0 0l3-4.5M12 12v5.25M15 12H9m6 3H9m12-3a9 9 0 1 1-18 0a9 9 0 0 1 18 0"/&gt;&lt;/svg&gt;
&lt;/div&gt;
&lt;h3 class="text-xl sm:text-2xl font-bold text-gray-900 dark:text-white tracking-tight m-0"&gt;関連する研究費&lt;/h3&gt;
&lt;/div&gt;
&lt;div class="grid grid-cols-1 gap-4"&gt;
&lt;div class="group flex gap-4 bg-gradient-to-br from-white/90 to-primary-50/30 dark:from-gray-800/90 dark:to-primary-900/20 rounded-xl p-5 shadow-md hover:shadow-xl transition-all duration-300 border border-transparent hover:border-primary-200 dark:hover:border-primary-800 backdrop-blur-md"&gt;
&lt;div class="flex-shrink-0 w-12 h-12 bg-white dark:bg-gray-800 ring-1 ring-gray-200 dark:ring-gray-700 rounded-full flex items-center justify-center shadow-sm"&gt;
&lt;svg class='w-6 h-6 text-primary-600 dark:text-primary-400' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M4.26 10.147a60 60 0 0 0-.491 6.347A48.6 48.6 0 0 1 12 20.904a48.6 48.6 0 0 1 8.232-4.41a61 61 0 0 0-.491-6.347m-15.482 0a51 51 0 0 0-2.658-.813A60 60 0 0 1 12 3.493a60 60 0 0 1 10.399 5.84q-1.345.372-2.658.814m-15.482 0A51 51 0 0 1 12 13.489a50.7 50.7 0 0 1 7.74-3.342M6.75 15a.75.75 0 1 0 0-1.5a.75.75 0 0 0 0 1.5m0 0v-3.675A55 55 0 0 1 12 8.443m-7.007 11.55A5.98 5.98 0 0 0 6.75 15.75v-1.5"/&gt;&lt;/svg&gt;
&lt;/div&gt;
&lt;div class="flex-1 min-w-0"&gt;
&lt;p class="text-base sm:text-lg font-bold text-gray-900 dark:text-white leading-snug m-0"&gt;
&lt;a href="https://kaken.nii.ac.jp/ja/grant/KAKENHI-ORGANIZER-23H04829/" target="_blank" rel="noopener" class="no-underline hover:text-primary-600 dark:hover:text-primary-400 transition-colors"&gt;クオリア構造学：主観的意識体験を科学的客観性へと橋渡しする超分野融合領域の創成&lt;/a&gt;
&lt;/p&gt;
&lt;div class="flex flex-wrap items-center gap-2 mt-2"&gt;
&lt;span class="inline-flex items-center text-xs font-semibold px-2.5 py-1 rounded-full bg-primary-100 text-primary-800 dark:bg-primary-900/40 dark:text-primary-200"&gt;学術変革領域研究(A) 領域&lt;/span&gt;
&lt;span class="inline-flex items-center text-xs font-semibold px-2.5 py-1 rounded-full bg-sky-100 text-sky-800 dark:bg-sky-900/40 dark:text-sky-200"&gt;研究分担者&lt;/span&gt;
&lt;span class="inline-flex items-center text-xs font-mono px-2 py-0.5 rounded bg-gray-100 text-gray-700 dark:bg-gray-700 dark:text-gray-200"&gt;23H04829&lt;/span&gt;
&lt;/div&gt;
&lt;div class="flex flex-wrap gap-x-4 gap-y-1 text-sm text-gray-700 dark:text-gray-300 mt-2"&gt;
&lt;span class="inline-flex items-center gap-1"&gt;
&lt;svg class='w-4 h-4 opacity-70' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M6.75 3v2.25M17.25 3v2.25M3 18.75V7.5a2.25 2.25 0 0 1 2.25-2.25h13.5A2.25 2.25 0 0 1 21 7.5v11.25m-18 0A2.25 2.25 0 0 0 5.25 21h13.5A2.25 2.25 0 0 0 21 18.75m-18 0v-7.5A2.25 2.25 0 0 1 5.25 9h13.5A2.25 2.25 0 0 1 21 11.25v7.5"/&gt;&lt;/svg&gt;
2023年4月 – 2028年3月
&lt;/span&gt;
&lt;span class="inline-flex items-center gap-1"&gt;
&lt;svg class='w-4 h-4 opacity-70' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M15.75 6a3.75 3.75 0 1 1-7.5 0a3.75 3.75 0 0 1 7.5 0M4.501 20.118a7.5 7.5 0 0 1 14.998 0A17.9 17.9 0 0 1 12 21.75c-2.676 0-5.216-.584-7.499-1.632"/&gt;&lt;/svg&gt;
研究代表: 土谷尚嗣（モナシュ大学）
&lt;/span&gt;
&lt;span class="inline-flex items-center gap-1"&gt;
&lt;svg class='w-4 h-4 opacity-70' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M12 21v-8.25M15.75 21v-8.25M8.25 21v-8.25M3 9l9-6l9 6m-1.5 12V10.333A48.4 48.4 0 0 0 12 9.75c-2.551 0-5.056.2-7.5.582V21M3 21h18M12 6.75h.008v.008H12z"/&gt;&lt;/svg&gt;
日本学術振興会（科研費）
&lt;/span&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;div class="group flex gap-4 bg-gradient-to-br from-white/90 to-primary-50/30 dark:from-gray-800/90 dark:to-primary-900/20 rounded-xl p-5 shadow-md hover:shadow-xl transition-all duration-300 border border-transparent hover:border-primary-200 dark:hover:border-primary-800 backdrop-blur-md"&gt;
&lt;div class="flex-shrink-0 w-12 h-12 bg-white dark:bg-gray-800 ring-1 ring-gray-200 dark:ring-gray-700 rounded-full flex items-center justify-center shadow-sm"&gt;
&lt;svg class='w-6 h-6 text-primary-600 dark:text-primary-400' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M4.26 10.147a60 60 0 0 0-.491 6.347A48.6 48.6 0 0 1 12 20.904a48.6 48.6 0 0 1 8.232-4.41a61 61 0 0 0-.491-6.347m-15.482 0a51 51 0 0 0-2.658-.813A60 60 0 0 1 12 3.493a60 60 0 0 1 10.399 5.84q-1.345.372-2.658.814m-15.482 0A51 51 0 0 1 12 13.489a50.7 50.7 0 0 1 7.74-3.342M6.75 15a.75.75 0 1 0 0-1.5a.75.75 0 0 0 0 1.5m0 0v-3.675A55 55 0 0 1 12 8.443m-7.007 11.55A5.98 5.98 0 0 0 6.75 15.75v-1.5"/&gt;&lt;/svg&gt;
&lt;/div&gt;
&lt;div class="flex-1 min-w-0"&gt;
&lt;p class="text-base sm:text-lg font-bold text-gray-900 dark:text-white leading-snug m-0"&gt;
&lt;a href="https://kaken.nii.ac.jp/ja/grant/KAKENHI-PLANNED-23H04834/" target="_blank" rel="noopener" class="no-underline hover:text-primary-600 dark:hover:text-primary-400 transition-colors"&gt;クオリア構造と情報構造の対応&lt;/a&gt;
&lt;/p&gt;
&lt;div class="flex flex-wrap items-center gap-2 mt-2"&gt;
&lt;span class="inline-flex items-center text-xs font-semibold px-2.5 py-1 rounded-full bg-primary-100 text-primary-800 dark:bg-primary-900/40 dark:text-primary-200"&gt;学術変革領域研究(A) 計画&lt;/span&gt;
&lt;span class="inline-flex items-center text-xs font-semibold px-2.5 py-1 rounded-full bg-sky-100 text-sky-800 dark:bg-sky-900/40 dark:text-sky-200"&gt;研究分担者&lt;/span&gt;
&lt;span class="inline-flex items-center text-xs font-mono px-2 py-0.5 rounded bg-gray-100 text-gray-700 dark:bg-gray-700 dark:text-gray-200"&gt;23H04834&lt;/span&gt;
&lt;/div&gt;
&lt;div class="flex flex-wrap gap-x-4 gap-y-1 text-sm text-gray-700 dark:text-gray-300 mt-2"&gt;
&lt;span class="inline-flex items-center gap-1"&gt;
&lt;svg class='w-4 h-4 opacity-70' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M6.75 3v2.25M17.25 3v2.25M3 18.75V7.5a2.25 2.25 0 0 1 2.25-2.25h13.5A2.25 2.25 0 0 1 21 7.5v11.25m-18 0A2.25 2.25 0 0 0 5.25 21h13.5A2.25 2.25 0 0 0 21 18.75m-18 0v-7.5A2.25 2.25 0 0 1 5.25 9h13.5A2.25 2.25 0 0 1 21 11.25v7.5"/&gt;&lt;/svg&gt;
2023年4月 – 2028年3月
&lt;/span&gt;
&lt;span class="inline-flex items-center gap-1"&gt;
&lt;svg class='w-4 h-4 opacity-70' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M15.75 6a3.75 3.75 0 1 1-7.5 0a3.75 3.75 0 0 1 7.5 0M4.501 20.118a7.5 7.5 0 0 1 14.998 0A17.9 17.9 0 0 1 12 21.75c-2.676 0-5.216-.584-7.499-1.632"/&gt;&lt;/svg&gt;
研究代表: 大泉匡史（東京大学）
&lt;/span&gt;
&lt;span class="inline-flex items-center gap-1"&gt;
&lt;svg class='w-4 h-4 opacity-70' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M12 21v-8.25M15.75 21v-8.25M8.25 21v-8.25M3 9l9-6l9 6m-1.5 12V10.333A48.4 48.4 0 0 0 12 9.75c-2.551 0-5.056.2-7.5.582V21M3 21h18M12 6.75h.008v.008H12z"/&gt;&lt;/svg&gt;
日本学術振興会（科研費）
&lt;/span&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;/section&gt;</description></item><item><title>音楽の身体知 — バイオフィードバックによる「感動」の強化</title><link>https://takato1414.github.io/projects/music-embodiment/</link><pubDate>Sat, 01 Oct 2022 00:00:00 +0000</pubDate><guid>https://takato1414.github.io/projects/music-embodiment/</guid><description>&lt;p&gt;音楽がもたらす「感動」や「鳥肌が立つ」体験（chills）は、聴き手の生理的・身体的反応と密接に結びついています。本プロジェクトでは、心拍・皮膚電気活動・呼吸などの生体信号を実時間で計測し、その変化を音楽演奏や楽曲生成にフィードバックする、新しい体験設計の枠組みを国際共同で構築します。&lt;/p&gt;
&lt;p&gt;私たちは、能動的推論や予測符号化の観点から、感動体験における期待・予測誤差・身体反応の循環をモデル化し、ロボット・AI 演奏者と聴き手の身体性を媒介とした双方向インタラクションの設計に貢献します。&lt;/p&gt;
&lt;section class="not-prose my-10"&gt;
&lt;div class="flex items-center gap-3 mb-6"&gt;
&lt;div class="flex-shrink-0 w-10 h-10 bg-primary-100 dark:bg-primary-900/50 rounded-full flex items-center justify-center"&gt;
&lt;svg class='w-5 h-5 text-primary-600 dark:text-primary-400' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="m9 7.5l3 4.5m0 0l3-4.5M12 12v5.25M15 12H9m6 3H9m12-3a9 9 0 1 1-18 0a9 9 0 0 1 18 0"/&gt;&lt;/svg&gt;
&lt;/div&gt;
&lt;h3 class="text-xl sm:text-2xl font-bold text-gray-900 dark:text-white tracking-tight m-0"&gt;関連する研究費&lt;/h3&gt;
&lt;/div&gt;
&lt;div class="grid grid-cols-1 gap-4"&gt;
&lt;div class="group flex gap-4 bg-gradient-to-br from-white/90 to-primary-50/30 dark:from-gray-800/90 dark:to-primary-900/20 rounded-xl p-5 shadow-md hover:shadow-xl transition-all duration-300 border border-transparent hover:border-primary-200 dark:hover:border-primary-800 backdrop-blur-md"&gt;
&lt;div class="flex-shrink-0 w-12 h-12 bg-white dark:bg-gray-800 ring-1 ring-gray-200 dark:ring-gray-700 rounded-full flex items-center justify-center shadow-sm"&gt;
&lt;svg class='w-6 h-6 text-primary-600 dark:text-primary-400' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M4.26 10.147a60 60 0 0 0-.491 6.347A48.6 48.6 0 0 1 12 20.904a48.6 48.6 0 0 1 8.232-4.41a61 61 0 0 0-.491-6.347m-15.482 0a51 51 0 0 0-2.658-.813A60 60 0 0 1 12 3.493a60 60 0 0 1 10.399 5.84q-1.345.372-2.658.814m-15.482 0A51 51 0 0 1 12 13.489a50.7 50.7 0 0 1 7.74-3.342M6.75 15a.75.75 0 1 0 0-1.5a.75.75 0 0 0 0 1.5m0 0v-3.675A55 55 0 0 1 12 8.443m-7.007 11.55A5.98 5.98 0 0 0 6.75 15.75v-1.5"/&gt;&lt;/svg&gt;
&lt;/div&gt;
&lt;div class="flex-1 min-w-0"&gt;
&lt;p class="text-base sm:text-lg font-bold text-gray-900 dark:text-white leading-snug m-0"&gt;
&lt;a href="https://kaken.nii.ac.jp/grant/KAKENHI-PROJECT-22KK0157/" target="_blank" rel="noopener" class="no-underline hover:text-primary-600 dark:hover:text-primary-400 transition-colors"&gt;音楽の身体知：音楽の「感動」を強化するバイオフィードバックシステムの開発&lt;/a&gt;
&lt;/p&gt;
&lt;div class="flex flex-wrap items-center gap-2 mt-2"&gt;
&lt;span class="inline-flex items-center text-xs font-semibold px-2.5 py-1 rounded-full bg-primary-100 text-primary-800 dark:bg-primary-900/40 dark:text-primary-200"&gt;国際共同研究強化(B)&lt;/span&gt;
&lt;span class="inline-flex items-center text-xs font-semibold px-2.5 py-1 rounded-full bg-sky-100 text-sky-800 dark:bg-sky-900/40 dark:text-sky-200"&gt;研究分担者&lt;/span&gt;
&lt;span class="inline-flex items-center text-xs font-mono px-2 py-0.5 rounded bg-gray-100 text-gray-700 dark:bg-gray-700 dark:text-gray-200"&gt;22KK0157&lt;/span&gt;
&lt;/div&gt;
&lt;div class="flex flex-wrap gap-x-4 gap-y-1 text-sm text-gray-700 dark:text-gray-300 mt-2"&gt;
&lt;span class="inline-flex items-center gap-1"&gt;
&lt;svg class='w-4 h-4 opacity-70' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M6.75 3v2.25M17.25 3v2.25M3 18.75V7.5a2.25 2.25 0 0 1 2.25-2.25h13.5A2.25 2.25 0 0 1 21 7.5v11.25m-18 0A2.25 2.25 0 0 0 5.25 21h13.5A2.25 2.25 0 0 0 21 18.75m-18 0v-7.5A2.25 2.25 0 0 1 5.25 9h13.5A2.25 2.25 0 0 1 21 11.25v7.5"/&gt;&lt;/svg&gt;
2022年10月 – 2026年3月
&lt;/span&gt;
&lt;span class="inline-flex items-center gap-1"&gt;
&lt;svg class='w-4 h-4 opacity-70' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M15.75 6a3.75 3.75 0 1 1-7.5 0a3.75 3.75 0 0 1 7.5 0M4.501 20.118a7.5 7.5 0 0 1 14.998 0A17.9 17.9 0 0 1 12 21.75c-2.676 0-5.216-.584-7.499-1.632"/&gt;&lt;/svg&gt;
研究代表: 大黒達也（東京大学）
&lt;/span&gt;
&lt;span class="inline-flex items-center gap-1"&gt;
&lt;svg class='w-4 h-4 opacity-70' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M12 21v-8.25M15.75 21v-8.25M8.25 21v-8.25M3 9l9-6l9 6m-1.5 12V10.333A48.4 48.4 0 0 0 12 9.75c-2.551 0-5.056.2-7.5.582V21M3 21h18M12 6.75h.008v.008H12z"/&gt;&lt;/svg&gt;
日本学術振興会（科研費）
&lt;/span&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;/section&gt;</description></item><item><title>インソールセンサと足底情報ビッグデータで切り開く足底科学</title><link>https://takato1414.github.io/projects/foot-bigdata/</link><pubDate>Fri, 01 Apr 2022 00:00:00 +0000</pubDate><guid>https://takato1414.github.io/projects/foot-bigdata/</guid><description>&lt;p&gt;立つ・歩く・走るといった日常動作は、すべて足底を介して地面と接続されています。本プロジェクトでは、装着性に優れたインソールセンサを開発し、長期にわたる個人足底情報を大規模に蓄積することで、運動・健康・スキルに関する新たな科学的基盤の構築を目指します。&lt;/p&gt;
&lt;p&gt;私たちは、収集された足底時系列データに対する機械学習・深層学習モデルの設計と、運動スキルや身体状態の自動推定アルゴリズムの開発に貢献します。これにより、運動学習支援やヒューマンモーションの計算論的理解、ロボティクスにおける運動制御モデルへの展開を図ります。&lt;/p&gt;
&lt;section class="not-prose my-10"&gt;
&lt;div class="flex items-center gap-3 mb-6"&gt;
&lt;div class="flex-shrink-0 w-10 h-10 bg-primary-100 dark:bg-primary-900/50 rounded-full flex items-center justify-center"&gt;
&lt;svg class='w-5 h-5 text-primary-600 dark:text-primary-400' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="m9 7.5l3 4.5m0 0l3-4.5M12 12v5.25M15 12H9m6 3H9m12-3a9 9 0 1 1-18 0a9 9 0 0 1 18 0"/&gt;&lt;/svg&gt;
&lt;/div&gt;
&lt;h3 class="text-xl sm:text-2xl font-bold text-gray-900 dark:text-white tracking-tight m-0"&gt;関連する研究費&lt;/h3&gt;
&lt;/div&gt;
&lt;div class="grid grid-cols-1 gap-4"&gt;
&lt;div class="group flex gap-4 bg-gradient-to-br from-white/90 to-primary-50/30 dark:from-gray-800/90 dark:to-primary-900/20 rounded-xl p-5 shadow-md hover:shadow-xl transition-all duration-300 border border-transparent hover:border-primary-200 dark:hover:border-primary-800 backdrop-blur-md"&gt;
&lt;div class="flex-shrink-0 w-12 h-12 bg-white dark:bg-gray-800 ring-1 ring-gray-200 dark:ring-gray-700 rounded-full flex items-center justify-center shadow-sm"&gt;
&lt;svg class='w-6 h-6 text-primary-600 dark:text-primary-400' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M4.26 10.147a60 60 0 0 0-.491 6.347A48.6 48.6 0 0 1 12 20.904a48.6 48.6 0 0 1 8.232-4.41a61 61 0 0 0-.491-6.347m-15.482 0a51 51 0 0 0-2.658-.813A60 60 0 0 1 12 3.493a60 60 0 0 1 10.399 5.84q-1.345.372-2.658.814m-15.482 0A51 51 0 0 1 12 13.489a50.7 50.7 0 0 1 7.74-3.342M6.75 15a.75.75 0 1 0 0-1.5a.75.75 0 0 0 0 1.5m0 0v-3.675A55 55 0 0 1 12 8.443m-7.007 11.55A5.98 5.98 0 0 0 6.75 15.75v-1.5"/&gt;&lt;/svg&gt;
&lt;/div&gt;
&lt;div class="flex-1 min-w-0"&gt;
&lt;p class="text-base sm:text-lg font-bold text-gray-900 dark:text-white leading-snug m-0"&gt;
&lt;a href="https://kaken.nii.ac.jp/grant/KAKENHI-PROJECT-22H00537/" target="_blank" rel="noopener" class="no-underline hover:text-primary-600 dark:hover:text-primary-400 transition-colors"&gt;インソールセンサ開発と個人足底情報ビッグデータ構築で切り開く足底科学&lt;/a&gt;
&lt;/p&gt;
&lt;div class="flex flex-wrap items-center gap-2 mt-2"&gt;
&lt;span class="inline-flex items-center text-xs font-semibold px-2.5 py-1 rounded-full bg-primary-100 text-primary-800 dark:bg-primary-900/40 dark:text-primary-200"&gt;基盤研究(A)&lt;/span&gt;
&lt;span class="inline-flex items-center text-xs font-semibold px-2.5 py-1 rounded-full bg-sky-100 text-sky-800 dark:bg-sky-900/40 dark:text-sky-200"&gt;研究分担者&lt;/span&gt;
&lt;span class="inline-flex items-center text-xs font-mono px-2 py-0.5 rounded bg-gray-100 text-gray-700 dark:bg-gray-700 dark:text-gray-200"&gt;22H00537&lt;/span&gt;
&lt;/div&gt;
&lt;div class="flex flex-wrap gap-x-4 gap-y-1 text-sm text-gray-700 dark:text-gray-300 mt-2"&gt;
&lt;span class="inline-flex items-center gap-1"&gt;
&lt;svg class='w-4 h-4 opacity-70' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M6.75 3v2.25M17.25 3v2.25M3 18.75V7.5a2.25 2.25 0 0 1 2.25-2.25h13.5A2.25 2.25 0 0 1 21 7.5v11.25m-18 0A2.25 2.25 0 0 0 5.25 21h13.5A2.25 2.25 0 0 0 21 18.75m-18 0v-7.5A2.25 2.25 0 0 1 5.25 9h13.5A2.25 2.25 0 0 1 21 11.25v7.5"/&gt;&lt;/svg&gt;
2022年4月 – 2027年3月
&lt;/span&gt;
&lt;span class="inline-flex items-center gap-1"&gt;
&lt;svg class='w-4 h-4 opacity-70' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M15.75 6a3.75 3.75 0 1 1-7.5 0a3.75 3.75 0 0 1 7.5 0M4.501 20.118a7.5 7.5 0 0 1 14.998 0A17.9 17.9 0 0 1 12 21.75c-2.676 0-5.216-.584-7.499-1.632"/&gt;&lt;/svg&gt;
研究代表: 川節拓実（大阪大学）
&lt;/span&gt;
&lt;span class="inline-flex items-center gap-1"&gt;
&lt;svg class='w-4 h-4 opacity-70' xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24"&gt;&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M12 21v-8.25M15.75 21v-8.25M8.25 21v-8.25M3 9l9-6l9 6m-1.5 12V10.333A48.4 48.4 0 0 0 12 9.75c-2.551 0-5.056.2-7.5.582V21M3 21h18M12 6.75h.008v.008H12z"/&gt;&lt;/svg&gt;
日本学術振興会（科研費）
&lt;/span&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;/section&gt;</description></item></channel></rss>