BEGIN:VCALENDAR
VERSION:2.0
X-WR-CALNAME:adcjapan26
X-WR-CALDESC:Event Calendar
METHOD:PUBLISH
CALSCALE:GREGORIAN
PRODID:-//Sched.com ADC Japan 2026//EN
X-WR-TIMEZONE:UTC
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260531T223000Z
DTEND:20260531T234500Z
SUMMARY:Registration / 登録
DESCRIPTION:\n
CATEGORIES:GENERAL / 一般的な
LOCATION:Akiba Square\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:68ef80079e0f4d875d20eb7d7d2b3e83
URL:http://adcjapan26.sched.com/event/68ef80079e0f4d875d20eb7d7d2b3e83
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260531T234500Z
DTEND:20260601T001500Z
SUMMARY:Welcome Address / 歓迎の挨拶
DESCRIPTION:\n
CATEGORIES:ANNOUNCEMENT / 発表
LOCATION:Akiba Square\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:c66c642e0cdffe0007ea0524bbabe1bc
URL:http://adcjapan26.sched.com/event/c66c642e0cdffe0007ea0524bbabe1bc
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260601T003000Z
DTEND:20260601T033000Z
SUMMARY:Hackathon Morning Session / ハッカソン午前の部
DESCRIPTION:\n
CATEGORIES:HACKATHON / ハッカソン
LOCATION:Next 1\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:9fb2054e5a8d10d4a27bc100ca4a15b5
URL:http://adcjapan26.sched.com/event/9fb2054e5a8d10d4a27bc100ca4a15b5
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260601T003000Z
DTEND:20260601T033000Z
SUMMARY:Morning Workshop A / 午前のワークショップA
DESCRIPTION:\n
CATEGORIES:WORKSHOP / ワークショップ
LOCATION:Next 2\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:18964c0e5cdefef82cadffac482ec64e
URL:http://adcjapan26.sched.com/event/18964c0e5cdefef82cadffac482ec64e
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260601T003000Z
DTEND:20260601T033000Z
SUMMARY:Morning Workshop B / 午前のワークショップB
DESCRIPTION:\n
CATEGORIES:WORKSHOP / ワークショップ
LOCATION:Conference Room\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:2b171ce17a4c8b9fbe4128d0ac735552
URL:http://adcjapan26.sched.com/event/2b171ce17a4c8b9fbe4128d0ac735552
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260601T030000Z
DTEND:20260601T033000Z
SUMMARY:Speaker Onboarding
DESCRIPTION:Session Description
CATEGORIES:GENERAL / 一般的な
LOCATION:Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:cb689224737f87825960b133aa5441f4
URL:http://adcjapan26.sched.com/event/cb689224737f87825960b133aa5441f4
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260601T033000Z
DTEND:20260601T050000Z
SUMMARY:Lunch & Networking / ランチとネットワーキング
DESCRIPTION:\n
CATEGORIES:GENERAL / 一般的な
LOCATION:Akiba Square\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:8a712b4ae734225971e5a5187901f42c
URL:http://adcjapan26.sched.com/event/8a712b4ae734225971e5a5187901f42c
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260601T050000Z
DTEND:20260601T080000Z
SUMMARY:Hackathon Afternoon Session / ハッカソン午後のセッション
DESCRIPTION:\n
CATEGORIES:HACKATHON / ハッカソン
LOCATION:Next 1\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:a3d6e775589a2ce8fb65a336915fa9df
URL:http://adcjapan26.sched.com/event/a3d6e775589a2ce8fb65a336915fa9df
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260601T050000Z
DTEND:20260601T080000Z
SUMMARY:Afternoon Workshop C / 午後のワークショップC
DESCRIPTION:\n
CATEGORIES:WORKSHOP / ワークショップ
LOCATION:Next 2\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:2d883123abe62f224b72a35deacb7d01
URL:http://adcjapan26.sched.com/event/2d883123abe62f224b72a35deacb7d01
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260601T050000Z
DTEND:20260601T080000Z
SUMMARY:[Workshop] Experiencing Neural Audio with LYDIA/LYDIAを使ったNeural Audioの体験
DESCRIPTION:AI effect technology\, Project LYDIA\, developed through joint research by Roland and Neutone. This is a three-hour workshop to get "hands-on" with neural audio.\n\nWorkshop content\n・Lecture on timbre transfer technology using machine learning (Understanding Variational Autoencoder in real-time audio applications)\n・Hands-on practical sound creation using Project LYDIA using your own pre-created model\, Connect Roland's instruments to LYDIA and experience Neural Audio (group work) \n\n*Support by Roland and Neutone development members\n*Participants will be asked to prepare 1~2 hours of audio data (data for AI model training) in advance. The training data is limited to audio data recorded by each participant and not the work of others. (e.g.\, instruments played by the participant\, voices obtained with consent\, recorded ambient sounds\, etc can be used.) Before the workshop\, we will conduct a pre-seminar to select and edit the training data.\nEvent Overview\n■Time: 3 hours (planned)\n■Language: English (*Support by Japanese staff is also planned)\n■Target:\n・Students and creators in the field of musical instruments and music technology\n・Students\, developers\, and researchers interested in Neural Audio /machine learning\n■Capacity: 12 people (lottery will be held if there are many applications)\n■What you need to participate:\n・Smartphone (iPhone/Android) (what you can bring to the workshop)\n・Headphones\n・DAW and/or audio editing software\, audio recording equipment\n・Ticket to participate in ADC JAPAN 2026\n■How to apply for the workshop\nAfter purchasing your ADC ticket\, click the circle in the title of this workshop details page to add it to My Schedule. \nApplication deadline: 5/15 (Fri) 12 noon. (Even before the deadline\, the Application will be closed as soon as the capacity is reached)\n\n[Added Info]\nWe have prepared a seminar video that explains the procedure\, so please watch it.\n\nVideo URL:\nhttps://youtu.be/70mGR9FhswY\n\n*The training data is limited to audio data recorded by each participant and not the work of others. (e.g.\, instruments played by the participant\, voices obtained with consent\, recorded ambient sounds\, etc can be used.)\n*The data submission deadline is changed from May 18 to May 20.\n*For Q&A\, please join the Neutone Discord:&nbsp\;https://discord.com/invite/r6WwYCvJTS \n*You will need to create a Neutone account with the following procedures to train your own model:\n&nbsp\; &nbsp\;1. Create your own Neutone accounts at https://neutone.ai/&nbsp\; by clicking "Menu -&gt\; Sign Up"\n&nbsp\; &nbsp\;2. Send an email to contact@neutone.ai with the title 'ADC Japan 2026 Tokyo LYDIA' using the same email address you used to create your Neutone account\n\n&nbsp\;Experience Roland and Neutone's vision of where Neural Audio is today and the future that Project LYDIA is carving out.\nローランドとNeutone社の共同研究によるAIを活用したAIエフェクト技術「Project LYDIA」のプロトタイプを使った、Neural Audioを“実際に体験する”3時間のワークショップです。\n\nワークショップの内容\n・機械学習による音声変換技術の解説講座（Understanding Variational Autoencoder and Timbre Transfer）\n・事前に作成した自分専用のモデルを使って、Project LYDIAを用いたハンズオン形式の実践的な音作り、LYDIAにRolandの楽器をつないでNeural Audioを体験(グループワーク)\n\n※Roland、Neutone開発メンバーによるサポート\n※事前に参加者に1～2時間分のオーディオデータ(AIモデル学習用のデータ)を準備頂きます。学習データは、他者の著作物ではない、参加者自身で録音したオーディオデータに限ります(ご自身で演奏した楽器、使用許諾を得た声、録音した環境音など)。ワークショップの前に学習データの選別や編集を行うための事前セミナーを実施させて頂きます。\n開催概要\n■時間：3時間（予定）\n■言語：英語（※日本語スタッフによるサポートも予定）\n■対象：\n・楽器・音楽テクノロジー分野の学生／クリエイター\n・Neural Audio／機械学習に興味のある学生、開発者、研究者\n■定員：12名 （応募多数の場合は抽選）\n■参加に必要なもの：\n・スマートフォン(iPhone/Android)（ワークショップに持参できるもの）\n・ヘッドホン\n・DAWやAudio編集ソフトウェア、オーディオ録音機材\n・ADC JAPAN 2026への参加チケット\n■ワークショップ応募方法\nADC参加チケット購入後、このワークショップ詳細ページのタイトルに表示されている〇をクリックして、My Scheduleに追加してください。\n応募締め切り日：5/15(金) 午前12時（締め切り日以前であっても定員に達し次第締め切りとさせていただきます）\n\n【追加情報 】\nセミナービデオをご用意しましたので、ご視聴ください。\n動画URL：https://youtu.be/70mGR9FhswY\n\n※英語のコンテンツになります。必要に応じてccで日本語字幕を表示するなどしてください。\n※学習データは、他者の著作物ではない、参加者自身で録音したオーディオデータに限ります(ご自身で演奏した楽器、使用許諾を得た声、録音した環境音など)。\n※データの提出期限は5/18から5/20に変更になりました。\n※Q&AはNeutone Discordまで: https://discord.com/invite/r6WwYCvJTS \n※専用のモデルを訓練するためには、以下の手順でNeutoneアカウントを作成する必要があります：\n　1. Neutoneページ(https://neutone.ai/ )で "Menu" をクリックして " Sign Up"をクリックし、アカウントを作成します\n　2. Neutoneアカウント作成したら、アカウント作成時のあなたのメールアドレスから、contact@neutone.ai宛てにメールを送ってください。その際メールのタイトルは 'ADC Japan 2026 Tokyo LYDIA'としてください\n\n\nRolandとNeutoneが考えるNeural Audioの現在地と、Project LYDIAが切り拓く未来を、ぜひ体感してください。
CATEGORIES:WORKSHOP / ワークショップ
LOCATION:Conference Room\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:c8fbf406962ebad633ecfdaaab21d26e
URL:http://adcjapan26.sched.com/event/c8fbf406962ebad633ecfdaaab21d26e
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260601T080000Z
DTEND:20260601T090000Z
SUMMARY:Hackathon Results / ハッカソンの結果
DESCRIPTION:\n
CATEGORIES:ANNOUNCEMENT / 発表
LOCATION:Akiba Square\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:baa024477ecb6ab0462b8d929f8a6b0e
URL:http://adcjapan26.sched.com/event/baa024477ecb6ab0462b8d929f8a6b0e
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260601T090000Z
DTEND:20260601T100000Z
SUMMARY:Networking / ネットワーキング
DESCRIPTION:\n
CATEGORIES:GENERAL / 一般的な
LOCATION:Akiba Square\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:2ea0dfdecb6f099d3478fe315a67a389
URL:http://adcjapan26.sched.com/event/2ea0dfdecb6f099d3478fe315a67a389
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260601T223000Z
DTEND:20260602T000000Z
SUMMARY:Registration / 登録
DESCRIPTION:\n
CATEGORIES:GENERAL / 一般的な
LOCATION:Akiba Square\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:41272c476300f11471ddcfa914bc3a03
URL:http://adcjapan26.sched.com/event/41272c476300f11471ddcfa914bc3a03
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260602T000000Z
DTEND:20260602T090000Z
SUMMARY:Sponsor Exhibits / 協賛展示品
DESCRIPTION:\n
CATEGORIES:GENERAL / 一般的な
LOCATION:Akiba Square\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:8caad74799c78e3c06d06a6506cbde06
URL:http://adcjapan26.sched.com/event/8caad74799c78e3c06d06a6506cbde06
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260602T000000Z
DTEND:20260602T010000Z
SUMMARY:Designing Interactive Music Experiences in XR / XRにおけるインタラクティブ音楽体験のデザイン
DESCRIPTION:(m)ORPH began as an experiment to disrupt traditional DAW-based stereo mixing and evolved into an XR platform for interactive music\, immersive spatial-audio listening\, and live performance. Using Unity\, Wwise\, HRTF rendering\, and physics-driven behaviors\, the system treats audio objects as spatial entities whose distance\, motion\, and interaction shape both mix and composition in real time. This session examines the architectural decisions\, technical implementation\, gestural interface design\, and intentional abstraction that enable emergent behavior and “musical happy accidents.” Attendees will gain insight into designing interactive audio systems that function as instruments rather than playback engines\, and inspire a new breed of music lovers who want to actively engage rather than passively consume.\n \n (m)ORPHは従来のDAWベースのステレオミキシングを破壊するための実験として始まり、インタラクティブな音楽探索、没入型空間オーディオリスニング、ライブパフォーマンスのためのXRプラットフォームへと進化しました。Unity、Wwise、HRTF レンダリング、物理駆動動作を使用して、このシステムはオーディオオブジェクトを空間的なエンティティとして扱い、その距離、動き、相互作用がリアルタイムでミックスと構成の両方を形成します。このセッションでは、アーキテクチャ上の決定、技術的実装、ジェスチャーインターフェース設計、創発的動作と「音楽的な幸運な偶然」を可能にする意図的な抽象化を検討します。参加者は、再生エンジンではなく楽器として機能するインタラクティブなオーディオシステムの設計について洞察を得ることができ、積極的に関わりたい新しいタイプの音楽愛好家にインスピレーションを与えます。
CATEGORIES:TALK (ENGLISH) / トーク（英語）
LOCATION:Next 2\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:3384169a55d1b14621f0f548a06bb5ec
URL:http://adcjapan26.sched.com/event/3384169a55d1b14621f0f548a06bb5ec
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260602T000000Z
DTEND:20260602T010000Z
SUMMARY:Distribution Strategies for Indie Audio Developers - From Plugin to Product / インディーオーディオ開発者のための配布戦略 - プラグインから製品へ
DESCRIPTION:Building a great-sounding audio plugin is no longer enough to ensure real-world adoption. In today’s highly saturated plugin market\, distribution has become the missing layer between development and sustainability. Many technically strong plugins remain invisible simply because developers do not have a clear distribution strategy. How do musicians actually discover plugins today? Which channels are worth investing time and energy into\, and which ones look promising but rarely lead to real adoption?\n \n In this talk\, I will approach distribution not as marketing\, but as a product design and infrastructure problem. I will share real-world experience from running my a boutique audio plugin company and walk through the decisions behind building visibility\, discoverability\, and long-term viability. I will show how distribution choices influence product design\, onboarding\, and communication\, and why these decisions should not be treated as post-launch tasks. The session focuses on practical examples\, measurable outcomes\, and clear prioritization rather than hype or short-term tactics. By the end of the talk\, attendees will have a clearer mental model of how distribution fits into the audio plugin lifecycle\, and how to approach it in a focused and sustainable way without losing sight of development.\n \n Topics covered\n - Distribution vs marketing and why the distinction matters for developers\n - How musicians discover and evaluate audio plugins today\n - Direct sales\, platforms\, resellers\, creators\, and affiliate ecosystems\n - Distribution as a product constraint\, designing plugins that are easier to explain\, demo\, and adopt\n - Email\, content\, and partnerships as part of onboarding\, not post-launch add-ons\n Common distribution mistakes indie developers make and how to avoid them\n \n 素晴らしいサウンドのオーディオプラグインを開発することだけでは、実際の採用を保証するには十分ではなくなりました。今日の飽和状態にあるプラグイン市場では、ディストリビューションが開発と持続可能性の間の欠落したレイヤーになっています。技術的に優れた多くのプラグインは、開発者が明確なディストリビューション戦略を持っていないという理由だけで見えないままになっています。ミュージシャンは実際に今日どのようにプラグインを発見するのでしょうか？どのチャネルに時間とエネルギーを投資する価値があり、どのチャネルは有望に見えますが実際の採用につながることはめったにないのでしょうか？\n \n このセッションでは、ディストリビューションをマーケティングではなく、プロダクトデザインとインフラストラクチャの問題として扱います。私のブティック型オーディオプラグイン企業の運営から得た実世界の経験を共有し、可視性、発見可能性、長期的な実行可能性を構築するための決定について説明します。ディストリビューション選択がプロダクトデザイン、オンボーディング、コミュニケーションにどのような影響を与えるのか、そしてなぜこれらの決定をローンチ後のタスクとして扱うべきではないのかを示します。このセッションは、実践的な例、測定可能な成果、明確な優先順位付けに焦点を当てており、ハイプや短期的な戦術ではありません。このセッションの終わりに、参加者はディストリビューションがオーディオプラグインのライフサイクルにどのように適合するかについて、より明確なメンタルモデルを持つようになり、開発を見失うことなく焦点を絞った持続可能な方法でそれにアプローチする方法を理解するでしょう。\n \n カバーするトピック\n - ディストリビューションとマーケティングの違い、および開発者にとってなぜその区別が重要なのか\n - 今日ミュージシャンがオーディオプラグインをどのように発見および評価するか\n - 直販、プラットフォーム、リセラー、クリエイター、アフィリエイトエコシステム\n - プロダクト制約としてのディストリビューション、説明、デモンストレーション、採用がしやすいプラグインの設計\n - メール、コンテンツ、パートナーシップをローンチ後のアドオンではなく、オンボーディングの一部として\n インディー開発者が犯す一般的なディストリビューション上の誤りと、それを回避する方法
CATEGORIES:TALK (ENGLISH) / トーク（英語）
LOCATION:Next 3\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:2d84e6351ea8cebba966d75facb86587
URL:http://adcjapan26.sched.com/event/2d84e6351ea8cebba966d75facb86587
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260602T000000Z
DTEND:20260602T010000Z
SUMMARY:Hardware DSP Asset Inheritance and Evolution: Development of DSP Assembly Automatic Conversion Software for MONTAGE M Compatible Software Synthesizers / ハードウェアDSP資産の継承と進化：MONTAGE M互換ソフトシンセにおけるDSPアセンブリ自動変換ソフト開発
DESCRIPTION:For many companies\, legacy code is an important technical asset\, yet it often presents challenges in terms of future maintainability and development efficiency. In Yamaha's effect processing for electronic musical instruments\, which has been developed over many years\, highly optimized DSP assembly for dedicated DSPs is used. While these are important elements supporting high competitiveness\, they have also become major barriers to platform expansion and software implementation.\n \n ESP\, released in 2024 (https://jp.yamaha.com/products/music_production/apps/esp_montagem/index.html)\, reproduces the signal processing of MONTAGE M (a hardware synthesizer) in software. During ESP's development\, the effects section required a mechanism to reliably convert DSP assembly to C++. To address this\, we developed software that automatically converts DSP assembly to C++ code. This software not only significantly improved the porting efficiency of existing DSP assembly\, but also enabled stable support for new DSP assembly to be added in the future.\n \n In this presentation\, we will share the "challenges and concerns" encountered during the development of DSP assembly → C++ automatic conversion software\, as well as "insights gained after completion." We look forward to sharing technical perspectives with engineers facing similar challenges and discussing better development approaches.\n \n The issues and processes covered in this presentation extend beyond the DSP domain to areas such as "legacy asset succession\," "optimized code migration\," and "approaches and points of focus when implementing automation tools\," with the aim of providing practical insights that you can take back to your work.\n \n 多くの企業にとってレガシーコードは重要な技術資産である一方、将来的な保守性や開発効率の面で課題を抱えることも少なくありません。ヤマハが長年にわたり開発してきた電子楽器向けエフェクト処理においても、専用DSP向けに高度に最適化されたDSPアセンブリが用いられています。これらは高い競争力を支える重要な要素である一方、他プラットフォーム展開やソフトウェア化を進める上で大きな障壁にもなっていました。\n \n 2024年にリリースされた ESP(https://jp.yamaha.com/products/music_production/apps/esp_montagem/index.html) では、MONTAGE M（ハードウェアシンセサイザー）の信号処理をソフトウェア上で再現しています。ESP の開発に際し、エフェクト部では DSP アセンブリを安定的に c++ へ変換する仕組みが必要となりました。そこで私たちは、DSPアセンブリを c++ コードに自動変換するソフトウェアを開発しました。このソフトウェアにより、既存DSPアセンブリの移植効率が大幅に向上しただけでなく、今後追加される新規DSPアセンブリにも安定的に対応できるようになりました。\n \n 本発表では、DSPアセンブリ → c++ 自動変換ソフトウェア開発上の「苦労・悩み」と「完成後に得た気づき」を共有します。同様の課題に直面するエンジニアの皆さまと技術的視点を共有し、より良い開発方法を議論できることを楽しみにしています。\n \n 本発表で扱う課題とプロセスは、DSP領域に留まらず「レガシー資産の継承」「最適化済みコードの移行」「自動化ツール導入時の進め方や着眼点」といった分野にも通じる内容であり、実務に役立つ示唆を持ち帰っていただくことを目指します。
CATEGORIES:TALK (JAPANESE) / トーク（日本語）
LOCATION:Next 1\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:60cd7322f8e4ba911ca221c5d3652195
URL:http://adcjapan26.sched.com/event/60cd7322f8e4ba911ca221c5d3652195
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260602T010000Z
DTEND:20260602T020000Z
SUMMARY:Anti-aliased Black-Box Of Audio Distortion Circuits Using Real Recurrent Units / リアル再帰ユニットを使用したアンチエイリアス処理されたオーディオ歪み回路のブラックボックス
DESCRIPTION:Proposal of a black-box modeling method for audio distortion circuits using neural networks with real-valued Linear Recurrent Units (LRU). Furthermore\, by employing anti-aliasing techniques (ADAA)\, we demonstrate the realization of a high-precision and computationally efficient model that enables real-time operation on DAWs.\n \n 実数値 Linear Recurrent Unit（LRU）を用いたニューラルネットワークにより、オーディオ歪み回路のブラックボックスモデリング手法の提案。さらにアンチエイリアシング手法（ADAA）を用い、高精度かつ計算効率の高いモデルを実現し、DAW上でのリアルタイム動作が可能であることを示す。
CATEGORIES:TALK (ENGLISH) / トーク（英語）
LOCATION:Next 1\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:ac9bf7278998eeef2ffee09496d10e50
URL:http://adcjapan26.sched.com/event/ac9bf7278998eeef2ffee09496d10e50
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260602T010000Z
DTEND:20260602T020000Z
SUMMARY:BEEPS and PORTS : annoy everyone in your house while building an audio synthesizer ビープ音とポート：オーディオシンセサイザーを構築しながら家中の誰もが迷惑する
DESCRIPTION:Follow my two-plus-year (but really life-long journey) to make exactly the sound creation tools that I always wanted and that no one else asked for.\n \n 2年以上（でも本当には生涯にわたる）の旅に従い、私がいつも欲しかった、そして他の誰も求めていない音声作成ツールを正確に作ることです。
CATEGORIES:TALK (ENGLISH) / トーク（英語）
LOCATION:Next 2\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:f27d3b4ce950cde3700658bf6dbadd2f
URL:http://adcjapan26.sched.com/event/f27d3b4ce950cde3700658bf6dbadd2f
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260602T020000Z
DTEND:20260602T022000Z
SUMMARY:Break & Networking / 休憩とネットワーキング
DESCRIPTION:\n
CATEGORIES:GENERAL / 一般的な
LOCATION:Next 1\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:51042138f88fe6dfdc08b506a576d8d5
URL:http://adcjapan26.sched.com/event/51042138f88fe6dfdc08b506a576d8d5
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260602T020000Z
DTEND:20260602T022000Z
SUMMARY:Break & Networking / 休憩とネットワーキング
DESCRIPTION:\n
CATEGORIES:GENERAL / 一般的な
LOCATION:Next 2\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:583d2a3c4ebb0044055f96807765b838
URL:http://adcjapan26.sched.com/event/583d2a3c4ebb0044055f96807765b838
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260602T020000Z
DTEND:20260602T022000Z
SUMMARY:Break & Networking / 休憩とネットワーキング
DESCRIPTION:\n
CATEGORIES:GENERAL / 一般的な
LOCATION:Next 3\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:7d9885fb65bcaad3f73e2cc4e448d9d8
URL:http://adcjapan26.sched.com/event/7d9885fb65bcaad3f73e2cc4e448d9d8
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260602T022000Z
DTEND:20260602T032000Z
SUMMARY:Automated Circuit Measurement for Neural Network Training / ニューラルネットワークトレーニング用の自動回路測定
DESCRIPTION:Machine Learning has revolutionized audio coding\, from automated processing to distortion modeling. However\, ML models are only as good as&nbsp\;the data they're trained on.&nbsp\;High-quality\, *large* datasets are crucial for this effort. Rather than rely on external datasets\, this talk will empower audio developers by&nbsp\;providing a practical guide to building an autonomous circuit measurement&nbsp\;setup for data acquisition.\n \n We begin with explaining the need for automated data collection. While manual measurement has limits when it comes to consistency and cost\, a computer-based approach scales effortlessly\, and can allow more complex measurements\, such as varying the temperature of the measured circuit. And did we mention that it can function 24 hours a day\, 7 days a week?\n \n Then\, we cover the hardware requirements for the measurement setup: signal generators that have the sampling rate\, bit-depth and impedance for high-quality audio\, a computer or microcontroller to guide the measurements in realtime\, and appropriate Analog-to-Digital Converters (ADCs) to close the loop. We focus on practical\, easy\, and above all affordable options\, rather than specialty Test & Measurement hardware.\n \n Going forward\, we describe the software involved in the setup: from the choice of programming language\, to the types of different measurements. We pay special attention to realtime (i.e. streaming) measurements\, as they allow the most control over hardware parameters and can climb in complexity using feedback from the measurements themselves.\n \n Following that is a brief discussion of precision. It's critical to understand calibration techniques for our sensors\, as well as minimize the noise of our measurements. \n \n Moving on\, we take things to the next level: using configuration files to set up entire test suites\, designing hardware in a modular fashion so that each piece can be tested in isolation\, and taking advantage of reconfigurable hardware to achieve a higher degree of abstraction.\n \n Finally\, we will provide resources for further exploration\, including a GitHub repo with code examples for hardware measurements.\n \n 機械学習は、自動処理から歪みモデリングまで、オーディオコーディングに革命をもたらしました。しかし、MLモデルは学習データと同程度の性能しか発揮できません。高品質で*大規模な*データセットはこの取り組みに不可欠です。外部データセットに頼るのではなく、このトークではオーディオ開発者にデータ取得用の自律回路測定セットアップの構築方法に関する実践的なガイドを提供することで、開発者をサポートします。\n \n まず、自動データ収集の必要性について説明します。手動測定は一貫性とコストの観点で限界がありますが、コンピュータベースのアプローチは簡単にスケーリングでき、測定対象回路の温度を変化させるなど、より複雑な測定を行うことができます。さらに、1日24時間、週7日間機能することができます。\n \n 次に、測定セットアップのハードウェア要件について説明します。高品質なオーディオのためのサンプリングレート、ビット深度、インピーダンスを備えた信号生成器、リアルタイムで測定を制御するコンピュータまたはマイクロコントローラ、そしてループを閉じるための適切なアナログ・デジタル変換器（ADC）が必要です。専門的なテスト・計測ハードウェアではなく、実用的で使いやすく、何よりも手頃な選択肢に焦点を当てます。\n \n 次に、セットアップに関わるソフトウェアについて説明します。プログラミング言語の選択から、さまざまな測定タイプまでです。リアルタイム（つまりストリーミング）測定に特に注意を払います。これにより、ハードウェアパラメータを最大限に制御でき、測定自体からのフィードバックを使用して複雑さを増すことができます。\n \n その後、精度に関する簡潔な議論があります。センサーの校正技術を理解し、測定のノイズを最小化することが重要です。\n \n さらに進んで、設定ファイルを使用してテストスイート全体をセットアップし、各部品を独立してテストできるようにハードウェアをモジュール設計し、より高い抽象化レベルを達成するために再構成可能なハードウェアを活用します。\n \n 最後に、ハードウェア測定用のコード例を含むGitHubリポジトリなど、さらなる探索のためのリソースを提供します。
CATEGORIES:TALK (ENGLISH) / トーク（英語）
LOCATION:Next 1\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:0c2caa6c797cbc97f83d293343645d7f
URL:http://adcjapan26.sched.com/event/0c2caa6c797cbc97f83d293343645d7f
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260602T022000Z
DTEND:20260602T032000Z
SUMMARY:MIDI Matters : Symbolic Music in the Age of Neural Audio / MIDIの重要性：ニューラルオーディオの時代における記号音楽
DESCRIPTION:Recent advances in AI music technology have largely focused on generating and manipulating raw audio. Diffusion models\, neural synthesizers\, and source separation systems have made waveform-level processing more powerful than ever. However\, many creative tools for musicians still struggle with control\, editability\, and real-time interaction when operating directly on audio.\n \n In this talk\, we explore why symbolic representations—especially MIDI—remain a crucial layer for building practical and expressive AI music tools.\n \n Rather than treating MIDI as a legacy protocol\, we examine how it provides a powerful abstraction for structure\, intent\, and musical interaction. MIDI enables precise editing\, controllable generation\, and seamless integration with existing creative workflows. When combined with modern AI models\, it becomes a flexible interface between human musical ideas and machine-generated content.\n \n Through examples from our own researched\, developed and deployed tools\, we show how MIDI can serve as the control plane for generative music tools. Topics will be on the lines of symbolic-to-audio pipelines\, AI-assisted composition workflows\, expressive performance data\, and hybrid systems that combine MIDI reasoning with neural audio synthesis.\n \n The talk argues that many future music tools will not be purely “audio AI\,” but instead layered systems where symbolic representations guide audio generation.\n \n AI音楽技術の最近の進展は、主に生オーディオの生成と操作に焦点を当ててきました。拡散モデル、ニューラルシンセサイザー、ソース分離システムは、波形レベルの処理をこれまで以上に強力にしました。しかし、ミュージシャン向けの多くのクリエイティブツールは、オーディオを直接操作する際に、制御性、編集可能性、リアルタイム相互作用の面で依然として課題があります。\n \n 本トークでは、シンボリック表現、特にMIDIが、実用的で表現力豊かなAI音楽ツールを構築するための重要なレイヤーとして残る理由を探ります。\n \n MIDIをレガシープロトコルとして扱うのではなく、構造、意図、音楽的相互作用に対する強力な抽象化を提供する方法を検討します。MIDIは正確な編集、制御可能な生成、既存のクリエイティブワークフローとのシームレスな統合を可能にします。最新のAIモデルと組み合わせると、人間の音楽的アイデアと機械生成コンテンツの間の柔軟なインターフェースになります。\n \n 当社が研究、開発、導入したツールの例を通じて、MIDIが生成音楽ツールのコントロールプレーンとしてどのように機能できるかを示します。トピックは、シンボリック・トゥ・オーディオパイプライン、AIアシスト作曲ワークフロー、表現力豊かなパフォーマンスデータ、およびMIDI推論とニューラルオーディオ合成を組み合わせたハイブリッドシステムについてです。\n \n このトークは、今後の多くの音楽ツールは純粋な「オーディオAI」ではなく、シンボリック表現がオーディオ生成を導くレイヤー化されたシステムになるだろうと主張しています。
CATEGORIES:TALK (ENGLISH) / トーク（英語）
LOCATION:Next 3\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:75ef41290906ad644d3344d4dd403cbf
URL:http://adcjapan26.sched.com/event/75ef41290906ad644d3344d4dd403cbf
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260602T022000Z
DTEND:20260602T032000Z
SUMMARY:FPGA-Based Alias-Free Oscillator: 50MHz Waveform Generation and 1-bit ΔΣ DAC Implementation / FPGAベースのエイリアスフリー・オシレーター：50MHz駆動の波形生成と1bit ΔΣ DACの実装 FPGA-Based Alias-Free Oscillator: 50MHz Waveform Generation and 1-bit ΔΣ DAC Implementation
DESCRIPTION:This session explores the implementation of an oscillator that leverages the 50MHz clock of an inexpensive FPGA to generate waveforms at ultra-high sample rates far beyond the audible range. By concentrating computational resources on the sample rate rather than bit depth\, we achieve alias-free output of harmonics exceeding 100kHz. We will share practical know-how for fully integrating the entire process on-chip—from computation to audio output via a 1-bit ΔΣ DAC—without relying on microcontrollers or external DAC ICs.\n \n 廉価なFPGAの50MHz駆動を活かし、可聴域を遥かに超える超高サンプルレートで波形を生成するオシレーターの実装手法を解説します。 ビット深度ではなく超高サンプルレートにリソースを集中させることで、100kHz以上の倍音をエイリアスフリーに出力します。 演算から1bit ΔΣ DACによる音声出力まで、マイコンや外付けDACに頼らずチップ内部で完全統合する実践的なノウハウを共有します。
CATEGORIES:TALK (JAPANESE) / トーク（日本語）
LOCATION:Next 2\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:d9b97a4458ee5f8f27db1556f73fbfd7
URL:http://adcjapan26.sched.com/event/d9b97a4458ee5f8f27db1556f73fbfd7
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260602T032000Z
DTEND:20260602T035000Z
SUMMARY:Sponsor Talk 1
DESCRIPTION:\n
CATEGORIES:SPONSOR TALK / スポンサートーク
LOCATION:Next 1\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:0f487f3d656bc377ddcb7d7c26937beb
URL:http://adcjapan26.sched.com/event/0f487f3d656bc377ddcb7d7c26937beb
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260602T032000Z
DTEND:20260602T035000Z
SUMMARY:Sponsor Talk 2
DESCRIPTION:\n
CATEGORIES:SPONSOR TALK / スポンサートーク
LOCATION:Next 2\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:fc3c89b9a2fcac21930cdf39acee9338
URL:http://adcjapan26.sched.com/event/fc3c89b9a2fcac21930cdf39acee9338
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260602T032000Z
DTEND:20260602T035000Z
SUMMARY:Sponsor Talk 3
DESCRIPTION:\n
CATEGORIES:SPONSOR TALK / スポンサートーク
LOCATION:Next 3\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:627466fb2f6030a8aec8ae38e32e3019
URL:http://adcjapan26.sched.com/event/627466fb2f6030a8aec8ae38e32e3019
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260602T035000Z
DTEND:20260602T050000Z
SUMMARY:Lunch & Networking / ランチとネットワーキング
DESCRIPTION:\n
CATEGORIES:GENERAL / 一般的な
LOCATION:Next 1\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:34b733ccb2d914d49c22cd53caaf78d7
URL:http://adcjapan26.sched.com/event/34b733ccb2d914d49c22cd53caaf78d7
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260602T035000Z
DTEND:20260602T050000Z
SUMMARY:Lunch & Networking / ランチとネットワーキング
DESCRIPTION:\n
CATEGORIES:GENERAL / 一般的な
LOCATION:Next 2\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:5a3c919dddd2d755f9dd27dce78546c7
URL:http://adcjapan26.sched.com/event/5a3c919dddd2d755f9dd27dce78546c7
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260602T035000Z
DTEND:20260602T050000Z
SUMMARY:Lunch & Networking / ランチとネットワーキング
DESCRIPTION:\n
CATEGORIES:GENERAL / 一般的な
LOCATION:Next 3\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:974481e0cee768504a2ef3268451c86a
URL:http://adcjapan26.sched.com/event/974481e0cee768504a2ef3268451c86a
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260602T050000Z
DTEND:20260602T060000Z
SUMMARY:TX/RX Part 2: AI Audio on the Raspberry Pi / TX/RX Part 2: ラズベリーパイ上のAIオーディオ
DESCRIPTION:This talk is a continuation of previous talks at ADC'21 and ADCx'23. We will take an in-depth look at deploying AI Audio Inference workloads to the Raspberry Pi 5. The RPi 5 can be a useful target in and of itself\, and also a reference target for later deployment to other embedded platforms (Compute Module 5\, Qualcomm\, etc.). This talk will have a particular focus on workloads that are useful in the automotive industry.\n \n このトークは、ADC'21とADCx'23での以前のトークの続編です。AI音声推論ワークロードをRaspberry Pi 5にデプロイすることについて、詳しく見ていきます。RPi 5は、それ自体で有用なターゲットとなるだけでなく、後で他の組み込みプラットフォーム（Compute Module 5、Qualcommなど）へのデプロイメントのための参照ターゲットとしても機能します。このトークは、自動車産業で有用なワークロードに特に焦点を当てます。
CATEGORIES:TALK (ENGLISH) / トーク（英語）
LOCATION:Next 1\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:5d59301e1c733df2f58b3af28717db66
URL:http://adcjapan26.sched.com/event/5d59301e1c733df2f58b3af28717db66
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260602T050000Z
DTEND:20260602T060000Z
SUMMARY:Type-Erased Audio Parameters: A New Approach to an Old Problem / 型消去オーディオパラメータ：古い問題への新しいアプローチ
DESCRIPTION:Most audio plugins need parameters. For example\, a low-pass filter plugin can provide a cutoff frequency\, a slope steepness\, and a resonance parameter.\n \n All audio plugin formats provide some mechanism for defining and interacting with plugin parameters. The JUCE C++ framework\, the most popular cross-platform framework for developing audio plugins\, provides an abstraction layer over those parameter mechanisms.\n \n Yet defining\, using\, and maintaining parameters is a non-trivial task. There are various features a plugin developer may need\, like\,\n * type safety\,\n * range and value validation\,\n * value formatting and labeling\,\n * observing (for UI controls or audio processing updates)\,\n * smoothing\,\n * serialization (e.g.\, for presets)\,\n * parameter groups\, or\n * meta parameters.\n \n Over the years\, a few parameter management systems for JUCE-based plugins have been proposed\, but none have been without serious flaws. The most famous of them\, `AudioProcessorValueTreeState`\, has been widely criticized.\n \n This talk will provide a tour of current plugin parameter challenges and existing solutions\, and then propose a new solution based on the **type erasure technique**: an advanced C++ design pattern meant to replace polymorphism in a non-intrusive manner.\n \n Type-erased audio parameters\n * guarantee type safety (no low-level representation\, no `dynamic_cast`s)\n * provide the necessary abstractions to use heterogeneous parameter instances as a collection\n * don't use virtual polymorphism (no base classes or interfaces)\n * enable easy feature addition without forking JUCE or writing a new parameter class system from scratch (you don't pay for what you don't use)\n * is relatively easy to integrate into existing codebases.\n \n The talk is aimed at intermediate or advanced C++ developers who are familiar with at least one parameter API\, such as the one in JUCE.\n \n ほとんどのオーディオプラグインにはパラメータが必要です。例えば、ローパスフィルタープラグインは、カットオフ周波数、スロープの急峻さ、およびレゾナンスパラメータを提供できます。\n \n すべてのオーディオプラグイン形式は、プラグインパラメータを定義および操作するためのメカニズムを提供しています。オーディオプラグイン開発用の最も人気のあるクロスプラットフォームフレームワークであるJUCE C++フレームワークは、これらのパラメータメカニズムに対して抽象化レイヤーを提供しています。\n \n しかし、パラメータの定義、使用、および保守は簡単ではありません。プラグイン開発者が必要とする可能性のあるさまざまな機能があります。例えば:\n * 型安全性\n * 範囲と値の検証\n * 値のフォーマットおよびラベリング\n * 監視（UI制御またはオーディオ処理の更新用）\n * スムージング\n * シリアライゼーション（例：プリセット用）\n * パラメータグループ\n * メタパラメータ\n \n 長年にわたり、JUCEベースのプラグイン向けのパラメータ管理システムがいくつか提案されてきましたが、いずれも深刻な欠陥がありません。それらの中で最も有名な`AudioProcessorValueTreeState`は、広く批判されています。\n \n このトークでは、現在のプラグインパラメータの課題と既存のソリューションについて説明し、その後、**型消去技術**に基づく新しいソリューションを提案します。これは、ポリモーフィズムを非侵襲的な方法で置き換えることを目的とした高度なC++デザインパターンです。\n \n 型消去されたオーディオパラメータ:\n * 型安全性を保証します（低レベルの表現がない、`dynamic_cast`がない）\n * 異種のパラメータインスタンスをコレクションとして使用するために必要な抽象化を提供します\n * 仮想ポリモーフィズムを使用しません（ベースクラスやインターフェースがない）\n * JUCEをフォークしたり、パラメータクラスシステムを一から作成したりすることなく、簡単に機能を追加できます（使用しないものに対しては料金を払いません）\n * 既存のコードベースへの統合は比較的簡単です。\n \n このトークは、JUCEのようなパラメータAPIに少なくとも1つ精通している中級以上のC++開発者を対象としています。
CATEGORIES:TALK (ENGLISH) / トーク（英語）
LOCATION:Next 3\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:11b360aee9e7a8b7dc4e48b2916d6da6
URL:http://adcjapan26.sched.com/event/11b360aee9e7a8b7dc4e48b2916d6da6
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260602T050000Z
DTEND:20260602T060000Z
SUMMARY:JUCE in DJ Products: Current Status and Future Prospects / DJ製品におけるJUCE活用：現状と今後の展望
DESCRIPTION:AlphaTheta utilizes JUCE in multiple DJ products for audio processing and cross-platform development.\n In this presentation\, we will briefly introduce the product areas adopting JUCE and the main elements being utilized (Audio/DSP\, GUI\, peripheral tools/standardization) based on concrete examples.\n \n We will explain how JUCE is implemented within the constraints specific to DJ products\, which aspects are customized for our company's needs\, and discuss how we plan to leverage it going forward.\n \n AlphaThetaでは複数のDJ製品でJUCEを活用し、音声処理やクロスプラットフォーム開発を進めています。\n 本講演では、JUCEを採用している製品領域と、主に利用している要素（Audio/DSP、GUI、周辺ツール／共通化）を、実例をもとに簡潔に紹介します。\n \n DJ製品ならではの制約の中で、JUCEをどのように組み込み、どこを自社向けに調整しているかを整理し、今後どのように活用していきたいかをお話しします。
CATEGORIES:TALK (JAPANESE) / トーク（日本語）
LOCATION:Next 2\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:713b005ec80e29406a6d4e9c43537f02
URL:http://adcjapan26.sched.com/event/713b005ec80e29406a6d4e9c43537f02
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260602T060000Z
DTEND:20260602T070000Z
SUMMARY:Generative Instruments with Large Piano Models / 大規模ピアノモデルを用いた生成楽器
DESCRIPTION:This talk presents a methodology for working with very large\, GPT-like deep learning models trained on (open and ethically sourced) MIDI data. This approach promotes nuanced\, musical interfacing with the model\, requiring practice and skill development instead of one-shot text-based prompting.\n \n The full machine-learning pipeline is presented\, including data pre-processing\, tokenization\, model training and inference. The presented system will be used to demonstrate multiple generative examples created through musical interaction with Large Piano Models.\n \n このトークでは、（オープンで倫理的に調達された）MIDIデータで訓練された、非常に大規模なGPTのようなディープラーニングモデルを扱うための方法論を提示します。このアプローチは、ワンショットのテキストベースのプロンプティングではなく、実践とスキル開発が必要な、ニュアンスに富んだ音楽的なモデルとのインターフェースを促進します。\n \n データの前処理、トークン化、モデルの訓練と推論を含む、完全な機械学習パイプラインが提示されます。提示されたシステムは、Large Piano Modelsとの音楽的な相互作用を通じて作成された複数の生成例をデモンストレーションするために使用されます。
CATEGORIES:TALK (ENGLISH) / トーク（英語）
LOCATION:Next 2\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:9089ad987924c670f5f857364e022759
URL:http://adcjapan26.sched.com/event/9089ad987924c670f5f857364e022759
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260602T060000Z
DTEND:20260602T070000Z
SUMMARY:Porting a Native C++ Synth Engine to the Browser: Lessons from Katokatone / ネイティブC++シンセエンジンをブラウザに移植する：Katokatoneからの教訓
DESCRIPTION:Katokatone is a browser-based music learning application developed by KORG in collaboration with a Japanese textbook publisher for classroom use. As of February 2026\, it is used in approximately 7\,500 schools\, serving around 13\,000 daily users.\n \n For this project\, we reused part of our native C++ synthesizer engine — originally built for applications such as KORG Gadget — and compiled it to WebAssembly to run inside an AudioWorklet.\n \n Rather than focusing on theoretical DSP optimization\, this talk shares practical lessons from making it work reliably on managed school devices such as Chromebooks and iPads.\n \n We will discuss:\n - Why web delivery was required in educational environments\n - What happened when a native synth engine was moved into the browser\n - Performance issues observed on low-spec devices\n - Iterative adjustments to reduce audio glitches and UI load\n \n This is a real-world case study of bringing a native C++ synthesizer engine into the browser to deliver and maintain instrument-grade audio in institutional environments without simplifying the sound architecture.\n \n Katokatoneは、KORGが日本の教科書出版社と協力して教室での使用のために開発したブラウザベースの音楽学習アプリケーションです。2026年2月時点で、約7\,500の学校で使用されており、1日あたり約13\,000人のユーザーに利用されています。\n \n このプロジェクトでは、KORG Gadgetなどのアプリケーション向けに元々構築したネイティブC++シンセサイザーエンジンの一部を再利用し、WebAssemblyにコンパイルしてAudioWorklet内で実行させました。\n \n 理論的なDSP最適化に焦点を当てるのではなく、このトークでは、ChromebookやiPadなどの管理下にある学校用デバイスで確実に動作させるための実践的な教訓を共有します。\n \n 以下について説明します：\n - 教育環境でウェブ配信が必要とされた理由\n - ネイティブシンセエンジンをブラウザに移行した際に何が起こったか\n - 低スペックデバイスで観察されたパフォーマンス問題\n - オーディオグリッチとUIロードを軽減するための反復的な調整\n \n これは、音声アーキテクチャを簡略化せずに、制度的環境でインストルメントグレードのオーディオを配信・維持するために、ネイティブC++シンセサイザーエンジンをブラウザに導入した実際のケーススタディです。
CATEGORIES:TALK (JAPANESE) / トーク（日本語）
LOCATION:Next 1\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:a156903732d6d11d97798b63a5bc06b0
URL:http://adcjapan26.sched.com/event/a156903732d6d11d97798b63a5bc06b0
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260602T070000Z
DTEND:20260602T073000Z
SUMMARY:Break & Networking / 休憩とネットワーキング
DESCRIPTION:\n
CATEGORIES:GENERAL / 一般的な
LOCATION:Next 3\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:300eaa8333d1d2743d56e0bc3b7d0c76
URL:http://adcjapan26.sched.com/event/300eaa8333d1d2743d56e0bc3b7d0c76
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260602T070000Z
DTEND:20260602T073000Z
SUMMARY:Break & Networking / 休憩とネットワーキング
DESCRIPTION:\n
CATEGORIES:GENERAL / 一般的な
LOCATION:Next 2\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:7c0b79a6af342d9b2ee1a5603c8aacd5
URL:http://adcjapan26.sched.com/event/7c0b79a6af342d9b2ee1a5603c8aacd5
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260602T070000Z
DTEND:20260602T073000Z
SUMMARY:Break & Networking / 休憩とネットワーキング
DESCRIPTION:\n
CATEGORIES:GENERAL / 一般的な
LOCATION:Next 1\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:9efc3f638a6cc52ab35ed6c5caf2aa5a
URL:http://adcjapan26.sched.com/event/9efc3f638a6cc52ab35ed6c5caf2aa5a
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260602T073000Z
DTEND:20260602T080000Z
SUMMARY:Sponsor Talk 4
DESCRIPTION:\n
CATEGORIES:SPONSOR TALK / スポンサートーク
LOCATION:Next 1\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:af305e05ba2eaebab11a1cc9c6b5870b
URL:http://adcjapan26.sched.com/event/af305e05ba2eaebab11a1cc9c6b5870b
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260602T073000Z
DTEND:20260602T080000Z
SUMMARY:Sponsor Talk 5
DESCRIPTION:\n
CATEGORIES:SPONSOR TALK / スポンサートーク
LOCATION:Next 2\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:ce6b4f9b71cee3ac33f16ed94bb52a2c
URL:http://adcjapan26.sched.com/event/ce6b4f9b71cee3ac33f16ed94bb52a2c
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260602T073000Z
DTEND:20260602T080000Z
SUMMARY:Sponsor Talk 6
DESCRIPTION:\n
CATEGORIES:SPONSOR TALK / スポンサートーク
LOCATION:Next 3\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:d134dd38f3a33d03473f472f87428ea1
URL:http://adcjapan26.sched.com/event/d134dd38f3a33d03473f472f87428ea1
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260602T080000Z
DTEND:20260602T090000Z
SUMMARY:Field Recording - In Search for Perfect Sounds / フィールド・レコーディング - 完璧なサウンドを求めて
DESCRIPTION:Right from the outset of her game audio career\, Malin was never satisfied just using other people’s sounds and so began a lifelong quest of building her own libraries through field recordings. Drawing on many sonic adventures she will examine and explore the art and science of best of breed location sound capture sharing lessons learned about planning\, scouting and site selection\, working in harmony with nature\, timing and when to record\, equipment choices and options - and the peculiarities of videogame requirements\, discussing what for her makes the perfect sound and how she goes about getting it.\n \n ゲームオーディオのキャリアの初期段階から、マリンは他人の音を使うだけでは決して満足せず、フィールド録音を通じて独自のライブラリを構築するという生涯にわたる追求を始めました。多くのソニックアドベンチャーを通じて、彼女はロケーション音声キャプチャのベストプラクティスの芸術と科学を検証し、探求していきます。計画、スカウティング、サイト選定、自然との調和、録音のタイミングと時期、機材の選択肢とオプション、そしてビデオゲーム特有の要件についての教訓を共有し、彼女にとって完璧な音とは何か、そしてそれをどのように実現するのかについて論じます。
CATEGORIES:TALK (ENGLISH) / トーク（英語）
LOCATION:Next 1\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:22d5af009e0e3b2d9d47c90f6a326e62
URL:http://adcjapan26.sched.com/event/22d5af009e0e3b2d9d47c90f6a326e62
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260602T080000Z
DTEND:20260602T090000Z
SUMMARY:Talk to Your Plugins: Designing Audio Tools for AI-Assisted Workflows / プラグインとの対話：AI支援ワークフロー向けオーディオツールの設計
DESCRIPTION:What happens when you give an LLM the ability to not just control a synth's parameters\, but understand its signal flow and hear the results? In this talk\, I'll explore that question live on stage — starting with a basic synth sound\, describing what I want in plain language\, and iteratively shaping it into a fully designed lead patch. Along the way\, we'll see where an LLM can genuinely reason about sound design versus where it falls short\, and what kind of information — from signal flow metadata to real-time spectral analysis — makes the difference between an AI that blindly turns knobs and one that can diagnose and fix a problem.\n\n LLMにシンセのパラメータを操作させるだけでなく、シグナルフローを理解させ、その結果を「聴かせる」ことができたら、何が起きるでしょうか。このトークでは、その問いをステージ上でライブで探ります。基本的なシンセサウンドから始めて、自然な言葉でイメージを伝えながら、完成されたリードパッチへと段階的に作り上げていきます。その過程で、LLMがサウンドデザインについて本当に推論できる部分と、まだ力が及ばない部分を明らかにし、シグナルフローのメタデータやリアルタイムのスペクトル分析といった情報が、ただノブを回すだけのAIと、問題を診断して的確に修正できるAIとの違いをどう生み出すのかを見ていきます。
CATEGORIES:TALK (ENGLISH) / トーク（英語）
LOCATION:Next 3\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:7dd2f773aeb39394bb08ee7e7ed57f34
URL:http://adcjapan26.sched.com/event/7dd2f773aeb39394bb08ee7e7ed57f34
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260602T080000Z
DTEND:20260602T090000Z
SUMMARY:Write 0 Lines of C++: Building Commercial Audio Plugins with Rust and Web GUI / C++を0行書く：RustとWeb GUIで商用オーディオプラグインを構築する
DESCRIPTION:This talk presents a modern alternative to C++-dominated audio plugin development. We will explore how to build commercial-grade\, multi-format plugins (CLAP\, VST3\, AU\, Standalone) without writing a single line of C++\, by using Rust for DSP/logic and Web technologies for the GUI. Based on real-world adoption in NovoNotes products\, we will cover the "CLAP First" architecture with clap-wrapper\, solving async task management (run_loop)\, integrating WebViews (wxp)\, and comparing this approach with JUCE.\n \n 本講演では、C++が主流のオーディオプラグイン開発における新たな選択肢を提示します。DSPやロジックに「Rust」、GUIに「Web技術」を採用し、C++を一切使わずに商用レベルのマルチフォーマットプラグイン（CLAP\, VST3\, AU\, Standalone）を開発する手法を解説します。NovoNotes製品での実例を交えながら、非同期処理（run_loop）の解決、WebView統合（wxp）、clap-wrapper を用いた「CLAP First」アーキテクチャ、そしてJUCEとの比較まで、実践的なノウハウをお伝えします。
CATEGORIES:TALK (JAPANESE) / トーク（日本語）
LOCATION:Next 2\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:7f025e01849b58a9186a5ccb36c98989
URL:http://adcjapan26.sched.com/event/7f025e01849b58a9186a5ccb36c98989
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260602T090000Z
DTEND:20260602T100000Z
SUMMARY:Networking / ネットワーキング
DESCRIPTION:\n
CATEGORIES:GENERAL / 一般的な
LOCATION:Akiba Square\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:d0677206e8aba929e825b6012cc3a163
URL:http://adcjapan26.sched.com/event/d0677206e8aba929e825b6012cc3a163
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260602T223000Z
DTEND:20260603T000000Z
SUMMARY:Registration / 登録
DESCRIPTION:\n
CATEGORIES:GENERAL / 一般的な
LOCATION:Akiba Square\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:541b5383a8ca6ad615f9b0d9548abd50
URL:http://adcjapan26.sched.com/event/541b5383a8ca6ad615f9b0d9548abd50
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260603T000000Z
DTEND:20260603T090000Z
SUMMARY:Sponsor Exhibits / 協賛展示品
DESCRIPTION:\n
CATEGORIES:GENERAL / 一般的な
LOCATION:Akiba Square\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:e4d6edb419bd35bffef9fbbb9fa493c2
URL:http://adcjapan26.sched.com/event/e4d6edb419bd35bffef9fbbb9fa493c2
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260603T000000Z
DTEND:20260603T010000Z
SUMMARY:Creating Intuitive Interactive Music Systems Across Media / メディア全体にわたる直感的インタラクティブ音楽システムの構築
DESCRIPTION:Music technology has enabled artists and engineers to create highly interactive musical systems in many different forms of media\, from games\, to art installations and instruments. In this talk I share ideas on ways to approach technology and tools such as data\, sensors and hardware\, MIDI or OSC\, and programming languages\, in order to create systems that are intuitive to engage by the audience across media that involves sound.\n \n 音楽技術により、アーティストとエンジニアは、ゲーム、アート・インスタレーション、楽器など、多くの異なるメディア形式で、高度にインタラクティブな音楽システムを作成することができるようになりました。このトークでは、データ、センサー、ハードウェア、MIDIやOSC、プログラミング言語などのテクノロジーとツールに取り組む方法についてのアイデアを共有し、音を含むメディア全体で観客が直感的に操作できるシステムを作成する方法をお話しします。
CATEGORIES:TALK (ENGLISH) / トーク（英語）
LOCATION:Next 3\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:1d00477133e7f6f6c52464a5fc91c89a
URL:http://adcjapan26.sched.com/event/1d00477133e7f6f6c52464a5fc91c89a
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260603T000000Z
DTEND:20260603T010000Z
SUMMARY:Real-Time AI Audio Processing at Scale: Building Cloud-Native Audio Applications / スケール規模でのリアルタイムAIオーディオ処理：クラウドネイティブオーディオアプリケーションの構築
DESCRIPTION:The convergence of AI and cloud computing is revolutionizing audio development. This session explores how AWS cloud services enable audio developers to build scalable\, AI-powered applications for speech recognition\, audio synthesis\, real-time streaming\, and generative audio content.\n \n We'll demonstrate practical architectures for:\n \n Real-time audio processing with AI-based dubbing and translation using AWS Media Services\n Speech synthesis and recognition using Amazon Polly\, Transcribe\, and generative AI models\n Scalable audio streaming architectures with Amazon Kinesis and serverless computing\n Building audio ML models with Amazon SageMaker and deploying them at scale\n Sentiment analysis from audio data using AWS generative AI services\n Attendees will learn cloud-native patterns for audio development\, including containerization with Kubernetes\, event-driven architectures\, and GPU-optimized infrastructure for AI workloads.\n \n AIとクラウドコンピューティングの融合は、オーディオ開発に革命をもたらしています。このセッションでは、AWSクラウドサービスがいかにオーディオ開発者が、音声認識、オーディオ合成、リアルタイムストリーミング、生成型オーディオコンテンツ向けのスケーラブルなAI駆動型アプリケーションを構築できるようにするかを探ります。\n \n 以下の実用的なアーキテクチャを実演します：\n \n AWS Media Servicesを使用したAIベースのダビングおよび翻訳によるリアルタイムオーディオ処理\n Amazon Polly、Transcribe、および生成型AIモデルを使用した音声合成と認識\n Amazon Kinesisおよびサーバーレスコンピューティングによるスケーラブルなオーディオストリーミングアーキテクチャ\n Amazon SageMakerでのオーディオMLモデルの構築とスケール時のデプロイ\n AWS生成型AIサービスを使用したオーディオデータからのセンチメント分析\n 参加者はオーディオ開発向けのクラウドネイティブパターンを学びます。これにはKubernetesでのコンテナ化、イベント駆動型アーキテクチャ、およびAIワークロード向けのGPU最適化インフラストラクチャが含まれます。
CATEGORIES:TALK (ENGLISH) / トーク（英語）
LOCATION:Next 1\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:a0df1b1ee48038e7c57dab7d771d2c5c
URL:http://adcjapan26.sched.com/event/a0df1b1ee48038e7c57dab7d771d2c5c
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260603T000000Z
DTEND:20260603T010000Z
SUMMARY:Designing Interactive Machine Learning Tools for Music Generation Models / インタラクティブ機械学習ツールの設計：音楽生成モデル向け
DESCRIPTION:In recent years\, generative models have become capable of generating high-quality music from natural language. However\, the mechanisms to adequately respond to repeated trial-and-error and fine-grained nuance adjustments that occur throughout the production process remain in a developmental stage.\n \n This presentation introduces design approaches based on interactive machine learning\, where users can leverage small amounts of local data generated during the production process and manipulate the latent space of generative models. By incorporating exploration and parameter manipulation into an interactive loop\, we present a structure that allows generative model outputs to be not merely "selected\," but rather integrated into and utilized within one's own production process.\n \n Through research case studies from the presenter\, we will introduce visualization of generative models\, real-time control\, applications to live performance\, and design examples as audio plugins and tools. We will discuss new practical approaches for how music generation AI can be integrated into workflows for composition\, arrangement\, and sound design.\n \n 近年の生成モデルは、自然言語から高品質な音楽を生成できるようになりました。一方で、制作の過程で繰り返される試行錯誤や細かなニュアンスの調整に、十分に応答できる仕組みはまだ発展途上にあります。\n \n 本講演では、インタラクティブ機械学習の考え方に基づき、ユーザが制作過程で生み出す少量のローカルデータを活用したり、生成モデルの潜在空間を操作していく設計アプローチを紹介します。探索やパラメータ操作を対話的なループに組み込むことで、生成モデルの出力を単に「選ぶ」だけでなく、自身の制作プロセスに組み込みながら活用できる構造を提示します。\n \n 講演者の研究事例を交えながら、生成モデルの可視化、リアルタイム制御、ライブパフォーマンスへの応用、さらにオーディオプラグインやツールとしての設計例を紹介します。音楽生成AIを作曲・編曲・サウンドデザインのワークフローにどのように統合できるのか、新しい実践的アプローチを議論します。
CATEGORIES:TALK (JAPANESE) / トーク（日本語）
LOCATION:Next 2\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:fb5e5adda1a8b517aa825ea93b9d6d82
URL:http://adcjapan26.sched.com/event/fb5e5adda1a8b517aa825ea93b9d6d82
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260603T010000Z
DTEND:20260603T020000Z
SUMMARY:AI vs. The Algorithm: Reclaiming "The Scene" through Ethical Vocal Synthesis / AI対アルゴリズム：倫理的ボーカル合成を通じて「シーン」を取り戻す
DESCRIPTION:In an era of generative automation\, the traditional boundary between artist and audience is dissolving. This session explores the transition of the human voice from a static recording to a dynamic\, professional instrument. Drawing on my experience as a Billboard-charting frontman and MBA strategist\, I will demonstrate how vocal synthesis—specifically the development of the HXVOC voicebank—enables creators to bypass the 'cold wall' of the algorithm. We will discuss the ethical shift from mass-consumption to distributed authorship\, showing that technology will not replace the performer\, but empower a global community to build its own legacy.\n \n 生成型オートメーションの時代において、アーティストと観客の伝統的な境界が溶解しつつあります。本セッションでは、人間の声が静的な録音から動的でプロフェッショナルな楽器へと移行する過程を探ります。ビルボード・チャート入りのフロントマンであり、MBAストラテジストとしての経験を踏まえて、ボーカル合成、特にHXVOCボイスバンクの開発がいかにクリエイターに対してアルゴリズムの「冷たい壁」を乗り越えることを可能にするかを実演します。大量消費から分散型著作権へのシフトについて議論し、テクノロジーがパフォーマーに取って代わるのではなく、グローバルコミュニティが独自のレガシーを構築する力を与えることを示します。
CATEGORIES:TALK (ENGLISH) / トーク（英語）
LOCATION:Next 2\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:24087234df3e1e147ca15b6a62fc67e9
URL:http://adcjapan26.sched.com/event/24087234df3e1e147ca15b6a62fc67e9
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260603T010000Z
DTEND:20260603T020000Z
SUMMARY:Rust grows gradually\, it doesn't appear all at once / さびは徐々に成長し、一度にすべて現れるわけではありません。
DESCRIPTION:Despite Rust's benefits\, it has seen limited adoption due to factors including existing ecosystems built for other languages (JUCE\, VST3 SDK)\, less overall time to grow\, and the general appeal of familiarity.\n \n This talk showcases CSick\, a scaffolding system for automated FFI generation designed to provide a bridge\, not a ferry\, between C++ and Rust.\n \n Previous solutions have focused on addressing developers' reluctance by easing the transition with familiar workflows adapted for Rust development (e.g. cxx-juce)\, with Rust as the forerunner and C++ only when necessary.\n \n By contrast\, CSick is built to allow gradual adoption—integrating Rust code into existing C++ codebases one chunk at a time—allowing developers to reap Rust’s benefits without entirely jumping ship.\n \n Rustの利点にもかかわらず、他の言語向けに構築された既存のエコシステム（JUCE、VST3 SDK）、成長に費やされた全体的な時間の不足、および親しみやすさへの一般的な訴求力といった要因により、採用は限定的です。\n \n このトークではCSickを紹介します。これはC++とRust間のブリッジ（フェリーではなく）を提供するために設計された、自動FFI生成用のスキャフォールディングシステムです。\n \n 以前のソリューションは、Rust開発に適応した親しみやすいワークフローで移行を容易にすることで、開発者の抵抗感に対処することに焦点を当ててきました（例：cxx-juce）。Rustが主導的な役割を担い、C++は必要な場合のみです。\n \n これとは対照的に、CSickは段階的な採用を可能にするために構築されています。既存のC++コードベースにRustコードを一度に1つのチャンクずつ統合し、開発者が完全に乗り換えることなくRustの利点を享受できるようにします。
CATEGORIES:TALK (ENGLISH) / トーク（英語）
LOCATION:Next 3\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:60ff28973617fe6f896324cb24c14712
URL:http://adcjapan26.sched.com/event/60ff28973617fe6f896324cb24c14712
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260603T010000Z
DTEND:20260603T020000Z
SUMMARY:How Close Is Close Enough? Evaluating Analog-Likeness of Moog-Style Ladder Filters on a $1-Class Microcontroller / モーグスタイルラダーフィルターのアナログ的特性をいかに評価するか？1ドルクラスのマイクロコントローラー上での検証
DESCRIPTION:How close is close enough when modeling analog ladder filters on a $1-class microcontroller?\n \n Microcontrollers operate under strict computational constraints that fundamentally differ from desktop virtual analog environments. When implementing Moog-style ladder filters in such systems\, defining and evaluating analog-likeness becomes a practical engineering challenge.\n \n This work is motivated by the development of a virtual analog synthesizer running on an RP2350 microcontroller\, designed to deliver a convincing analog feel. Practical evaluation metrics are consolidated\, including resonance peak alignment\, Q consistency\, normalized harmonic spectra\, level-dependent cutoff shift\, and self-oscillation behavior. The talk also discusses how these metrics can be meaningfully and reproducibly measured.\n \n Ladder filter implementations drawn from published algorithms\, open-source audio libraries such as Teensy Audio Library\, DaisySP\, and JUCE\, are ported to the RP2350 and evaluated against a SPICE circuit simulation serving as a reproducible analog reference. Measurement results are presented to examine how closely each implementation can approach analog behavior under strict hardware constraints.\n \n $1クラスのマイクロコントローラー上でアナログラダーフィルターをモデル化する場合、どの程度が十分に近いのか?\n \n マイクロコントローラーは、デスクトップの仮想アナログ環境と根本的に異なる厳密な計算制約の下で動作します。このようなシステムにムーグスタイルのラダーフィルターを実装する場合、アナログライクさの定義と評価は実用的なエンジニアリングの課題となります。\n \n 本研究は、RP2350マイクロコントローラー上で動作する仮想アナログシンセサイザーの開発に動機づけられており、説得力のあるアナログの感覚を提供するように設計されています。実用的な評価指標は、レゾナンスピークアライメント、Q一貫性、正規化調和スペクトラム、レベル依存カットオフシフト、および自己発振動作を含めて統合されています。本講演では、これらのメトリクスを意味のある方法で再現可能に測定する方法についても説明します。\n \n 公開されているアルゴリズム、Teensy Audio Library、DaisySP、JUCEなどのオープンソースオーディオライブラリから引き出されたラダーフィルター実装は、RP2350に移植され、再現可能なアナログ参照として機能するSPICE回路シミュレーションに対して評価されます。測定結果は、厳密なハードウェア制約の下で各実装がどの程度密接にアナログ動作に近づくことができるかを検証するために提示されます。
CATEGORIES:TALK (JAPANESE) / トーク（日本語）
LOCATION:Next 1\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:02d2ed1c9692f782560c5d62bdec7e34
URL:http://adcjapan26.sched.com/event/02d2ed1c9692f782560c5d62bdec7e34
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260603T020000Z
DTEND:20260603T022000Z
SUMMARY:Break & Networking / 休憩とネットワーキング
DESCRIPTION:\n
CATEGORIES:GENERAL / 一般的な
LOCATION:Next 3\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:23210b2c3e4a136214171e19dfcd7b0f
URL:http://adcjapan26.sched.com/event/23210b2c3e4a136214171e19dfcd7b0f
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260603T020000Z
DTEND:20260603T022000Z
SUMMARY:Break & Networking / 休憩とネットワーキング
DESCRIPTION:\n
CATEGORIES:GENERAL / 一般的な
LOCATION:Next 2\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:2987cc08170c853c70432496781abcad
URL:http://adcjapan26.sched.com/event/2987cc08170c853c70432496781abcad
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260603T020000Z
DTEND:20260603T022000Z
SUMMARY:Break & Networking / 休憩とネットワーキング
DESCRIPTION:\n
CATEGORIES:GENERAL / 一般的な
LOCATION:Next 1\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:dc286cc7ce4b26c10d2030ec66c9304d
URL:http://adcjapan26.sched.com/event/dc286cc7ce4b26c10d2030ec66c9304d
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260603T022000Z
DTEND:20260603T032000Z
SUMMARY:Building and Training Differentiable Artificial Reverbs / 微分可能な人工リバーブの構築とトレーニング
DESCRIPTION:Differentiable artificial reverberation has the potential to address a wide range of audio machine-learning tasks\, including style transfer\, blind estimation\, and speech enhancement. This research area has grown rapidly\, with many new approaches proposed over the past few years\, particularly within the field of differentiable digital signal processing. As a result\, numerous differentiable reverb architectures have emerged. At the same time\, these developments highlight the need for loss functions that properly capture the perceptually important time- and frequency-domain characteristics of reverberation. \n \n In this talk\, we will review key results from recent literature with a focus on architectures suitable for real-time applications. Specifically\, we will discuss different architecture choices\, optimization strategies\, and practical insights for designing loss functions tailored to reverberation. We will also explore how standard\, off-the-shelf loss functions can be adapted to better handle reverb and reverberated signals. We will conclude with a forward-looking perspective\, highlighting current challenges and open research questions\, as well as spatial audio applications.\n \n 微分可能な人工残響は、スタイル転送、ブラインド推定、音声強調など、幅広いオーディオ機械学習タスクに対処する可能性を持っています。この研究領域は急速に成長しており、特に微分可能デジタル信号処理の分野において、ここ数年で多くの新しいアプローチが提案されています。その結果、多くの微分可能なリバーブアーキテクチャが出現しました。同時に、これらの発展は、残響の知覚的に重要な時間領域および周波数領域の特性を適切に捉える損失関数の必要性を浮き彫りにしています。\n \n 本講演では、リアルタイムアプリケーションに適したアーキテクチャに焦点を当てた、最近の文献からの主要な結果をレビューします。具体的には、異なるアーキテクチャの選択、最適化戦略、および残響に合わせた損失関数を設計するための実用的な洞察について説明します。また、標準的な既製の損失関数がリバーブおよびリバーブ処理された信号をより適切に処理するように適応させられる方法についても探求します。最後に、現在の課題と未解決の研究課題、ならびに空間オーディオアプリケーションに焦点を当てた前向きな展望で結論付けます。
CATEGORIES:TALK (ENGLISH) / トーク（英語）
LOCATION:Next 2\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:8fb1e9df4c7408cdb5a2a958f275fb1b
URL:http://adcjapan26.sched.com/event/8fb1e9df4c7408cdb5a2a958f275fb1b
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260603T022000Z
DTEND:20260603T032000Z
SUMMARY:One UI\, One DSP\, Everywhere: A Chromium-Based Runtime for Audio Plugins / 1つのUI、1つのDSP、どこでも：オーディオプラグイン向けChromiumベースのランタイム
DESCRIPTION:Modern audio plug-in development still pays a steep portability tax: separate UI/DSP stacks per OS and host\, repeated rebuilds\, and validation that’s hard to automate. This talk introduces a “write once\, run everywhere” approach that treats Chromium as a compatibility runtime and tunnels its audio graph directly into a DAW plug-in host (VST)—allowing a single codebase for both UI and DSP to run across environments.\n \n Beyond portability\, the runtime enables a DevOps-style workflow for audio: externally controlled timing\, deterministic offline rendering\, and CI-friendly regression testing for AudioWorklet-style processing. We’ll present a working proof-of-concept\, outline the key architectural choices and trade-offs\, and show how this foundation can unlock faster iteration at ecosystem scale—especially as automated and AI-assisted development becomes the norm.\n \n 現代のオーディオプラグイン開発では、依然として高い移植性のコストが発生しています。OS およびホストごとに異なる UI/DSP スタック、繰り返されるリビルド、自動化が難しい検証が必要です。本発表では、Chromium を互換性ランタイムとして扱い、そのオーディオグラフを DAW プラグインホスト (VST) に直接トンネリングする「一度書いたら、どこでも実行できる」アプローチを紹介します。これにより、UI と DSP の両方に単一のコードベースを使用して、複数の環境で実行できます。\n \n 移植性を超えて、このランタイムはオーディオに対する DevOps スタイルのワークフローを実現します。外部から制御されるタイミング、確定的なオフラインレンダリング、AudioWorklet スタイルの処理に対する CI フレンドリーな回帰テストです。実装可能な概念実証を提示し、主要なアーキテクチャの選択とトレードオフについて説明し、この基盤がどのようにしてエコシステム規模での迅速な反復を実現できるかを示します。特に自動化と AI 支援開発が標準化されるにつれて、その重要性が高まります。
CATEGORIES:TALK (ENGLISH) / トーク（英語）
LOCATION:Next 1\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:e168cd8f5f6b34210a44acbe1846b627
URL:http://adcjapan26.sched.com/event/e168cd8f5f6b34210a44acbe1846b627
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260603T022000Z
DTEND:20260603T032000Z
SUMMARY:The Pitfalls of the Mobile DAW Era: Constraints and Practical Knowledge of iOS AUv3 Implementation / モバイルDAW時代の落とし穴：iOS AUv3実装の制約と実践知
DESCRIPTION:Our company develops a singing voice synthesis application for PC\, and based on that architecture\, we undertook implementation as an AUv3 plugin for iOS. However\, requirements specific to singing voice synthesis—such as UI design premised on lyrics input\, handling of large-scale models\, and high initialization costs—are closely related to AUv3's execution model\, sandbox constraints\, extension launch restrictions\, and iOS memory management characteristics.\n \n In this presentation\, we will organize the technical constraints we encountered in the process of realizing a singing voice synthesis application as an AUv3 plugin\, and share perspectives that should be prerequisites when designing AUv3 in a mobile environment.\n \n 弊社ではPC向け歌声合成アプリケーションを開発しており、そのアーキテクチャを基にiOS向けAUv3プラグインとしての実装に取り組みました。しかし、歌詞入力を前提とするUI設計、大容量モデルの扱い、初期化コストの高さといった歌声合成特有の要件は、AUv3の実行モデルやSandbox制約、Extension起動時の制限、iOSのメモリ管理特性と密接に関係します。\n 本講演では、歌声合成アプリケーションをAUv3として成立させる過程で直面した技術的制約を整理し、モバイル環境でAUv3を設計する際に前提とすべき観点を共有します。
CATEGORIES:TALK (JAPANESE) / トーク（日本語）
LOCATION:Next 3\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:cf6e979564dcc0713f238916f96f516f
URL:http://adcjapan26.sched.com/event/cf6e979564dcc0713f238916f96f516f
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260603T032000Z
DTEND:20260603T035000Z
SUMMARY:Sponsor Talk 7
DESCRIPTION:\n
CATEGORIES:SPONSOR TALK / スポンサートーク
LOCATION:Next 1\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:945eed533c840abc8a3181d64b7279cc
URL:http://adcjapan26.sched.com/event/945eed533c840abc8a3181d64b7279cc
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260603T032000Z
DTEND:20260603T035000Z
SUMMARY:Sponsor Talk 8
DESCRIPTION:\n
CATEGORIES:SPONSOR TALK / スポンサートーク
LOCATION:Next 2\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:5aa183562c3fe68f238c5aa73e220ec2
URL:http://adcjapan26.sched.com/event/5aa183562c3fe68f238c5aa73e220ec2
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260603T032000Z
DTEND:20260603T035000Z
SUMMARY:Sponsor Talk 9
DESCRIPTION:\n
CATEGORIES:SPONSOR TALK / スポンサートーク
LOCATION:Next 3\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:cd1b34e3775d190af248762c0d55146a
URL:http://adcjapan26.sched.com/event/cd1b34e3775d190af248762c0d55146a
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260603T035000Z
DTEND:20260603T050000Z
SUMMARY:Lunch & Networking / ランチとネットワーキング
DESCRIPTION:\n
CATEGORIES:GENERAL / 一般的な
LOCATION:Next 1\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:3d038ed5b7d9135dff39c6cd19abe7d8
URL:http://adcjapan26.sched.com/event/3d038ed5b7d9135dff39c6cd19abe7d8
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260603T035000Z
DTEND:20260603T050000Z
SUMMARY:Lunch & Networking / ランチとネットワーキング
DESCRIPTION:\n
CATEGORIES:GENERAL / 一般的な
LOCATION:Next 2\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:981e18d9e738c12cad3808bfb0e89b41
URL:http://adcjapan26.sched.com/event/981e18d9e738c12cad3808bfb0e89b41
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260603T035000Z
DTEND:20260603T050000Z
SUMMARY:Lunch & Networking / ランチとネットワーキング
DESCRIPTION:\n
CATEGORIES:GENERAL / 一般的な
LOCATION:Next 3\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:dfd886a2c31552ef4cd54a81b45da892
URL:http://adcjapan26.sched.com/event/dfd886a2c31552ef4cd54a81b45da892
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260603T050000Z
DTEND:20260603T060000Z
SUMMARY:Android and Audio Plugins: State of Union / Androidとオーディオプラグイン：現状報告
DESCRIPTION:When we build cross-platform music apps and plugins\, they are mostly desktop and sometimes including iOS\, but much less happens on Android. Since Android audio latency has improved a lot by 2026\, we have to tackle the next problem: we are missing audio plugin formats on Android. Apple has good ecosystem\, so why not designing one for Android?\n \n But you would wonder\, why can't we just simply take VST3\, CLAP\, or LV2 on Android? Because\, it is not that simple. We have a lot of lessons learned (or\, learning) from Apple AudioUnit V3\, along with their efforts on Logic Pro.\n \n Throughout this session we will explain what is tricky to achieve audio plugin functionality on Android through past accomplishments\, and how to deal with it. There are many issues such as\, publishing audio plugin products from diverse plugin vendors without being tied to a specific DAW\, passing audio and event data between a DAW and a plugin\, showing plugin GUI on a DAW\, and so on. We also discuss what's missing on Android platform itself to achieve full realtime capability within our apps\, not just their own framework.\n \n There are many trends on audio plugin development such as MIDI 2.0 integration like (upcoming next-gen. JUCE AudioProcessor)\, CLAP-first development\, AI-capability such as MCP integration. We discuss what kind of features a plugin format should and should NOT tackle\, especially taking CLAP as a reference. You would also learn why JUCE cannot be a "format" here.\n \n At last\, designing a plugin format is just a milestone and not the goal. We also have to achieve a plugin "ecosystem"\, which is very often understood as chicken and egg problem. We would discuss this with some existing efforts.\n \n クロスプラットフォーム音声アプリとプラグインを構築する場合、それらはほとんどがデスクトップで、時々iOSを含みますが、Androidではずっと少ないことが起こっています。2026年までにAndroidのオーディオレイテンシーが大幅に改善されたため、次の問題に取り組む必要があります。Androidではオーディオプラグインフォーマットが不足しているのです。Appleは優れたエコシステムを持っているので、Androidのために1つを設計してみてはいかがでしょうか？\n \n しかし、なぜ単純にVST3、CLAP、またはLV2をAndroidで使用できないのかと疑問に思うでしょう。それは単純ではないからです。Appleの AudioUnit V3から多くの教訓を得ており（または学習中）、Logic Proへの彼らの取り組みからも学んでいます。\n \n このセッション全体を通じて、過去の成果を通じてAndroidでオーディオプラグイン機能を実現することがどのようにして難しいのか、そしてそれにどう対処するかについて説明します。多様なプラグインベンダーから特定のDAWに縛られずにオーディオプラグインコンテンツを公開する、DAWとプラグイン間でオーディオおよびイベントデータを渡す、DAW上にプラグインGUIを表示するなど、多くの課題があります。また、独自フレームワークだけではなく、アプリ内で完全なリアルタイム機能を達成するためにAndroidプラットフォーム自体に何が不足しているのかについても議論します。\n \n MIDI 2.0統合（次世代の予定であるJUCE AudioProcessor）、CLAP優先開発、MCP統合などのAI機能など、オーディオプラグイン開発には多くのトレンドがあります。プラグインフォーマットが取り組むべき機能と取り組むべきではない機能について、特にCLAPを参考にして議論します。JUCEがここで「フォーマット」になれない理由も学べます。\n \n 最後に、プラグインフォーマットの設計はマイルストーンであり、目標ではありません。また、プラグイン「エコシステム」の実現も必要です。これはしばしば鶏と卵の問題として理解されています。既存の取り組みとともにこれについて議論します。
CATEGORIES:TALK (ENGLISH) / トーク（英語）
LOCATION:Next 1\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:58ed6dab2a7bd3a4a5812fb7ba8de62c
URL:http://adcjapan26.sched.com/event/58ed6dab2a7bd3a4a5812fb7ba8de62c
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260603T050000Z
DTEND:20260603T060000Z
SUMMARY:NKIDO a Open Source Bytecode Synth and Live-Coding Environment / NKIDO - オープンソースバイトコードシンセとライブコーディング環境
DESCRIPTION:NKIDO is a live-coding audio environment built from scratch: a Tidal-inspired pattern language\, a zero-allocation C++20 bytecode VM with 95+ DSP opcodes\, and a browser IDE running it all via WebAssembly. This talk covers the language design\, the runtime internals\, and what it's like to vibe-code 60\,000 lines of real-time audio C++ with AI.\n \n NKIDOはゼロから構築されたライブコーディングオーディオ環境です。Tidalに着想を得たパターン言語、95以上のDSPオプコードを持つゼロアロケーションC++20バイトコードVM、そしてWebAssemblyを介してそれらすべてを実行するブラウザIDEで構成されています。このトークでは、言語設計、ランタイムの内部構造、そしてAIを使用して60\,000行のリアルタイムオーディオC++をバイブコードする経験についてカバーしています。
CATEGORIES:TALK (ENGLISH) / トーク（英語）
LOCATION:Next 2\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:2a098818355f5159afa7132ba455352e
URL:http://adcjapan26.sched.com/event/2a098818355f5159afa7132ba455352e
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260603T050000Z
DTEND:20260603T060000Z
SUMMARY:An Interface That Expands the Possibilities of Tonal Selection by Transcending Fixed Concepts of Instrument Categories / 楽器カテゴリの固定観念を超えた音色選択の可能性を広げるインタフェース
DESCRIPTION:In composition and arrangement using existing DAWs\, users set appropriate timbres for each track from vast timbral datasets classified by category (such as instruments and sound source names). We reconsider this current text-based timbral search interaction itself and propose a new approach to expand creativity across diverse timbres. We have removed the conventional concept of timbral categories and have: 1) calculated relationships between timbres depending only on acoustic features\, and 2) constructed an interface that enables visual confirmation of relationships between timbres. By visualizing similarity between timbres across categories\, we provide serendipitous timbral exploration not constrained by conventional timbral categories. In this presentation\, we will discuss the background of the proposed approach\, technical overview\, and usefulness based on user testing.\n \n 既存のDAWを用いた作曲や編曲では，カテゴリ（楽器や音源名など）ごとに分類された膨大な音色データセットの中からユーザが適切であると考える音色を各トラックに設定しています．我々は，このようなテキストベースで音色を検索する現状のインタラクション自体を見直し，多様な音色に創造性を広げるための新たなアプローチを提案します．従来の音色カテゴリの概念を取り払い，１）音響特徴量のみに依存した音色間の関連性を計算し，２）視覚的に音色間の関係を確認可能にするインタフェースを構築しました．カテゴリを横断して音色間の類似性を可視化することで，従来の音色カテゴリに縛られない偶察的な音色探索を提供します．本講演では，提案アプローチの背景，技術概要，およびユーザテストによる有用性について口述します．
CATEGORIES:TALK (JAPANESE) / トーク（日本語）
LOCATION:Next 3\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:702f1c1db12d5b940579d08c295f72f8
URL:http://adcjapan26.sched.com/event/702f1c1db12d5b940579d08c295f72f8
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260603T060000Z
DTEND:20260603T070000Z
SUMMARY:Making Beats with React: Cross-Platform Audio Dev with Elementary / React でビート制作：Elementary を使用したクロスプラットフォーム オーディオ開発
DESCRIPTION:Building cross-platform audio apps is difficult - and for a long time\, Android lagged far behind iOS when it came to music-making tools. That's changing. Elementary Audio introduces a new paradigm for audio experiences: by exposing a shared JS API with both web and native renderers\, it makes code reuse across platforms feel natural. In this talk\, I'll introduce Elementary Audio\, walk through react-native-elementary\, and demo what's possible to build with it today - including how AI is removing what little friction remains.\n \n クロスプラットフォーム対応のオーディオアプリの構築は難しく、長い間、音楽制作ツールに関してはAndroidがiOSから大きく遅れていました。しかし、その状況は変わりつつあります。Elementary Audioは、オーディオ体験の新しいパラダイムを導入しています。Webとネイティブレンダラーの両方に対応した共有JS APIを公開することで、プラットフォーム間でのコード再利用が自然に感じられるようになります。このトークでは、Elementary Audioを紹介し、react-native-elementaryについて説明し、今日実現できる可能性をデモンストレーションします。AIがいかに残された摩擦をわずかなものにしているかについても含めます。
CATEGORIES:TALK (ENGLISH) / トーク（英語）
LOCATION:Next 2\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:3affeb94fc70703775b7ffc6c9853aca
URL:http://adcjapan26.sched.com/event/3affeb94fc70703775b7ffc6c9853aca
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260603T060000Z
DTEND:20260603T070000Z
SUMMARY:Improving the audio quality of the Head-Related Transfer Function using machine learning / 機械学習による頭部伝達関数の音質向上
DESCRIPTION:The Head-Related Transfer Function (HRTF) is a key technology for three-dimensional binaural audio rendering. However\, issues regarding audio quality and HRTF personalization must be resolved for this technology to be adopted more widely. When HRTFs are applied to music production\, audio quality may become problematic. Additionally\, since HRTFs exhibit significant individual variation\, personalized HRTFs—that is\, HRTFs measured or customized for each user—are desirable\, but cost becomes an issue. Therefore\, for widespread adoption of HRTFs\, a typical HRTF that provides consistent effectiveness for everyone is needed.\n \n The speaker proposes using Generalized HRTF (GHRTF) based on machine learning as a solution to these problems. This presentation first outlines the fundamentals and challenges of HRTFs and binaural rendering. Then it presents the definition of GHRTFs that achieve high audio quality\, along with estimation methods based on machine learning and their results. Next\, the presentation demonstrates a learning method for Typical GHRTFs based on data from numerous subjects and provides estimation examples. Finally\, the presentation describes its application to SoundObject\, an object-based three-dimensional spatial audio VST 3 plug-in that the speaker has made freely available to the public. The presentation concludes that this approach yields clearer directionality and higher audio quality compared to conventional dummy head HRTFs.\n \nThe presentation materials are in both English and Japanese. \n\n 頭部伝達関数 (Head-Related Transfer Function: HRTF) はバイノーラル再生による立体音響のキーテクノロジーです．しかし，この技術の普及には音質と頭部伝達関数の個人化の問題を解決する必要があります．頭部伝達関数を音楽制作に適用した場合，音質が問題となる場合があります．また，頭部伝達関数は個人差が大きいため，頭部伝達関数の個人化，即ち利用者毎に計測ないしカスタマイズした頭部伝達関数の使用が望ましいが，コストが問題となります．従って，頭部伝達関数の普及には，誰でも一定の効果が得られる典型的な頭部伝達関数が必要となります．\n \n 講演者はこれらの問題の解決方法として，機械学習による一般化頭部伝達関数 (Generalized HRTF) を提案しています．本講演は最初に，頭部伝達関数およびバイノーラル再生の概要と課題を述べます．そして，高い音質を実現する一般化頭部伝達関数の定義と機械学習による推定方法と推定結果を示します．次に本講演は，多数の被験者データに基づく典型的な一般化頭部伝達関数 (Typical GHRTF) の学習方法と推定例を示します．最後に，講演者が無償で公開しているオブジェクトベースの 3 次元立体音響 VST3 プラグインである SoundObject への適用を述べ，従来のダミーヘッドによる頭部伝達関数と比較して，より明確な方向感と高い音質が得られる事を述べます．\n\nプレゼンテーション資料は英語日本語併記となります．
CATEGORIES:TALK (JAPANESE) / トーク（日本語）
LOCATION:Next 1\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:ec9d31174e9739d366ae58aba4334a31
URL:http://adcjapan26.sched.com/event/ec9d31174e9739d366ae58aba4334a31
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260603T070000Z
DTEND:20260603T073000Z
SUMMARY:Break & Networking / 休憩とネットワーキング
DESCRIPTION:\n
CATEGORIES:GENERAL / 一般的な
LOCATION:Next 2\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:2f0c4b6c3ddd29e60a87275fc9e523ae
URL:http://adcjapan26.sched.com/event/2f0c4b6c3ddd29e60a87275fc9e523ae
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260603T070000Z
DTEND:20260603T073000Z
SUMMARY:Break & Networking / 休憩とネットワーキング
DESCRIPTION:\n
CATEGORIES:GENERAL / 一般的な
LOCATION:Next 1\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:cb42b51c1dedb003590a36abcc534fe2
URL:http://adcjapan26.sched.com/event/cb42b51c1dedb003590a36abcc534fe2
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260603T070000Z
DTEND:20260603T073000Z
SUMMARY:Break & Networking / 休憩とネットワーキング
DESCRIPTION:\n
CATEGORIES:GENERAL / 一般的な
LOCATION:Next 3\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:df1767c835352f12b75a3134d121ceb3
URL:http://adcjapan26.sched.com/event/df1767c835352f12b75a3134d121ceb3
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260603T073000Z
DTEND:20260603T080000Z
SUMMARY:Sponsor Talk 10
DESCRIPTION:\n
CATEGORIES:SPONSOR TALK / スポンサートーク
LOCATION:Next 1\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:4b2af853e61e0d7fa758b31c4ab36d7c
URL:http://adcjapan26.sched.com/event/4b2af853e61e0d7fa758b31c4ab36d7c
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260603T073000Z
DTEND:20260603T080000Z
SUMMARY:Sponsor Talk 11
DESCRIPTION:\n
CATEGORIES:SPONSOR TALK / スポンサートーク
LOCATION:Next 2\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:2de2a40b7480d395abaf74cd4e54219c
URL:http://adcjapan26.sched.com/event/2de2a40b7480d395abaf74cd4e54219c
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260603T073000Z
DTEND:20260603T080000Z
SUMMARY:Sponsor Talk 12
DESCRIPTION:\n
CATEGORIES:SPONSOR TALK / スポンサートーク
LOCATION:Next 3\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:28afc32ee4e05bd9435a331b06172059
URL:http://adcjapan26.sched.com/event/28afc32ee4e05bd9435a331b06172059
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260603T080000Z
DTEND:20260603T090000Z
SUMMARY:Multi-purpose Functional DSP Processing Programming Language\, mimium / 多目的な関数型DSP処理プログラミング言語mimium
DESCRIPTION:mimium (https://mimium.org) is a functional programming language designed for audio processing with syntax similar to Rust. It runs on both native and web platforms\, and allows oscillators and signal processing to be defined from a very low level. It also features a proprietary live coding capability based on differential analysis of source code\, enabling hot-swapping of signal processing code without resetting the internal state of the audio. This presentation will explain the details of its design and implementation.\n \n mimium(https://mimium.org)は、Rustに似たシンタックスを持つ関数型のオーディオ処理を目的としたプログラミング言語である。ネイティブ/Webのどちらでも動作し、オシレーターや信号処理を非常に低レベルから定義することができる。また、ソースコードの差分解析に基づく独自のライブコーディング機能を持ち、オーディオの内部状態をリセットせずに信号処理のコードをホットスワップすることができる。本講演ではその設計と実装の詳細を解説する。
CATEGORIES:TALK (ENGLISH) / トーク（英語）
LOCATION:Next 3\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:d0b6c3bb06916e337dc551fad6e575f3
URL:http://adcjapan26.sched.com/event/d0b6c3bb06916e337dc551fad6e575f3
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260603T080000Z
DTEND:20260603T090000Z
SUMMARY:Real-Time Raytraced Acoustics / リアルタイムレイトレース音響
DESCRIPTION:Real-time convolution reverb is well understood\, but continuously synthesizing long\, spatial impulse responses (IRs) at runtime remains a significant engineering and perceptual challenge. This session presents a hybrid GPU/CPU acoustics pipeline that synthesizes listener-centric IRs in real time using multi-bounce raytracing. The pipeline is currently integrated into Elemental Games’ proprietary engine for its unannounced open-world debut title.\n \n The system models frequency-dependent absorption\, geometric propagation\, and spatial encoding using Ambisonics\, while balancing physical plausibility with perceptual clarity. Beyond straightforward multi-bounce tracing\, the implementation explores performance-aware sampling strategies and hybrid visibility heuristics to better capture the contrast between enclosed and open spaces. Adaptive update strategies dynamically adjust IR refresh rates based on listener motion and scene changes\, maintaining perceptual stability while respecting GPU budgets.\n \n IR data is prepared using partitioned FFT processing on the GPU and transferred to the audio thread through a wait-free synchronization model\, enabling stable time-varying convolution without blocking real-time audio processing. Particular focus is given to artifact-free IR updates under evolving conditions\, including hybrid time- and frequency-domain crossfading techniques.\n \n The talk examines architectural decisions\, modeling trade-offs\, perceptual post-processing techniques such as diffusion and stochastic smoothing\, and the practical constraints of integrating real-time acoustic synthesis into a production engine. Attendees will gain insight into designing hybrid GPU/CPU DSP pipelines that balance physical modeling\, runtime performance\, and creative control.\n \n リアルタイム畳み込みリバーブはよく理解されていますが、長い空間インパルス応答(IR)をランタイムで継続的に合成することは、依然として重大なエンジニアリングおよび知覚的課題です。このセッションでは、マルチバウンスレイトレーシングを使用してリスナー中心のIRをリアルタイムで合成するハイブリッドGPU/CPUアコースティクスパイプラインを紹介します。このパイプラインは、現在Elemental Gamesの独自エンジンに統合されており、未発表のオープンワールドデビュータイトルに使用されています。\n \n このシステムは、周波数依存吸収、幾何学的伝播、アンビソニクスを使用した空間符号化をモデル化しながら、物理的妥当性と知覚的明瞭性のバランスを取ります。単純なマルチバウンストレーシングを超えて、実装ではパフォーマンス対応サンプリング戦略とハイブリッド可視性ヒューリスティックを探索し、囲まれた空間とオープンスペース間のコントラストをより良く捉えます。適応更新戦略は、リスナーの動きとシーン変化に基づいてIRリフレッシュレートを動的に調整し、GPU予算を尊重しながら知覚的安定性を維持します。\n \n IRデータはGPU上の分割FFT処理を使用して準備され、ウェイトフリー同期モデルを通じてオーディオスレッドに転送され、リアルタイムオーディオ処理をブロックせずに安定した時変畳み込みを実現します。特に焦点が当てられているのは、時間領域および周波数領域のハイブリッドクロスフェード技術を含む、進化する条件下でのアーティファクト無しのIR更新です。\n \n このトークでは、アーキテクチャの決定、モデリングのトレードオフ、拡散と確率的スムージングなどの知覚的後処理技術、およびリアルタイム音響合成をプロダクションエンジンに統合するための実際的な制約を検討します。参加者は、物理モデリング、ランタイムパフォーマンス、クリエイティブコントロールのバランスを取るハイブリッドGPU/CPU DSPパイプラインの設計に関する洞察を得ることができます。
CATEGORIES:TALK (ENGLISH) / トーク（英語）
LOCATION:Next 1\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:a10f492a0656ab44a4ef98c1dc10fa18
URL:http://adcjapan26.sched.com/event/a10f492a0656ab44a4ef98c1dc10fa18
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260603T080000Z
DTEND:20260603T090000Z
SUMMARY:Core Technologies Supporting Miku Hatsune and Future Development / 初音ミクを支える基幹技術と今後の展開
DESCRIPTION:Hatsune Miku has evolved beyond a mere sound source into a "singing voice synthesizer" equipped with advanced expressiveness and real-time responsiveness. This session explains the core technologies of real-time singing voice synthesis developed to meet these requirements\, focusing on the architectural shift from conventional subtractive synthesis-based singing synthesis methods to additive synthesis-based approaches.\n \n We delve into fundamental technical challenges in singing voice synthesis: "balancing computational cost with the fidelity of spectral reconstruction" and "ensuring precise controllability without compromising naturalness." In particular\, we detail why the additive synthesis architecture was adopted\, and discuss the advantages and trade-offs in time-series fidelity and spectral manipulation flexibility compared to other methods such as subtractive synthesis.\n \n Additionally\, as optimization strategies for maintaining real-time performance in general consumer environments\, we address parameter compression concepts and computational load management techniques. Finally\, we share future perspectives including SDK-oriented design to support next-generation creativity and engine extensibility.\n \n 初音ミクは単なる音源の枠を超え、高度な表現力と即時応答性を備えた「歌声シンセサイザ」へと進化を遂げてきました。本セッションでは、これらの要件を満たすために開発されたリアルタイム歌声合成の基幹技術について、従来の減算合成ベースの歌唱合成方式から加算合成ベースのアプローチへのアーキテクチャ転換を中心に解説します。\n 歌声合成における根本的な技術課題である「計算コストとスペクトル再構築の忠実度の両立」、そして「自然さを損なわない緻密な制御性の確保」について掘り下げます。特に、なぜ加算合成アーキテクチャを採用したのか、減算合成等の他方式と比較した際の時系列上の忠実度やスペクトル操作の自由度における利点とトレードオフについて詳述します。\n また、一般的なコンシューマ環境でリアルタイム性能を維持するための最適化戦略として、パラメータ圧縮の思想や計算負荷の管理手法についても触れます。最後に、次世代のクリエイティビティを支えるためのSDK化を見据えた設計や、エンジンの拡張可能性など、今後の展望を共有します。
CATEGORIES:TALK (JAPANESE) / トーク（日本語）
LOCATION:Next 2\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:7c35117d08c98276859430b633f89c8a
URL:http://adcjapan26.sched.com/event/7c35117d08c98276859430b633f89c8a
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260603T090000Z
DTEND:20260603T093000Z
SUMMARY:Closing Remarks / 閉会の辞
DESCRIPTION:\n
CATEGORIES:ANNOUNCEMENT / 発表
LOCATION:Akiba Square\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:9f57725ee5190065e4b8105a374da6b8
URL:http://adcjapan26.sched.com/event/9f57725ee5190065e4b8105a374da6b8
END:VEVENT
BEGIN:VEVENT
DTSTAMP:20260511T015558Z
DTSTART:20260603T093000Z
DTEND:20260603T100000Z
SUMMARY:Networking / ネットワーキング
DESCRIPTION:\n
CATEGORIES:GENERAL / 一般的な
LOCATION:Akiba Square\, Akihabara\, Taito City\, Tokyo\, Japan
SEQUENCE:0
UID:6c900c4d87cecdd6cadb37f0fbd7b075
URL:http://adcjapan26.sched.com/event/6c900c4d87cecdd6cadb37f0fbd7b075
END:VEVENT
END:VCALENDAR
