Loading…
arrow_back View All Dates
Tuesday, June 2
 

7:30am JST

Registration / 登録
Tuesday June 2, 2026 7:30am - 9:00am JST

Tuesday June 2, 2026 7:30am - 9:00am JST
Akiba Square

9:00am JST

Designing Interactive Music Experiences in XR / XRにおけるインタラクティブ音楽体験のデザイン
Tuesday June 2, 2026 9:00am - 10:00am JST
(m)ORPH began as an experiment to disrupt traditional DAW-based stereo mixing and evolved into an XR platform for interactive music, immersive spatial-audio listening, and live performance. Using Unity, Wwise, HRTF rendering, and physics-driven behaviors, the system treats audio objects as spatial entities whose distance, motion, and interaction shape both mix and composition in real time. This session examines the architectural decisions, technical implementation, gestural interface design, and intentional abstraction that enable emergent behavior and “musical happy accidents.” Attendees will gain insight into designing interactive audio systems that function as instruments rather than playback engines, and inspire a new breed of music lovers who want to actively engage rather than passively consume.

(m)ORPHは従来のDAWベースのステレオミキシングを破壊するための実験として始まり、インタラクティブな音楽探索、没入型空間オーディオリスニング、ライブパフォーマンスのためのXRプラットフォームへと進化しました。Unity、Wwise、HRTF レンダリング、物理駆動動作を使用して、このシステムはオーディオオブジェクトを空間的なエンティティとして扱い、その距離、動き、相互作用がリアルタイムでミックスと構成の両方を形成します。このセッションでは、アーキテクチャ上の決定、技術的実装、ジェスチャーインターフェース設計、創発的動作と「音楽的な幸運な偶然」を可能にする意図的な抽象化を検討します。参加者は、再生エンジンではなく楽器として機能するインタラクティブなオーディオシステムの設計について洞察を得ることができ、積極的に関わりたい新しいタイプの音楽愛好家にインスピレーションを与えます。
Speakers
avatar for Kasson Crooker

Kasson Crooker

Founder, Speed of Dark Studios
Audio-technologist, spatial audio evangelist, creator of music XR & games; ex-THX, ex-MSFT/HoloLens, ex-Harmonix (Game & Audio Director); Founder of Speed of Dark Studios (composer & audio producer)

Tuesday June 2, 2026 9:00am - 10:00am JST
Next 2

9:00am JST

Distribution Strategies for Indie Audio Developers - From Plugin to Product / インディーオーディオ開発者のための配布戦略 - プラグインから製品へ
Tuesday June 2, 2026 9:00am - 10:00am JST
Building a great-sounding audio plugin is no longer enough to ensure real-world adoption. In today’s highly saturated plugin market, distribution has become the missing layer between development and sustainability. Many technically strong plugins remain invisible simply because developers do not have a clear distribution strategy. How do musicians actually discover plugins today? Which channels are worth investing time and energy into, and which ones look promising but rarely lead to real adoption?

In this talk, I will approach distribution not as marketing, but as a product design and infrastructure problem. I will share real-world experience from running my a boutique audio plugin company and walk through the decisions behind building visibility, discoverability, and long-term viability. I will show how distribution choices influence product design, onboarding, and communication, and why these decisions should not be treated as post-launch tasks. The session focuses on practical examples, measurable outcomes, and clear prioritization rather than hype or short-term tactics. By the end of the talk, attendees will have a clearer mental model of how distribution fits into the audio plugin lifecycle, and how to approach it in a focused and sustainable way without losing sight of development.

Topics covered
- Distribution vs marketing and why the distinction matters for developers
- How musicians discover and evaluate audio plugins today
- Direct sales, platforms, resellers, creators, and affiliate ecosystems
- Distribution as a product constraint, designing plugins that are easier to explain, demo, and adopt
- Email, content, and partnerships as part of onboarding, not post-launch add-ons
Common distribution mistakes indie developers make and how to avoid them

素晴らしいサウンドのオーディオプラグインを開発することだけでは、実際の採用を保証するには十分ではなくなりました。今日の飽和状態にあるプラグイン市場では、ディストリビューションが開発と持続可能性の間の欠落したレイヤーになっています。技術的に優れた多くのプラグインは、開発者が明確なディストリビューション戦略を持っていないという理由だけで見えないままになっています。ミュージシャンは実際に今日どのようにプラグインを発見するのでしょうか?どのチャネルに時間とエネルギーを投資する価値があり、どのチャネルは有望に見えますが実際の採用につながることはめったにないのでしょうか?

このセッションでは、ディストリビューションをマーケティングではなく、プロダクトデザインとインフラストラクチャの問題として扱います。私のブティック型オーディオプラグイン企業の運営から得た実世界の経験を共有し、可視性、発見可能性、長期的な実行可能性を構築するための決定について説明します。ディストリビューション選択がプロダクトデザイン、オンボーディング、コミュニケーションにどのような影響を与えるのか、そしてなぜこれらの決定をローンチ後のタスクとして扱うべきではないのかを示します。このセッションは、実践的な例、測定可能な成果、明確な優先順位付けに焦点を当てており、ハイプや短期的な戦術ではありません。このセッションの終わりに、参加者はディストリビューションがオーディオプラグインのライフサイクルにどのように適合するかについて、より明確なメンタルモデルを持つようになり、開発を見失うことなく焦点を絞った持続可能な方法でそれにアプローチする方法を理解するでしょう。

カバーするトピック
- ディストリビューションとマーケティングの違い、および開発者にとってなぜその区別が重要なのか
- 今日ミュージシャンがオーディオプラグインをどのように発見および評価するか
- 直販、プラットフォーム、リセラー、クリエイター、アフィリエイトエコシステム
- プロダクト制約としてのディストリビューション、説明、デモンストレーション、採用がしやすいプラグインの設計
- メール、コンテンツ、パートナーシップをローンチ後のアドオンではなく、オンボーディングの一部として
インディー開発者が犯す一般的なディストリビューション上の誤りと、それを回避する方法
Speakers
avatar for Dani Karanyi

Dani Karanyi

Founder, Karanyi Sounds
Founder of Karanyi Sounds, a boutique audio plugin company with 100k+ users - including Grammy-winning producers and composers scoring Netflix trailers. Over the last decade, Dani has led product, marketing, and distribution across direct sales, white-label deals, marketplaces, and... Read More →
Tuesday June 2, 2026 9:00am - 10:00am JST
Next 3

9:00am JST

Hardware DSP Asset Inheritance and Evolution: Development of DSP Assembly Automatic Conversion Software for MONTAGE M Compatible Software Synthesizers / ハードウェアDSP資産の継承と進化:MONTAGE M互換ソフトシンセにおけるDSPアセンブリ自動変換ソフト開発
Tuesday June 2, 2026 9:00am - 10:00am JST
For many companies, legacy code is an important technical asset, yet it often presents challenges in terms of future maintainability and development efficiency. In Yamaha's effect processing for electronic musical instruments, which has been developed over many years, highly optimized DSP assembly for dedicated DSPs is used. While these are important elements supporting high competitiveness, they have also become major barriers to platform expansion and software implementation.

ESP, released in 2024 (https://jp.yamaha.com/products/music_production/apps/esp_montagem/index.html), reproduces the signal processing of MONTAGE M (a hardware synthesizer) in software. During ESP's development, the effects section required a mechanism to reliably convert DSP assembly to C++. To address this, we developed software that automatically converts DSP assembly to C++ code. This software not only significantly improved the porting efficiency of existing DSP assembly, but also enabled stable support for new DSP assembly to be added in the future.

In this presentation, we will share the "challenges and concerns" encountered during the development of DSP assembly → C++ automatic conversion software, as well as "insights gained after completion." We look forward to sharing technical perspectives with engineers facing similar challenges and discussing better development approaches.

The issues and processes covered in this presentation extend beyond the DSP domain to areas such as "legacy asset succession," "optimized code migration," and "approaches and points of focus when implementing automation tools," with the aim of providing practical insights that you can take back to your work.

多くの企業にとってレガシーコードは重要な技術資産である一方、将来的な保守性や開発効率の面で課題を抱えることも少なくありません。ヤマハが長年にわたり開発してきた電子楽器向けエフェクト処理においても、専用DSP向けに高度に最適化されたDSPアセンブリが用いられています。これらは高い競争力を支える重要な要素である一方、他プラットフォーム展開やソフトウェア化を進める上で大きな障壁にもなっていました。

2024年にリリースされた ESP(https://jp.yamaha.com/products/music_production/apps/esp_montagem/index.html) では、MONTAGE M(ハードウェアシンセサイザー)の信号処理をソフトウェア上で再現しています。ESP の開発に際し、エフェクト部では DSP アセンブリを安定的に c++ へ変換する仕組みが必要となりました。そこで私たちは、DSPアセンブリを c++ コードに自動変換するソフトウェアを開発しました。このソフトウェアにより、既存DSPアセンブリの移植効率が大幅に向上しただけでなく、今後追加される新規DSPアセンブリにも安定的に対応できるようになりました。

本発表では、DSPアセンブリ → c++ 自動変換ソフトウェア開発上の「苦労・悩み」と「完成後に得た気づき」を共有します。同様の課題に直面するエンジニアの皆さまと技術的視点を共有し、より良い開発方法を議論できることを楽しみにしています。

本発表で扱う課題とプロセスは、DSP領域に留まらず「レガシー資産の継承」「最適化済みコードの移行」「自動化ツール導入時の進め方や着眼点」といった分野にも通じる内容であり、実務に役立つ示唆を持ち帰っていただくことを目指します。
Speakers
Tuesday June 2, 2026 9:00am - 10:00am JST
Next 1

9:00am JST

Sponsor Exhibits / 協賛展示品
Tuesday June 2, 2026 9:00am - 6:00pm JST

Tuesday June 2, 2026 9:00am - 6:00pm JST
Akiba Square

10:00am JST

Anti-aliased Black-Box Of Audio Distortion Circuits Using Real Recurrent Units / リアル再帰ユニットを使用したアンチエイリアス処理されたオーディオ歪み回路のブラックボックス
Tuesday June 2, 2026 10:00am - 11:00am JST
Proposal of a black-box modeling method for audio distortion circuits using neural networks with real-valued Linear Recurrent Units (LRU). Furthermore, by employing anti-aliasing techniques (ADAA), we demonstrate the realization of a high-precision and computationally efficient model that enables real-time operation on DAWs.

実数値 Linear Recurrent Unit(LRU)を用いたニューラルネットワークにより、オーディオ歪み回路のブラックボックスモデリング手法の提案。さらにアンチエイリアシング手法(ADAA)を用い、高精度かつ計算効率の高いモデルを実現し、DAW上でのリアルタイム動作が可能であることを示す。
Speakers
Tuesday June 2, 2026 10:00am - 11:00am JST
Next 1

10:00am JST

BEEPS and PORTS : annoy everyone in your house while building an audio synthesizer ビープ音とポート:オーディオシンセサイザーを構築しながら家中の誰もが迷惑する
Tuesday June 2, 2026 10:00am - 11:00am JST
Follow my two-plus-year (but really life-long journey) to make exactly the sound creation tools that I always wanted and that no one else asked for.

2年以上(でも本当には生涯にわたる)の旅に従い、私がいつも欲しかった、そして他の誰も求めていない音声作成ツールを正確に作ることです。
Speakers
avatar for Joseph Stewart

Joseph Stewart

Principal Engineer R&D - Ex-Kuiper, Ex-Meta, Ex-Intel, Ex-Cisco, Ex-Sony, Ex-Philips, Octetta
I like to think about things and then build them.
Tuesday June 2, 2026 10:00am - 11:00am JST
Next 2

11:00am JST

Break & Networking / 休憩とネットワーキング
Tuesday June 2, 2026 11:00am - 11:20am JST

Tuesday June 2, 2026 11:00am - 11:20am JST
Next 1

11:00am JST

Break & Networking / 休憩とネットワーキング
Tuesday June 2, 2026 11:00am - 11:20am JST

Tuesday June 2, 2026 11:00am - 11:20am JST
Next 2

11:00am JST

Break & Networking / 休憩とネットワーキング
Tuesday June 2, 2026 11:00am - 11:20am JST

Tuesday June 2, 2026 11:00am - 11:20am JST
Next 3

11:20am JST

Automated Circuit Measurement for Neural Network Training / ニューラルネットワークトレーニング用の自動回路測定
Tuesday June 2, 2026 11:20am - 12:20pm JST
Machine Learning has revolutionized audio coding, from automated processing to distortion modeling. However, ML models are only as good as the data they're trained on. High-quality, *large* datasets are crucial for this effort. Rather than rely on external datasets, this talk will empower audio developers by providing a practical guide to building an autonomous circuit measurement setup for data acquisition.

We begin with explaining the need for automated data collection. While manual measurement has limits when it comes to consistency and cost, a computer-based approach scales effortlessly, and can allow more complex measurements, such as varying the temperature of the measured circuit. And did we mention that it can function 24 hours a day, 7 days a week?

Then, we cover the hardware requirements for the measurement setup: signal generators that have the sampling rate, bit-depth and impedance for high-quality audio, a computer or microcontroller to guide the measurements in realtime, and appropriate Analog-to-Digital Converters (ADCs) to close the loop. We focus on practical, easy, and above all affordable options, rather than specialty Test & Measurement hardware.

Going forward, we describe the software involved in the setup: from the choice of programming language, to the types of different measurements. We pay special attention to realtime (i.e. streaming) measurements, as they allow the most control over hardware parameters and can climb in complexity using feedback from the measurements themselves.

Following that is a brief discussion of precision. It's critical to understand calibration techniques for our sensors, as well as minimize the noise of our measurements.

Moving on, we take things to the next level: using configuration files to set up entire test suites, designing hardware in a modular fashion so that each piece can be tested in isolation, and taking advantage of reconfigurable hardware to achieve a higher degree of abstraction.

Finally, we will provide resources for further exploration, including a GitHub repo with code examples for hardware measurements.

機械学習は、自動処理から歪みモデリングまで、オーディオコーディングに革命をもたらしました。しかし、MLモデルは学習データと同程度の性能しか発揮できません。高品質で*大規模な*データセットはこの取り組みに不可欠です。外部データセットに頼るのではなく、このトークではオーディオ開発者にデータ取得用の自律回路測定セットアップの構築方法に関する実践的なガイドを提供することで、開発者をサポートします。

まず、自動データ収集の必要性について説明します。手動測定は一貫性とコストの観点で限界がありますが、コンピュータベースのアプローチは簡単にスケーリングでき、測定対象回路の温度を変化させるなど、より複雑な測定を行うことができます。さらに、1日24時間、週7日間機能することができます。

次に、測定セットアップのハードウェア要件について説明します。高品質なオーディオのためのサンプリングレート、ビット深度、インピーダンスを備えた信号生成器、リアルタイムで測定を制御するコンピュータまたはマイクロコントローラ、そしてループを閉じるための適切なアナログ・デジタル変換器(ADC)が必要です。専門的なテスト・計測ハードウェアではなく、実用的で使いやすく、何よりも手頃な選択肢に焦点を当てます。

次に、セットアップに関わるソフトウェアについて説明します。プログラミング言語の選択から、さまざまな測定タイプまでです。リアルタイム(つまりストリーミング)測定に特に注意を払います。これにより、ハードウェアパラメータを最大限に制御でき、測定自体からのフィードバックを使用して複雑さを増すことができます。

その後、精度に関する簡潔な議論があります。センサーの校正技術を理解し、測定のノイズを最小化することが重要です。

さらに進んで、設定ファイルを使用してテストスイート全体をセットアップし、各部品を独立してテストできるようにハードウェアをモジュール設計し、より高い抽象化レベルを達成するために再構成可能なハードウェアを活用します。

最後に、ハードウェア測定用のコード例を含むGitHubリポジトリなど、さらなる探索のためのリソースを提供します。
Speakers
avatar for George Gkountouras

George Gkountouras

Founder, Arthurian Audio
George Gkountouras (MSc ECE) is a software engineer, researcher and entrepreneur in the audio software industry. He believes that AI will enable the creation of state-of-the-art music technology products. He has previously given talks at ADC about his quantum sequencer application... Read More →
Tuesday June 2, 2026 11:20am - 12:20pm JST
Next 1

11:20am JST

MIDI Matters : Symbolic Music in the Age of Neural Audio / MIDIの重要性:ニューラルオーディオの時代における記号音楽
Tuesday June 2, 2026 11:20am - 12:20pm JST
Recent advances in AI music technology have largely focused on generating and manipulating raw audio. Diffusion models, neural synthesizers, and source separation systems have made waveform-level processing more powerful than ever. However, many creative tools for musicians still struggle with control, editability, and real-time interaction when operating directly on audio.

In this talk, we explore why symbolic representations—especially MIDI—remain a crucial layer for building practical and expressive AI music tools.

Rather than treating MIDI as a legacy protocol, we examine how it provides a powerful abstraction for structure, intent, and musical interaction. MIDI enables precise editing, controllable generation, and seamless integration with existing creative workflows. When combined with modern AI models, it becomes a flexible interface between human musical ideas and machine-generated content.

Through examples from our own researched, developed and deployed tools, we show how MIDI can serve as the control plane for generative music tools. Topics will be on the lines of symbolic-to-audio pipelines, AI-assisted composition workflows, expressive performance data, and hybrid systems that combine MIDI reasoning with neural audio synthesis.

The talk argues that many future music tools will not be purely “audio AI,” but instead layered systems where symbolic representations guide audio generation.

AI音楽技術の最近の進展は、主に生オーディオの生成と操作に焦点を当ててきました。拡散モデル、ニューラルシンセサイザー、ソース分離システムは、波形レベルの処理をこれまで以上に強力にしました。しかし、ミュージシャン向けの多くのクリエイティブツールは、オーディオを直接操作する際に、制御性、編集可能性、リアルタイム相互作用の面で依然として課題があります。

本トークでは、シンボリック表現、特にMIDIが、実用的で表現力豊かなAI音楽ツールを構築するための重要なレイヤーとして残る理由を探ります。

MIDIをレガシープロトコルとして扱うのではなく、構造、意図、音楽的相互作用に対する強力な抽象化を提供する方法を検討します。MIDIは正確な編集、制御可能な生成、既存のクリエイティブワークフローとのシームレスな統合を可能にします。最新のAIモデルと組み合わせると、人間の音楽的アイデアと機械生成コンテンツの間の柔軟なインターフェースになります。

当社が研究、開発、導入したツールの例を通じて、MIDIが生成音楽ツールのコントロールプレーンとしてどのように機能できるかを示します。トピックは、シンボリック・トゥ・オーディオパイプライン、AIアシスト作曲ワークフロー、表現力豊かなパフォーマンスデータ、およびMIDI推論とニューラルオーディオ合成を組み合わせたハイブリッドシステムについてです。

このトークは、今後の多くの音楽ツールは純粋な「オーディオAI」ではなく、シンボリック表現がオーディオ生成を導くレイヤー化されたシステムになるだろうと主張しています。
Speakers
Tuesday June 2, 2026 11:20am - 12:20pm JST
Next 3

11:20am JST

FPGA-Based Alias-Free Oscillator: 50MHz Waveform Generation and 1-bit ΔΣ DAC Implementation / FPGAベースのエイリアスフリー・オシレーター:50MHz駆動の波形生成と1bit ΔΣ DACの実装 FPGA-Based Alias-Free Oscillator: 50MHz Waveform Generation and 1-bit ΔΣ DAC Implementation
Tuesday June 2, 2026 11:20am - 12:20pm JST
This session explores the implementation of an oscillator that leverages the 50MHz clock of an inexpensive FPGA to generate waveforms at ultra-high sample rates far beyond the audible range. By concentrating computational resources on the sample rate rather than bit depth, we achieve alias-free output of harmonics exceeding 100kHz. We will share practical know-how for fully integrating the entire process on-chip—from computation to audio output via a 1-bit ΔΣ DAC—without relying on microcontrollers or external DAC ICs.

廉価なFPGAの50MHz駆動を活かし、可聴域を遥かに超える超高サンプルレートで波形を生成するオシレーターの実装手法を解説します。 ビット深度ではなく超高サンプルレートにリソースを集中させることで、100kHz以上の倍音をエイリアスフリーに出力します。 演算から1bit ΔΣ DACによる音声出力まで、マイコンや外付けDACに頼らずチップ内部で完全統合する実践的なノウハウを共有します。
Speakers
avatar for 岡安啓幸 Akiyuki Okayasu

岡安啓幸 Akiyuki Okayasu

R&D Lead, Yamamoto Works Ltd.
モジュラーシンセメーカーGroundless Electronicsの創設者・エンジニア。 オーディオ信号処理技術を活かした自作ソフトウェアでの音楽制作を起点に、2017年頃よりハードウェア開発へ領域を拡大。アナログ回路やMIDI機器の設計を経て、2022... Read More →
Tuesday June 2, 2026 11:20am - 12:20pm JST
Next 2

12:20pm JST

Sponsor Talk 1
Tuesday June 2, 2026 12:20pm - 12:50pm JST

Tuesday June 2, 2026 12:20pm - 12:50pm JST
Next 1

12:20pm JST

Sponsor Talk 2
Tuesday June 2, 2026 12:20pm - 12:50pm JST

Tuesday June 2, 2026 12:20pm - 12:50pm JST
Next 2

12:20pm JST

Sponsor Talk 3
Tuesday June 2, 2026 12:20pm - 12:50pm JST

Tuesday June 2, 2026 12:20pm - 12:50pm JST
Next 3

12:50pm JST

Lunch & Networking / ランチとネットワーキング
Tuesday June 2, 2026 12:50pm - 2:00pm JST

Tuesday June 2, 2026 12:50pm - 2:00pm JST
Next 1

12:50pm JST

Lunch & Networking / ランチとネットワーキング
Tuesday June 2, 2026 12:50pm - 2:00pm JST

Tuesday June 2, 2026 12:50pm - 2:00pm JST
Next 2

12:50pm JST

Lunch & Networking / ランチとネットワーキング
Tuesday June 2, 2026 12:50pm - 2:00pm JST

Tuesday June 2, 2026 12:50pm - 2:00pm JST
Next 3

2:00pm JST

TX/RX Part 2: AI Audio on the Raspberry Pi / TX/RX Part 2: ラズベリーパイ上のAIオーディオ
Tuesday June 2, 2026 2:00pm - 3:00pm JST
This talk is a continuation of previous talks at ADC'21 and ADCx'23. We will take an in-depth look at deploying AI Audio Inference workloads to the Raspberry Pi 5. The RPi 5 can be a useful target in and of itself, and also a reference target for later deployment to other embedded platforms (Compute Module 5, Qualcomm, etc.). This talk will have a particular focus on workloads that are useful in the automotive industry.

このトークは、ADC'21とADCx'23での以前のトークの続編です。AI音声推論ワークロードをRaspberry Pi 5にデプロイすることについて、詳しく見ていきます。RPi 5は、それ自体で有用なターゲットとなるだけでなく、後で他の組み込みプラットフォーム(Compute Module 5、Qualcommなど)へのデプロイメントのための参照ターゲットとしても機能します。このトークは、自動車産業で有用なワークロードに特に焦点を当てます。
Speakers
avatar for Kieran Coulter

Kieran Coulter

Principal Systems Engineer, QNX
Kieran holds a Bachelor of Music from the University of Ottawa and a Bachelor of Computer Science from the University of British Columbia.

He has worked for the past 12 years in a variety of roles in the audio software industry, developing specializations in spatial audio, voice processing, and embedded... Read More →

Tuesday June 2, 2026 2:00pm - 3:00pm JST
Next 1

2:00pm JST

Type-Erased Audio Parameters: A New Approach to an Old Problem / 型消去オーディオパラメータ:古い問題への新しいアプローチ
Tuesday June 2, 2026 2:00pm - 3:00pm JST
Most audio plugins need parameters. For example, a low-pass filter plugin can provide a cutoff frequency, a slope steepness, and a resonance parameter.

All audio plugin formats provide some mechanism for defining and interacting with plugin parameters. The JUCE C++ framework, the most popular cross-platform framework for developing audio plugins, provides an abstraction layer over those parameter mechanisms.

Yet defining, using, and maintaining parameters is a non-trivial task. There are various features a plugin developer may need, like,
* type safety,
* range and value validation,
* value formatting and labeling,
* observing (for UI controls or audio processing updates),
* smoothing,
* serialization (e.g., for presets),
* parameter groups, or
* meta parameters.

Over the years, a few parameter management systems for JUCE-based plugins have been proposed, but none have been without serious flaws. The most famous of them, `AudioProcessorValueTreeState`, has been widely criticized.

This talk will provide a tour of current plugin parameter challenges and existing solutions, and then propose a new solution based on the **type erasure technique**: an advanced C++ design pattern meant to replace polymorphism in a non-intrusive manner.

Type-erased audio parameters
* guarantee type safety (no low-level representation, no `dynamic_cast`s)
* provide the necessary abstractions to use heterogeneous parameter instances as a collection
* don't use virtual polymorphism (no base classes or interfaces)
* enable easy feature addition without forking JUCE or writing a new parameter class system from scratch (you don't pay for what you don't use)
* is relatively easy to integrate into existing codebases.

The talk is aimed at intermediate or advanced C++ developers who are familiar with at least one parameter API, such as the one in JUCE.

ほとんどのオーディオプラグインにはパラメータが必要です。例えば、ローパスフィルタープラグインは、カットオフ周波数、スロープの急峻さ、およびレゾナンスパラメータを提供できます。

すべてのオーディオプラグイン形式は、プラグインパラメータを定義および操作するためのメカニズムを提供しています。オーディオプラグイン開発用の最も人気のあるクロスプラットフォームフレームワークであるJUCE C++フレームワークは、これらのパラメータメカニズムに対して抽象化レイヤーを提供しています。

しかし、パラメータの定義、使用、および保守は簡単ではありません。プラグイン開発者が必要とする可能性のあるさまざまな機能があります。例えば:
* 型安全性
* 範囲と値の検証
* 値のフォーマットおよびラベリング
* 監視(UI制御またはオーディオ処理の更新用)
* スムージング
* シリアライゼーション(例:プリセット用)
* パラメータグループ
* メタパラメータ

長年にわたり、JUCEベースのプラグイン向けのパラメータ管理システムがいくつか提案されてきましたが、いずれも深刻な欠陥がありません。それらの中で最も有名な`AudioProcessorValueTreeState`は、広く批判されています。

このトークでは、現在のプラグインパラメータの課題と既存のソリューションについて説明し、その後、**型消去技術**に基づく新しいソリューションを提案します。これは、ポリモーフィズムを非侵襲的な方法で置き換えることを目的とした高度なC++デザインパターンです。

型消去されたオーディオパラメータ:
* 型安全性を保証します(低レベルの表現がない、`dynamic_cast`がない)
* 異種のパラメータインスタンスをコレクションとして使用するために必要な抽象化を提供します
* 仮想ポリモーフィズムを使用しません(ベースクラスやインターフェースがない)
* JUCEをフォークしたり、パラメータクラスシステムを一から作成したりすることなく、簡単に機能を追加できます(使用しないものに対しては料金を払いません)
* 既存のコードベースへの統合は比較的簡単です。

このトークは、JUCEのようなパラメータAPIに少なくとも1つ精通している中級以上のC++開発者を対象としています。
Speakers
avatar for Jan Wilczek

Jan Wilczek

Audio Programming Consultant & Coach, WolfSound
I am an audio programming consultant and educator, the creator of TheWolfSound.com blog and YouTube channel dedicated to audio programming. I also host the WolfTalk podcast, where I interview developers and researchers from the audio industry.
I created "DSP Pro," an online course... Read More →
Tuesday June 2, 2026 2:00pm - 3:00pm JST
Next 3

2:00pm JST

JUCE in DJ Products: Current Status and Future Prospects / DJ製品におけるJUCE活用:現状と今後の展望
Tuesday June 2, 2026 2:00pm - 3:00pm JST
AlphaTheta utilizes JUCE in multiple DJ products for audio processing and cross-platform development.
In this presentation, we will briefly introduce the product areas adopting JUCE and the main elements being utilized (Audio/DSP, GUI, peripheral tools/standardization) based on concrete examples.

We will explain how JUCE is implemented within the constraints specific to DJ products, which aspects are customized for our company's needs, and discuss how we plan to leverage it going forward.

AlphaThetaでは複数のDJ製品でJUCEを活用し、音声処理やクロスプラットフォーム開発を進めています。
本講演では、JUCEを採用している製品領域と、主に利用している要素(Audio/DSP、GUI、周辺ツール/共通化)を、実例をもとに簡潔に紹介します。

DJ製品ならではの制約の中で、JUCEをどのように組み込み、どこを自社向けに調整しているかを整理し、今後どのように活用していきたいかをお話しします。
Speakers
Tuesday June 2, 2026 2:00pm - 3:00pm JST
Next 2

3:00pm JST

Generative Instruments with Large Piano Models / 大規模ピアノモデルを用いた生成楽器
Tuesday June 2, 2026 3:00pm - 4:00pm JST
This talk presents a methodology for working with very large, GPT-like deep learning models trained on (open and ethically sourced) MIDI data. This approach promotes nuanced, musical interfacing with the model, requiring practice and skill development instead of one-shot text-based prompting.

The full machine-learning pipeline is presented, including data pre-processing, tokenization, model training and inference. The presented system will be used to demonstrate multiple generative examples created through musical interaction with Large Piano Models.

このトークでは、(オープンで倫理的に調達された)MIDIデータで訓練された、非常に大規模なGPTのようなディープラーニングモデルを扱うための方法論を提示します。このアプローチは、ワンショットのテキストベースのプロンプティングではなく、実践とスキル開発が必要な、ニュアンスに富んだ音楽的なモデルとのインターフェースを促進します。

データの前処理、トークン化、モデルの訓練と推論を含む、完全な機械学習パイプラインが提示されます。提示されたシステムは、Large Piano Modelsとの音楽的な相互作用を通じて作成された複数の生成例をデモンストレーションするために使用されます。
Tuesday June 2, 2026 3:00pm - 4:00pm JST
Next 2

3:00pm JST

Porting a Native C++ Synth Engine to the Browser: Lessons from Katokatone / ネイティブC++シンセエンジンをブラウザに移植する:Katokatoneからの教訓
Tuesday June 2, 2026 3:00pm - 4:00pm JST
Katokatone is a browser-based music learning application developed by KORG in collaboration with a Japanese textbook publisher for classroom use. As of February 2026, it is used in approximately 7,500 schools, serving around 13,000 daily users.

For this project, we reused part of our native C++ synthesizer engine — originally built for applications such as KORG Gadget — and compiled it to WebAssembly to run inside an AudioWorklet.

Rather than focusing on theoretical DSP optimization, this talk shares practical lessons from making it work reliably on managed school devices such as Chromebooks and iPads.

We will discuss:
- Why web delivery was required in educational environments
- What happened when a native synth engine was moved into the browser
- Performance issues observed on low-spec devices
- Iterative adjustments to reduce audio glitches and UI load

This is a real-world case study of bringing a native C++ synthesizer engine into the browser to deliver and maintain instrument-grade audio in institutional environments without simplifying the sound architecture.

Katokatoneは、KORGが日本の教科書出版社と協力して教室での使用のために開発したブラウザベースの音楽学習アプリケーションです。2026年2月時点で、約7,500の学校で使用されており、1日あたり約13,000人のユーザーに利用されています。

このプロジェクトでは、KORG Gadgetなどのアプリケーション向けに元々構築したネイティブC++シンセサイザーエンジンの一部を再利用し、WebAssemblyにコンパイルしてAudioWorklet内で実行させました。

理論的なDSP最適化に焦点を当てるのではなく、このトークでは、ChromebookやiPadなどの管理下にある学校用デバイスで確実に動作させるための実践的な教訓を共有します。

以下について説明します:
- 教育環境でウェブ配信が必要とされた理由
- ネイティブシンセエンジンをブラウザに移行した際に何が起こったか
- 低スペックデバイスで観察されたパフォーマンス問題
- オーディオグリッチとUIロードを軽減するための反復的な調整

これは、音声アーキテクチャを簡略化せずに、制度的環境でインストルメントグレードのオーディオを配信・維持するために、ネイティブC++シンセサイザーエンジンをブラウザに導入した実際のケーススタディです。
Speakers
HT

Hiroki Tamaru

Engineer, KORG

Tuesday June 2, 2026 3:00pm - 4:00pm JST
Next 1

4:00pm JST

Break & Networking / 休憩とネットワーキング
Tuesday June 2, 2026 4:00pm - 4:30pm JST

Tuesday June 2, 2026 4:00pm - 4:30pm JST
Next 3

4:00pm JST

Break & Networking / 休憩とネットワーキング
Tuesday June 2, 2026 4:00pm - 4:30pm JST

Tuesday June 2, 2026 4:00pm - 4:30pm JST
Next 2

4:00pm JST

Break & Networking / 休憩とネットワーキング
Tuesday June 2, 2026 4:00pm - 4:30pm JST

Tuesday June 2, 2026 4:00pm - 4:30pm JST
Next 1

4:30pm JST

Sponsor Talk 4
Tuesday June 2, 2026 4:30pm - 5:00pm JST

Tuesday June 2, 2026 4:30pm - 5:00pm JST
Next 1

4:30pm JST

Sponsor Talk 5
Tuesday June 2, 2026 4:30pm - 5:00pm JST

Tuesday June 2, 2026 4:30pm - 5:00pm JST
Next 2

4:30pm JST

Sponsor Talk 6
Tuesday June 2, 2026 4:30pm - 5:00pm JST

Tuesday June 2, 2026 4:30pm - 5:00pm JST
Next 3

5:00pm JST

Field Recording - In Search for Perfect Sounds / フィールド・レコーディング - 完璧なサウンドを求めて
Tuesday June 2, 2026 5:00pm - 6:00pm JST
Right from the outset of her game audio career, Malin was never satisfied just using other people’s sounds and so began a lifelong quest of building her own libraries through field recordings. Drawing on many sonic adventures she will examine and explore the art and science of best of breed location sound capture sharing lessons learned about planning, scouting and site selection, working in harmony with nature, timing and when to record, equipment choices and options - and the peculiarities of videogame requirements, discussing what for her makes the perfect sound and how she goes about getting it.

ゲームオーディオのキャリアの初期段階から、マリンは他人の音を使うだけでは決して満足せず、フィールド録音を通じて独自のライブラリを構築するという生涯にわたる追求を始めました。多くのソニックアドベンチャーを通じて、彼女はロケーション音声キャプチャのベストプラクティスの芸術と科学を検証し、探求していきます。計画、スカウティング、サイト選定、自然との調和、録音のタイミングと時期、機材の選択肢とオプション、そしてビデオゲーム特有の要件についての教訓を共有し、彼女にとって完璧な音とは何か、そしてそれをどのように実現するのかについて論じます。
Speakers
avatar for Malin Arvidsson

Malin Arvidsson

Senior Sound Designer / owner, thesoundofmalin
I've been working in audio for games for over 25 years, in UK, Germany and Sweden. I've done everything from recording to editing, processing, designing and implementation. One of my biggest passions is field recording, which I will be talking about at ADC Japan

Tuesday June 2, 2026 5:00pm - 6:00pm JST
Next 1

5:00pm JST

Talk to Your Plugins: Designing Audio Tools for AI-Assisted Workflows / プラグインとの対話:AI支援ワークフロー向けオーディオツールの設計
Tuesday June 2, 2026 5:00pm - 6:00pm JST
What happens when you give an LLM the ability to not just control a synth's parameters, but understand its signal flow and hear the results? In this talk, I'll explore that question live on stage — starting with a basic synth sound, describing what I want in plain language, and iteratively shaping it into a fully designed lead patch. Along the way, we'll see where an LLM can genuinely reason about sound design versus where it falls short, and what kind of information — from signal flow metadata to real-time spectral analysis — makes the difference between an AI that blindly turns knobs and one that can diagnose and fix a problem.

LLMにシンセのパラメータを操作させるだけでなく、シグナルフローを理解させ、その結果を「聴かせる」ことができたら、何が起きるでしょうか。このトークでは、その問いをステージ上でライブで探ります。基本的なシンセサウンドから始めて、自然な言葉でイメージを伝えながら、完成されたリードパッチへと段階的に作り上げていきます。その過程で、LLMがサウンドデザインについて本当に推論できる部分と、まだ力が及ばない部分を明らかにし、シグナルフローのメタデータやリアルタイムのスペクトル分析といった情報が、ただノブを回すだけのAIと、問題を診断して的確に修正できるAIとの違いをどう生み出すのかを見ていきます。
Speakers
avatar for Aurnik

Aurnik

Musician and AI engineer exploring the intersection between sound and science.
Tuesday June 2, 2026 5:00pm - 6:00pm JST
Next 3

5:00pm JST

Write 0 Lines of C++: Building Commercial Audio Plugins with Rust and Web GUI / C++を0行書く:RustとWeb GUIで商用オーディオプラグインを構築する
Tuesday June 2, 2026 5:00pm - 6:00pm JST
This talk presents a modern alternative to C++-dominated audio plugin development. We will explore how to build commercial-grade, multi-format plugins (CLAP, VST3, AU, Standalone) without writing a single line of C++, by using Rust for DSP/logic and Web technologies for the GUI. Based on real-world adoption in NovoNotes products, we will cover the "CLAP First" architecture with clap-wrapper, solving async task management (run_loop), integrating WebViews (wxp), and comparing this approach with JUCE.

本講演では、C++が主流のオーディオプラグイン開発における新たな選択肢を提示します。DSPやロジックに「Rust」、GUIに「Web技術」を採用し、C++を一切使わずに商用レベルのマルチフォーマットプラグイン(CLAP, VST3, AU, Standalone)を開発する手法を解説します。NovoNotes製品での実例を交えながら、非同期処理(run_loop)の解決、WebView統合(wxp)、clap-wrapper を用いた「CLAP First」アーキテクチャ、そしてJUCEとの比較まで、実践的なノウハウをお伝えします。
Tuesday June 2, 2026 5:00pm - 6:00pm JST
Next 2

6:00pm JST

Networking / ネットワーキング
Tuesday June 2, 2026 6:00pm - 7:00pm JST

Tuesday June 2, 2026 6:00pm - 7:00pm JST
Akiba Square
 
Share Modal

Share this link via

Or copy link

Filter sessions
Apply filters to sessions.
Filtered by Date -