Loading…
Venue: Next 3 clear filter
arrow_back View All Dates
Tuesday, June 2
 

9:00am JST

Distribution Strategies for Indie Audio Developers - From Plugin to Product / インディーオーディオ開発者のための配布戦略 - プラグインから製品へ
Tuesday June 2, 2026 9:00am - 10:00am JST
Building a great-sounding audio plugin is no longer enough to ensure real-world adoption. In today’s highly saturated plugin market, distribution has become the missing layer between development and sustainability. Many technically strong plugins remain invisible simply because developers do not have a clear distribution strategy. How do musicians actually discover plugins today? Which channels are worth investing time and energy into, and which ones look promising but rarely lead to real adoption?

In this talk, I will approach distribution not as marketing, but as a product design and infrastructure problem. I will share real-world experience from running my a boutique audio plugin company and walk through the decisions behind building visibility, discoverability, and long-term viability. I will show how distribution choices influence product design, onboarding, and communication, and why these decisions should not be treated as post-launch tasks. The session focuses on practical examples, measurable outcomes, and clear prioritization rather than hype or short-term tactics. By the end of the talk, attendees will have a clearer mental model of how distribution fits into the audio plugin lifecycle, and how to approach it in a focused and sustainable way without losing sight of development.

Topics covered
- Distribution vs marketing and why the distinction matters for developers
- How musicians discover and evaluate audio plugins today
- Direct sales, platforms, resellers, creators, and affiliate ecosystems
- Distribution as a product constraint, designing plugins that are easier to explain, demo, and adopt
- Email, content, and partnerships as part of onboarding, not post-launch add-ons
Common distribution mistakes indie developers make and how to avoid them

素晴らしいサウンドのオーディオプラグインを開発することだけでは、実際の採用を保証するには十分ではなくなりました。今日の飽和状態にあるプラグイン市場では、ディストリビューションが開発と持続可能性の間の欠落したレイヤーになっています。技術的に優れた多くのプラグインは、開発者が明確なディストリビューション戦略を持っていないという理由だけで見えないままになっています。ミュージシャンは実際に今日どのようにプラグインを発見するのでしょうか?どのチャネルに時間とエネルギーを投資する価値があり、どのチャネルは有望に見えますが実際の採用につながることはめったにないのでしょうか?

このセッションでは、ディストリビューションをマーケティングではなく、プロダクトデザインとインフラストラクチャの問題として扱います。私のブティック型オーディオプラグイン企業の運営から得た実世界の経験を共有し、可視性、発見可能性、長期的な実行可能性を構築するための決定について説明します。ディストリビューション選択がプロダクトデザイン、オンボーディング、コミュニケーションにどのような影響を与えるのか、そしてなぜこれらの決定をローンチ後のタスクとして扱うべきではないのかを示します。このセッションは、実践的な例、測定可能な成果、明確な優先順位付けに焦点を当てており、ハイプや短期的な戦術ではありません。このセッションの終わりに、参加者はディストリビューションがオーディオプラグインのライフサイクルにどのように適合するかについて、より明確なメンタルモデルを持つようになり、開発を見失うことなく焦点を絞った持続可能な方法でそれにアプローチする方法を理解するでしょう。

カバーするトピック
- ディストリビューションとマーケティングの違い、および開発者にとってなぜその区別が重要なのか
- 今日ミュージシャンがオーディオプラグインをどのように発見および評価するか
- 直販、プラットフォーム、リセラー、クリエイター、アフィリエイトエコシステム
- プロダクト制約としてのディストリビューション、説明、デモンストレーション、採用がしやすいプラグインの設計
- メール、コンテンツ、パートナーシップをローンチ後のアドオンではなく、オンボーディングの一部として
インディー開発者が犯す一般的なディストリビューション上の誤りと、それを回避する方法
Speakers
avatar for Dani Karanyi

Dani Karanyi

Founder, Karanyi Sounds
Founder of Karanyi Sounds, a boutique audio plugin company with 100k+ users - including Grammy-winning producers and composers scoring Netflix trailers. Over the last decade, Dani has led product, marketing, and distribution across direct sales, white-label deals, marketplaces, and... Read More →
Tuesday June 2, 2026 9:00am - 10:00am JST
Next 3

11:00am JST

Break & Networking / 休憩とネットワーキング
Tuesday June 2, 2026 11:00am - 11:20am JST

Tuesday June 2, 2026 11:00am - 11:20am JST
Next 3

11:20am JST

MIDI Matters : Symbolic Music in the Age of Neural Audio / MIDIの重要性:ニューラルオーディオの時代における記号音楽
Tuesday June 2, 2026 11:20am - 12:20pm JST
Recent advances in AI music technology have largely focused on generating and manipulating raw audio. Diffusion models, neural synthesizers, and source separation systems have made waveform-level processing more powerful than ever. However, many creative tools for musicians still struggle with control, editability, and real-time interaction when operating directly on audio.

In this talk, we explore why symbolic representations—especially MIDI—remain a crucial layer for building practical and expressive AI music tools.

Rather than treating MIDI as a legacy protocol, we examine how it provides a powerful abstraction for structure, intent, and musical interaction. MIDI enables precise editing, controllable generation, and seamless integration with existing creative workflows. When combined with modern AI models, it becomes a flexible interface between human musical ideas and machine-generated content.

Through examples from our own researched, developed and deployed tools, we show how MIDI can serve as the control plane for generative music tools. Topics will be on the lines of symbolic-to-audio pipelines, AI-assisted composition workflows, expressive performance data, and hybrid systems that combine MIDI reasoning with neural audio synthesis.

The talk argues that many future music tools will not be purely “audio AI,” but instead layered systems where symbolic representations guide audio generation.

AI音楽技術の最近の進展は、主に生オーディオの生成と操作に焦点を当ててきました。拡散モデル、ニューラルシンセサイザー、ソース分離システムは、波形レベルの処理をこれまで以上に強力にしました。しかし、ミュージシャン向けの多くのクリエイティブツールは、オーディオを直接操作する際に、制御性、編集可能性、リアルタイム相互作用の面で依然として課題があります。

本トークでは、シンボリック表現、特にMIDIが、実用的で表現力豊かなAI音楽ツールを構築するための重要なレイヤーとして残る理由を探ります。

MIDIをレガシープロトコルとして扱うのではなく、構造、意図、音楽的相互作用に対する強力な抽象化を提供する方法を検討します。MIDIは正確な編集、制御可能な生成、既存のクリエイティブワークフローとのシームレスな統合を可能にします。最新のAIモデルと組み合わせると、人間の音楽的アイデアと機械生成コンテンツの間の柔軟なインターフェースになります。

当社が研究、開発、導入したツールの例を通じて、MIDIが生成音楽ツールのコントロールプレーンとしてどのように機能できるかを示します。トピックは、シンボリック・トゥ・オーディオパイプライン、AIアシスト作曲ワークフロー、表現力豊かなパフォーマンスデータ、およびMIDI推論とニューラルオーディオ合成を組み合わせたハイブリッドシステムについてです。

このトークは、今後の多くの音楽ツールは純粋な「オーディオAI」ではなく、シンボリック表現がオーディオ生成を導くレイヤー化されたシステムになるだろうと主張しています。
Speakers
Tuesday June 2, 2026 11:20am - 12:20pm JST
Next 3

12:20pm JST

Sponsor Talk 3
Tuesday June 2, 2026 12:20pm - 12:50pm JST

Tuesday June 2, 2026 12:20pm - 12:50pm JST
Next 3

12:50pm JST

Lunch & Networking / ランチとネットワーキング
Tuesday June 2, 2026 12:50pm - 2:00pm JST

Tuesday June 2, 2026 12:50pm - 2:00pm JST
Next 3

2:00pm JST

Type-Erased Audio Parameters: A New Approach to an Old Problem / 型消去オーディオパラメータ:古い問題への新しいアプローチ
Tuesday June 2, 2026 2:00pm - 3:00pm JST
Most audio plugins need parameters. For example, a low-pass filter plugin can provide a cutoff frequency, a slope steepness, and a resonance parameter.

All audio plugin formats provide some mechanism for defining and interacting with plugin parameters. The JUCE C++ framework, the most popular cross-platform framework for developing audio plugins, provides an abstraction layer over those parameter mechanisms.

Yet defining, using, and maintaining parameters is a non-trivial task. There are various features a plugin developer may need, like,
* type safety,
* range and value validation,
* value formatting and labeling,
* observing (for UI controls or audio processing updates),
* smoothing,
* serialization (e.g., for presets),
* parameter groups, or
* meta parameters.

Over the years, a few parameter management systems for JUCE-based plugins have been proposed, but none have been without serious flaws. The most famous of them, `AudioProcessorValueTreeState`, has been widely criticized.

This talk will provide a tour of current plugin parameter challenges and existing solutions, and then propose a new solution based on the **type erasure technique**: an advanced C++ design pattern meant to replace polymorphism in a non-intrusive manner.

Type-erased audio parameters
* guarantee type safety (no low-level representation, no `dynamic_cast`s)
* provide the necessary abstractions to use heterogeneous parameter instances as a collection
* don't use virtual polymorphism (no base classes or interfaces)
* enable easy feature addition without forking JUCE or writing a new parameter class system from scratch (you don't pay for what you don't use)
* is relatively easy to integrate into existing codebases.

The talk is aimed at intermediate or advanced C++ developers who are familiar with at least one parameter API, such as the one in JUCE.

ほとんどのオーディオプラグインにはパラメータが必要です。例えば、ローパスフィルタープラグインは、カットオフ周波数、スロープの急峻さ、およびレゾナンスパラメータを提供できます。

すべてのオーディオプラグイン形式は、プラグインパラメータを定義および操作するためのメカニズムを提供しています。オーディオプラグイン開発用の最も人気のあるクロスプラットフォームフレームワークであるJUCE C++フレームワークは、これらのパラメータメカニズムに対して抽象化レイヤーを提供しています。

しかし、パラメータの定義、使用、および保守は簡単ではありません。プラグイン開発者が必要とする可能性のあるさまざまな機能があります。例えば:
* 型安全性
* 範囲と値の検証
* 値のフォーマットおよびラベリング
* 監視(UI制御またはオーディオ処理の更新用)
* スムージング
* シリアライゼーション(例:プリセット用)
* パラメータグループ
* メタパラメータ

長年にわたり、JUCEベースのプラグイン向けのパラメータ管理システムがいくつか提案されてきましたが、いずれも深刻な欠陥がありません。それらの中で最も有名な`AudioProcessorValueTreeState`は、広く批判されています。

このトークでは、現在のプラグインパラメータの課題と既存のソリューションについて説明し、その後、**型消去技術**に基づく新しいソリューションを提案します。これは、ポリモーフィズムを非侵襲的な方法で置き換えることを目的とした高度なC++デザインパターンです。

型消去されたオーディオパラメータ:
* 型安全性を保証します(低レベルの表現がない、`dynamic_cast`がない)
* 異種のパラメータインスタンスをコレクションとして使用するために必要な抽象化を提供します
* 仮想ポリモーフィズムを使用しません(ベースクラスやインターフェースがない)
* JUCEをフォークしたり、パラメータクラスシステムを一から作成したりすることなく、簡単に機能を追加できます(使用しないものに対しては料金を払いません)
* 既存のコードベースへの統合は比較的簡単です。

このトークは、JUCEのようなパラメータAPIに少なくとも1つ精通している中級以上のC++開発者を対象としています。
Speakers
avatar for Jan Wilczek

Jan Wilczek

Audio Programming Consultant & Coach, WolfSound
I am an audio programming consultant and educator, the creator of TheWolfSound.com blog and YouTube channel dedicated to audio programming. I also host the WolfTalk podcast, where I interview developers and researchers from the audio industry.
I created "DSP Pro," an online course... Read More →
Tuesday June 2, 2026 2:00pm - 3:00pm JST
Next 3

4:00pm JST

Break & Networking / 休憩とネットワーキング
Tuesday June 2, 2026 4:00pm - 4:30pm JST

Tuesday June 2, 2026 4:00pm - 4:30pm JST
Next 3

4:30pm JST

Sponsor Talk 6
Tuesday June 2, 2026 4:30pm - 5:00pm JST

Tuesday June 2, 2026 4:30pm - 5:00pm JST
Next 3

5:00pm JST

Talk to Your Plugins: Designing Audio Tools for AI-Assisted Workflows / プラグインとの対話:AI支援ワークフロー向けオーディオツールの設計
Tuesday June 2, 2026 5:00pm - 6:00pm JST
What happens when you give an LLM the ability to not just control a synth's parameters, but understand its signal flow and hear the results? In this talk, I'll explore that question live on stage — starting with a basic synth sound, describing what I want in plain language, and iteratively shaping it into a fully designed lead patch. Along the way, we'll see where an LLM can genuinely reason about sound design versus where it falls short, and what kind of information — from signal flow metadata to real-time spectral analysis — makes the difference between an AI that blindly turns knobs and one that can diagnose and fix a problem.

LLMにシンセのパラメータを操作させるだけでなく、シグナルフローを理解させ、その結果を「聴かせる」ことができたら、何が起きるでしょうか。このトークでは、その問いをステージ上でライブで探ります。基本的なシンセサウンドから始めて、自然な言葉でイメージを伝えながら、完成されたリードパッチへと段階的に作り上げていきます。その過程で、LLMがサウンドデザインについて本当に推論できる部分と、まだ力が及ばない部分を明らかにし、シグナルフローのメタデータやリアルタイムのスペクトル分析といった情報が、ただノブを回すだけのAIと、問題を診断して的確に修正できるAIとの違いをどう生み出すのかを見ていきます。
Speakers
avatar for Aurnik

Aurnik

Musician and AI engineer exploring the intersection between sound and science.
Tuesday June 2, 2026 5:00pm - 6:00pm JST
Next 3
 
Share Modal

Share this link via

Or copy link

Filter sessions
Apply filters to sessions.
Filtered by Date -