Loading…
Wednesday June 3, 2026 2:00pm - 3:00pm JST
When we build cross-platform music apps and plugins, they are mostly desktop and sometimes including iOS, but much less happens on Android. Since Android audio latency has improved a lot by 2026, we have to tackle the next problem: we are missing audio plugin formats on Android. Apple has good ecosystem, so why not designing one for Android?

But you would wonder, why can't we just simply take VST3, CLAP, or LV2 on Android? Because, it is not that simple. We have a lot of lessons learned (or, learning) from Apple AudioUnit V3, along with their efforts on Logic Pro.

Throughout this session we will explain what is tricky to achieve audio plugin functionality on Android through past accomplishments, and how to deal with it. There are many issues such as, publishing audio plugin products from diverse plugin vendors without being tied to a specific DAW, passing audio and event data between a DAW and a plugin, showing plugin GUI on a DAW, and so on. We also discuss what's missing on Android platform itself to achieve full realtime capability within our apps, not just their own framework.

There are many trends on audio plugin development such as MIDI 2.0 integration like (upcoming next-gen. JUCE AudioProcessor), CLAP-first development, AI-capability such as MCP integration. We discuss what kind of features a plugin format should and should NOT tackle, especially taking CLAP as a reference. You would also learn why JUCE cannot be a "format" here.

At last, designing a plugin format is just a milestone and not the goal. We also have to achieve a plugin "ecosystem", which is very often understood as chicken and egg problem. We would discuss this with some existing efforts.

クロスプラットフォーム音声アプリとプラグインを構築する場合、それらはほとんどがデスクトップで、時々iOSを含みますが、Androidではずっと少ないことが起こっています。2026年までにAndroidのオーディオレイテンシーが大幅に改善されたため、次の問題に取り組む必要があります。Androidではオーディオプラグインフォーマットが不足しているのです。Appleは優れたエコシステムを持っているので、Androidのために1つを設計してみてはいかがでしょうか?

しかし、なぜ単純にVST3、CLAP、またはLV2をAndroidで使用できないのかと疑問に思うでしょう。それは単純ではないからです。Appleの AudioUnit V3から多くの教訓を得ており(または学習中)、Logic Proへの彼らの取り組みからも学んでいます。

このセッション全体を通じて、過去の成果を通じてAndroidでオーディオプラグイン機能を実現することがどのようにして難しいのか、そしてそれにどう対処するかについて説明します。多様なプラグインベンダーから特定のDAWに縛られずにオーディオプラグインコンテンツを公開する、DAWとプラグイン間でオーディオおよびイベントデータを渡す、DAW上にプラグインGUIを表示するなど、多くの課題があります。また、独自フレームワークだけではなく、アプリ内で完全なリアルタイム機能を達成するためにAndroidプラットフォーム自体に何が不足しているのかについても議論します。

MIDI 2.0統合(次世代の予定であるJUCE AudioProcessor)、CLAP優先開発、MCP統合などのAI機能など、オーディオプラグイン開発には多くのトレンドがあります。プラグインフォーマットが取り組むべき機能と取り組むべきではない機能について、特にCLAPを参考にして議論します。JUCEがここで「フォーマット」になれない理由も学べます。

最後に、プラグインフォーマットの設計はマイルストーンであり、目標ではありません。また、プラグイン「エコシステム」の実現も必要です。これはしばしば鶏と卵の問題として理解されています。既存の取り組みとともにこれについて議論します。
Speakers
avatar for Atsushi Eno

Atsushi Eno

Developer, androidaudioplugin.org
https://g0v.social/@atsushieno
Wednesday June 3, 2026 2:00pm - 3:00pm JST
Next 1

Attendees (7)


Log in to save this to your schedule, view media, leave feedback and see who's attending!

Share Modal

Share this link via

Or copy link