Loading…
Venue: Next 2 clear filter
Monday, June 1
 

9:30am JST

Morning Workshop A / 午前のワークショップA
Monday June 1, 2026 9:30am - 12:30pm JST

Monday June 1, 2026 9:30am - 12:30pm JST
Next 2

2:00pm JST

Afternoon Workshop C / 午後のワークショップC
Monday June 1, 2026 2:00pm - 5:00pm JST

Monday June 1, 2026 2:00pm - 5:00pm JST
Next 2
 
Tuesday, June 2
 

9:00am JST

Designing Interactive Music Experiences in XR / XRにおけるインタラクティブ音楽体験のデザイン
Tuesday June 2, 2026 9:00am - 10:00am JST
(m)ORPH began as an experiment to disrupt traditional DAW-based stereo mixing and evolved into an XR platform for interactive music, immersive spatial-audio listening, and live performance. Using Unity, Wwise, HRTF rendering, and physics-driven behaviors, the system treats audio objects as spatial entities whose distance, motion, and interaction shape both mix and composition in real time. This session examines the architectural decisions, technical implementation, gestural interface design, and intentional abstraction that enable emergent behavior and “musical happy accidents.” Attendees will gain insight into designing interactive audio systems that function as instruments rather than playback engines, and inspire a new breed of music lovers who want to actively engage rather than passively consume.

(m)ORPHは従来のDAWベースのステレオミキシングを破壊するための実験として始まり、インタラクティブな音楽探索、没入型空間オーディオリスニング、ライブパフォーマンスのためのXRプラットフォームへと進化しました。Unity、Wwise、HRTF レンダリング、物理駆動動作を使用して、このシステムはオーディオオブジェクトを空間的なエンティティとして扱い、その距離、動き、相互作用がリアルタイムでミックスと構成の両方を形成します。このセッションでは、アーキテクチャ上の決定、技術的実装、ジェスチャーインターフェース設計、創発的動作と「音楽的な幸運な偶然」を可能にする意図的な抽象化を検討します。参加者は、再生エンジンではなく楽器として機能するインタラクティブなオーディオシステムの設計について洞察を得ることができ、積極的に関わりたい新しいタイプの音楽愛好家にインスピレーションを与えます。
Speakers
avatar for Kasson Crooker

Kasson Crooker

Founder, Speed of Dark Studios
Audio-technologist, spatial audio evangelist, creator of music XR & games; ex-THX, ex-MSFT/HoloLens, ex-Harmonix (Game & Audio Director); Founder of Speed of Dark Studios (composer & audio producer)

Tuesday June 2, 2026 9:00am - 10:00am JST
Next 2

10:00am JST

BEEPS and PORTS : annoy everyone in your house while building an audio synthesizer ビープ音とポート:オーディオシンセサイザーを構築しながら家中の誰もが迷惑する
Tuesday June 2, 2026 10:00am - 11:00am JST
Follow my two-plus-year (but really life-long journey) to make exactly the sound creation tools that I always wanted and that no one else asked for.

2年以上(でも本当には生涯にわたる)の旅に従い、私がいつも欲しかった、そして他の誰も求めていない音声作成ツールを正確に作ることです。
Speakers
avatar for Joseph Stewart

Joseph Stewart

Principal Engineer R&D - Ex-Kuiper, Ex-Meta, Ex-Intel, Ex-Cisco, Ex-Sony, Ex-Philips, Octetta
I like to think about things and then build them.
Tuesday June 2, 2026 10:00am - 11:00am JST
Next 2

11:00am JST

Break & Networking / 休憩とネットワーキング
Tuesday June 2, 2026 11:00am - 11:20am JST

Tuesday June 2, 2026 11:00am - 11:20am JST
Next 2

11:20am JST

FPGA-Based Alias-Free Oscillator: 50MHz Waveform Generation and 1-bit ΔΣ DAC Implementation / FPGAベースのエイリアスフリー・オシレーター:50MHz駆動の波形生成と1bit ΔΣ DACの実装 FPGA-Based Alias-Free Oscillator: 50MHz Waveform Generation and 1-bit ΔΣ DAC Implementation
Tuesday June 2, 2026 11:20am - 12:20pm JST
This session explores the implementation of an oscillator that leverages the 50MHz clock of an inexpensive FPGA to generate waveforms at ultra-high sample rates far beyond the audible range. By concentrating computational resources on the sample rate rather than bit depth, we achieve alias-free output of harmonics exceeding 100kHz. We will share practical know-how for fully integrating the entire process on-chip—from computation to audio output via a 1-bit ΔΣ DAC—without relying on microcontrollers or external DAC ICs.

廉価なFPGAの50MHz駆動を活かし、可聴域を遥かに超える超高サンプルレートで波形を生成するオシレーターの実装手法を解説します。 ビット深度ではなく超高サンプルレートにリソースを集中させることで、100kHz以上の倍音をエイリアスフリーに出力します。 演算から1bit ΔΣ DACによる音声出力まで、マイコンや外付けDACに頼らずチップ内部で完全統合する実践的なノウハウを共有します。
Speakers
avatar for 岡安啓幸 Akiyuki Okayasu

岡安啓幸 Akiyuki Okayasu

R&D Lead, Yamamoto Works Ltd.
モジュラーシンセメーカーGroundless Electronicsの創設者・エンジニア。 オーディオ信号処理技術を活かした自作ソフトウェアでの音楽制作を起点に、2017年頃よりハードウェア開発へ領域を拡大。アナログ回路やMIDI機器の設計を経て、2022... Read More →
Tuesday June 2, 2026 11:20am - 12:20pm JST
Next 2

12:20pm JST

Sponsor Talk 2
Tuesday June 2, 2026 12:20pm - 12:50pm JST

Tuesday June 2, 2026 12:20pm - 12:50pm JST
Next 2

12:50pm JST

Lunch & Networking / ランチとネットワーキング
Tuesday June 2, 2026 12:50pm - 2:00pm JST

Tuesday June 2, 2026 12:50pm - 2:00pm JST
Next 2

2:00pm JST

JUCE in DJ Products: Current Status and Future Prospects / DJ製品におけるJUCE活用:現状と今後の展望
Tuesday June 2, 2026 2:00pm - 3:00pm JST
AlphaTheta utilizes JUCE in multiple DJ products for audio processing and cross-platform development.
In this presentation, we will briefly introduce the product areas adopting JUCE and the main elements being utilized (Audio/DSP, GUI, peripheral tools/standardization) based on concrete examples.

We will explain how JUCE is implemented within the constraints specific to DJ products, which aspects are customized for our company's needs, and discuss how we plan to leverage it going forward.

AlphaThetaでは複数のDJ製品でJUCEを活用し、音声処理やクロスプラットフォーム開発を進めています。
本講演では、JUCEを採用している製品領域と、主に利用している要素(Audio/DSP、GUI、周辺ツール/共通化)を、実例をもとに簡潔に紹介します。

DJ製品ならではの制約の中で、JUCEをどのように組み込み、どこを自社向けに調整しているかを整理し、今後どのように活用していきたいかをお話しします。
Speakers
Tuesday June 2, 2026 2:00pm - 3:00pm JST
Next 2

3:00pm JST

Generative Instruments with Large Piano Models / 大規模ピアノモデルを用いた生成楽器
Tuesday June 2, 2026 3:00pm - 4:00pm JST
This talk presents a methodology for working with very large, GPT-like deep learning models trained on (open and ethically sourced) MIDI data. This approach promotes nuanced, musical interfacing with the model, requiring practice and skill development instead of one-shot text-based prompting.

The full machine-learning pipeline is presented, including data pre-processing, tokenization, model training and inference. The presented system will be used to demonstrate multiple generative examples created through musical interaction with Large Piano Models.

このトークでは、(オープンで倫理的に調達された)MIDIデータで訓練された、非常に大規模なGPTのようなディープラーニングモデルを扱うための方法論を提示します。このアプローチは、ワンショットのテキストベースのプロンプティングではなく、実践とスキル開発が必要な、ニュアンスに富んだ音楽的なモデルとのインターフェースを促進します。

データの前処理、トークン化、モデルの訓練と推論を含む、完全な機械学習パイプラインが提示されます。提示されたシステムは、Large Piano Modelsとの音楽的な相互作用を通じて作成された複数の生成例をデモンストレーションするために使用されます。
Tuesday June 2, 2026 3:00pm - 4:00pm JST
Next 2

4:00pm JST

Break & Networking / 休憩とネットワーキング
Tuesday June 2, 2026 4:00pm - 4:30pm JST

Tuesday June 2, 2026 4:00pm - 4:30pm JST
Next 2

4:30pm JST

Sponsor Talk 5
Tuesday June 2, 2026 4:30pm - 5:00pm JST

Tuesday June 2, 2026 4:30pm - 5:00pm JST
Next 2

5:00pm JST

Write 0 Lines of C++: Building Commercial Audio Plugins with Rust and Web GUI / C++を0行書く:RustとWeb GUIで商用オーディオプラグインを構築する
Tuesday June 2, 2026 5:00pm - 6:00pm JST
This talk presents a modern alternative to C++-dominated audio plugin development. We will explore how to build commercial-grade, multi-format plugins (CLAP, VST3, AU, Standalone) without writing a single line of C++, by using Rust for DSP/logic and Web technologies for the GUI. Based on real-world adoption in NovoNotes products, we will cover the "CLAP First" architecture with clap-wrapper, solving async task management (run_loop), integrating WebViews (wxp), and comparing this approach with JUCE.

本講演では、C++が主流のオーディオプラグイン開発における新たな選択肢を提示します。DSPやロジックに「Rust」、GUIに「Web技術」を採用し、C++を一切使わずに商用レベルのマルチフォーマットプラグイン(CLAP, VST3, AU, Standalone)を開発する手法を解説します。NovoNotes製品での実例を交えながら、非同期処理(run_loop)の解決、WebView統合(wxp)、clap-wrapper を用いた「CLAP First」アーキテクチャ、そしてJUCEとの比較まで、実践的なノウハウをお伝えします。
Tuesday June 2, 2026 5:00pm - 6:00pm JST
Next 2
 
Wednesday, June 3
 

9:00am JST

Designing Interactive Machine Learning Tools for Music Generation Models / インタラクティブ機械学習ツールの設計:音楽生成モデル向け
Wednesday June 3, 2026 9:00am - 10:00am JST
In recent years, generative models have become capable of generating high-quality music from natural language. However, the mechanisms to adequately respond to repeated trial-and-error and fine-grained nuance adjustments that occur throughout the production process remain in a developmental stage.

This presentation introduces design approaches based on interactive machine learning, where users can leverage small amounts of local data generated during the production process and manipulate the latent space of generative models. By incorporating exploration and parameter manipulation into an interactive loop, we present a structure that allows generative model outputs to be not merely "selected," but rather integrated into and utilized within one's own production process.

Through research case studies from the presenter, we will introduce visualization of generative models, real-time control, applications to live performance, and design examples as audio plugins and tools. We will discuss new practical approaches for how music generation AI can be integrated into workflows for composition, arrangement, and sound design.

近年の生成モデルは、自然言語から高品質な音楽を生成できるようになりました。一方で、制作の過程で繰り返される試行錯誤や細かなニュアンスの調整に、十分に応答できる仕組みはまだ発展途上にあります。

本講演では、インタラクティブ機械学習の考え方に基づき、ユーザが制作過程で生み出す少量のローカルデータを活用したり、生成モデルの潜在空間を操作していく設計アプローチを紹介します。探索やパラメータ操作を対話的なループに組み込むことで、生成モデルの出力を単に「選ぶ」だけでなく、自身の制作プロセスに組み込みながら活用できる構造を提示します。

講演者の研究事例を交えながら、生成モデルの可視化、リアルタイム制御、ライブパフォーマンスへの応用、さらにオーディオプラグインやツールとしての設計例を紹介します。音楽生成AIを作曲・編曲・サウンドデザインのワークフローにどのように統合できるのか、新しい実践的アプローチを議論します。
Speakers
avatar for Junichi Shimizu

Junichi Shimizu

研究者/サウンドアーティスト。2019年 MUTEK.JP AI Music Labでのパフォーマンスを機に音楽活動を開始。インタラクティブミュージックをはじめ、サウンドプログラミングを活用した作品を数多く手掛ける。2022–23... Read More →
Wednesday June 3, 2026 9:00am - 10:00am JST
Next 2

10:00am JST

AI vs. The Algorithm: Reclaiming "The Scene" through Ethical Vocal Synthesis / AI対アルゴリズム:倫理的ボーカル合成を通じて「シーン」を取り戻す
Wednesday June 3, 2026 10:00am - 11:00am JST
In an era of generative automation, the traditional boundary between artist and audience is dissolving. This session explores the transition of the human voice from a static recording to a dynamic, professional instrument. Drawing on my experience as a Billboard-charting frontman and MBA strategist, I will demonstrate how vocal synthesis—specifically the development of the HXVOC voicebank—enables creators to bypass the 'cold wall' of the algorithm. We will discuss the ethical shift from mass-consumption to distributed authorship, showing that technology will not replace the performer, but empower a global community to build its own legacy.

生成型オートメーションの時代において、アーティストと観客の伝統的な境界が溶解しつつあります。本セッションでは、人間の声が静的な録音から動的でプロフェッショナルな楽器へと移行する過程を探ります。ビルボード・チャート入りのフロントマンであり、MBAストラテジストとしての経験を踏まえて、ボーカル合成、特にHXVOCボイスバンクの開発がいかにクリエイターに対してアルゴリズムの「冷たい壁」を乗り越えることを可能にするかを実演します。大量消費から分散型著作権へのシフトについて議論し、テクノロジーがパフォーマーに取って代わるのではなく、グローバルコミュニティが独自のレガシーを構築する力を与えることを示します。
Speakers
avatar for Seann Nicols

Seann Nicols

Nerve Strike Records


Wednesday June 3, 2026 10:00am - 11:00am JST
Next 2

11:00am JST

Break & Networking / 休憩とネットワーキング
Wednesday June 3, 2026 11:00am - 11:20am JST

Wednesday June 3, 2026 11:00am - 11:20am JST
Next 2

11:20am JST

Building and Training Differentiable Artificial Reverbs / 微分可能な人工リバーブの構築とトレーニング
Wednesday June 3, 2026 11:20am - 12:20pm JST
Differentiable artificial reverberation has the potential to address a wide range of audio machine-learning tasks, including style transfer, blind estimation, and speech enhancement. This research area has grown rapidly, with many new approaches proposed over the past few years, particularly within the field of differentiable digital signal processing. As a result, numerous differentiable reverb architectures have emerged. At the same time, these developments highlight the need for loss functions that properly capture the perceptually important time- and frequency-domain characteristics of reverberation.

In this talk, we will review key results from recent literature with a focus on architectures suitable for real-time applications. Specifically, we will discuss different architecture choices, optimization strategies, and practical insights for designing loss functions tailored to reverberation. We will also explore how standard, off-the-shelf loss functions can be adapted to better handle reverb and reverberated signals. We will conclude with a forward-looking perspective, highlighting current challenges and open research questions, as well as spatial audio applications.

微分可能な人工残響は、スタイル転送、ブラインド推定、音声強調など、幅広いオーディオ機械学習タスクに対処する可能性を持っています。この研究領域は急速に成長しており、特に微分可能デジタル信号処理の分野において、ここ数年で多くの新しいアプローチが提案されています。その結果、多くの微分可能なリバーブアーキテクチャが出現しました。同時に、これらの発展は、残響の知覚的に重要な時間領域および周波数領域の特性を適切に捉える損失関数の必要性を浮き彫りにしています。

本講演では、リアルタイムアプリケーションに適したアーキテクチャに焦点を当てた、最近の文献からの主要な結果をレビューします。具体的には、異なるアーキテクチャの選択、最適化戦略、および残響に合わせた損失関数を設計するための実用的な洞察について説明します。また、標準的な既製の損失関数がリバーブおよびリバーブ処理された信号をより適切に処理するように適応させられる方法についても探求します。最後に、現在の課題と未解決の研究課題、ならびに空間オーディオアプリケーションに焦点を当てた前向きな展望で結論付けます。
Speakers
avatar for Gloria Dal Santo

Gloria Dal Santo

Doctoral Researcher, Department of Information and Communications Engineering, Aalto University School of Electrical Engineering
Wednesday June 3, 2026 11:20am - 12:20pm JST
Next 2

12:20pm JST

Sponsor Talk 8
Wednesday June 3, 2026 12:20pm - 12:50pm JST

Wednesday June 3, 2026 12:20pm - 12:50pm JST
Next 2

12:50pm JST

Lunch & Networking / ランチとネットワーキング
Wednesday June 3, 2026 12:50pm - 2:00pm JST

Wednesday June 3, 2026 12:50pm - 2:00pm JST
Next 2

2:00pm JST

NKIDO a Open Source Bytecode Synth and Live-Coding Environment / NKIDO - オープンソースバイトコードシンセとライブコーディング環境
Wednesday June 3, 2026 2:00pm - 3:00pm JST
NKIDO is a live-coding audio environment built from scratch: a Tidal-inspired pattern language, a zero-allocation C++20 bytecode VM with 95+ DSP opcodes, and a browser IDE running it all via WebAssembly. This talk covers the language design, the runtime internals, and what it's like to vibe-code 60,000 lines of real-time audio C++ with AI.

NKIDOはゼロから構築されたライブコーディングオーディオ環境です。Tidalに着想を得たパターン言語、95以上のDSPオプコードを持つゼロアロケーションC++20バイトコードVM、そしてWebAssemblyを介してそれらすべてを実行するブラウザIDEで構成されています。このトークでは、言語設計、ランタイムの内部構造、そしてAIを使用して60,000行のリアルタイムオーディオC++をバイブコードする経験についてカバーしています。
Speakers
Wednesday June 3, 2026 2:00pm - 3:00pm JST
Next 2

3:00pm JST

Making Beats with React: Cross-Platform Audio Dev with Elementary / React でビート制作:Elementary を使用したクロスプラットフォーム オーディオ開発
Wednesday June 3, 2026 3:00pm - 4:00pm JST
Building cross-platform audio apps is difficult - and for a long time, Android lagged far behind iOS when it came to music-making tools. That's changing. Elementary Audio introduces a new paradigm for audio experiences: by exposing a shared JS API with both web and native renderers, it makes code reuse across platforms feel natural. In this talk, I'll introduce Elementary Audio, walk through react-native-elementary, and demo what's possible to build with it today - including how AI is removing what little friction remains.

クロスプラットフォーム対応のオーディオアプリの構築は難しく、長い間、音楽制作ツールに関してはAndroidがiOSから大きく遅れていました。しかし、その状況は変わりつつあります。Elementary Audioは、オーディオ体験の新しいパラダイムを導入しています。Webとネイティブレンダラーの両方に対応した共有JS APIを公開することで、プラットフォーム間でのコード再利用が自然に感じられるようになります。このトークでは、Elementary Audioを紹介し、react-native-elementaryについて説明し、今日実現できる可能性をデモンストレーションします。AIがいかに残された摩擦をわずかなものにしているかについても含めます。
Speakers
avatar for Ricardo Abreu

Ricardo Abreu

Software Engineer (Founder), Yonko Level
Software engineer and music producer based in London. Building Midicircuit at Yonko Level — an interactive app for learning music production — and releasing beats as TXBROWN. Interested in audio engineering, learning UX, and making music technology accessible to everyone.
Wednesday June 3, 2026 3:00pm - 4:00pm JST
Next 2

4:00pm JST

Break & Networking / 休憩とネットワーキング
Wednesday June 3, 2026 4:00pm - 4:30pm JST

Wednesday June 3, 2026 4:00pm - 4:30pm JST
Next 2

4:30pm JST

Sponsor Talk 11
Wednesday June 3, 2026 4:30pm - 5:00pm JST

Wednesday June 3, 2026 4:30pm - 5:00pm JST
Next 2

5:00pm JST

Core Technologies Supporting Miku Hatsune and Future Development / 初音ミクを支える基幹技術と今後の展開
Wednesday June 3, 2026 5:00pm - 6:00pm JST
Hatsune Miku has evolved beyond a mere sound source into a "singing voice synthesizer" equipped with advanced expressiveness and real-time responsiveness. This session explains the core technologies of real-time singing voice synthesis developed to meet these requirements, focusing on the architectural shift from conventional subtractive synthesis-based singing synthesis methods to additive synthesis-based approaches.

We delve into fundamental technical challenges in singing voice synthesis: "balancing computational cost with the fidelity of spectral reconstruction" and "ensuring precise controllability without compromising naturalness." In particular, we detail why the additive synthesis architecture was adopted, and discuss the advantages and trade-offs in time-series fidelity and spectral manipulation flexibility compared to other methods such as subtractive synthesis.

Additionally, as optimization strategies for maintaining real-time performance in general consumer environments, we address parameter compression concepts and computational load management techniques. Finally, we share future perspectives including SDK-oriented design to support next-generation creativity and engine extensibility.

初音ミクは単なる音源の枠を超え、高度な表現力と即時応答性を備えた「歌声シンセサイザ」へと進化を遂げてきました。本セッションでは、これらの要件を満たすために開発されたリアルタイム歌声合成の基幹技術について、従来の減算合成ベースの歌唱合成方式から加算合成ベースのアプローチへのアーキテクチャ転換を中心に解説します。
歌声合成における根本的な技術課題である「計算コストとスペクトル再構築の忠実度の両立」、そして「自然さを損なわない緻密な制御性の確保」について掘り下げます。特に、なぜ加算合成アーキテクチャを採用したのか、減算合成等の他方式と比較した際の時系列上の忠実度やスペクトル操作の自由度における利点とトレードオフについて詳述します。
また、一般的なコンシューマ環境でリアルタイム性能を維持するための最適化戦略として、パラメータ圧縮の思想や計算負荷の管理手法についても触れます。最後に、次世代のクリエイティビティを支えるためのSDK化を見据えた設計や、エンジンの拡張可能性など、今後の展望を共有します。
Wednesday June 3, 2026 5:00pm - 6:00pm JST
Next 2
 
Share Modal

Share this link via

Or copy link

Filter sessions
Apply filters to sessions.