Loading…
Wednesday June 3, 2026 9:00am - 10:00am JST
In recent years, generative models have become capable of generating high-quality music from natural language. However, the mechanisms to adequately respond to repeated trial-and-error and fine-grained nuance adjustments that occur throughout the production process remain in a developmental stage.

This presentation introduces design approaches based on interactive machine learning, where users can leverage small amounts of local data generated during the production process and manipulate the latent space of generative models. By incorporating exploration and parameter manipulation into an interactive loop, we present a structure that allows generative model outputs to be not merely "selected," but rather integrated into and utilized within one's own production process.

Through research case studies from the presenter, we will introduce visualization of generative models, real-time control, applications to live performance, and design examples as audio plugins and tools. We will discuss new practical approaches for how music generation AI can be integrated into workflows for composition, arrangement, and sound design.

近年の生成モデルは、自然言語から高品質な音楽を生成できるようになりました。一方で、制作の過程で繰り返される試行錯誤や細かなニュアンスの調整に、十分に応答できる仕組みはまだ発展途上にあります。

本講演では、インタラクティブ機械学習の考え方に基づき、ユーザが制作過程で生み出す少量のローカルデータを活用したり、生成モデルの潜在空間を操作していく設計アプローチを紹介します。探索やパラメータ操作を対話的なループに組み込むことで、生成モデルの出力を単に「選ぶ」だけでなく、自身の制作プロセスに組み込みながら活用できる構造を提示します。

講演者の研究事例を交えながら、生成モデルの可視化、リアルタイム制御、ライブパフォーマンスへの応用、さらにオーディオプラグインやツールとしての設計例を紹介します。音楽生成AIを作曲・編曲・サウンドデザインのワークフローにどのように統合できるのか、新しい実践的アプローチを議論します。
Speakers
avatar for Junichi Shimizu

Junichi Shimizu

研究者/サウンドアーティスト。2019年 MUTEK.JP AI Music Labでのパフォーマンスを機に音楽活動を開始。インタラクティブミュージックをはじめ、サウンドプログラミングを活用した作品を数多く手掛ける。2022–23... Read More →
Wednesday June 3, 2026 9:00am - 10:00am JST
Next 2

Attendees (2)


Log in to save this to your schedule, view media, leave feedback and see who's attending!

Share Modal

Share this link via

Or copy link