Loading…
Tuesday June 2, 2026 11:20am - 12:20pm JST
Recent advances in AI music technology have largely focused on generating and manipulating raw audio. Diffusion models, neural synthesizers, and source separation systems have made waveform-level processing more powerful than ever. However, many creative tools for musicians still struggle with control, editability, and real-time interaction when operating directly on audio.

In this talk, we explore why symbolic representations—especially MIDI—remain a crucial layer for building practical and expressive AI music tools.

Rather than treating MIDI as a legacy protocol, we examine how it provides a powerful abstraction for structure, intent, and musical interaction. MIDI enables precise editing, controllable generation, and seamless integration with existing creative workflows. When combined with modern AI models, it becomes a flexible interface between human musical ideas and machine-generated content.

Through examples from our own researched, developed and deployed tools, we show how MIDI can serve as the control plane for generative music tools. Topics will be on the lines of symbolic-to-audio pipelines, AI-assisted composition workflows, expressive performance data, and hybrid systems that combine MIDI reasoning with neural audio synthesis.

The talk argues that many future music tools will not be purely “audio AI,” but instead layered systems where symbolic representations guide audio generation.

AI音楽技術の最近の進展は、主に生オーディオの生成と操作に焦点を当ててきました。拡散モデル、ニューラルシンセサイザー、ソース分離システムは、波形レベルの処理をこれまで以上に強力にしました。しかし、ミュージシャン向けの多くのクリエイティブツールは、オーディオを直接操作する際に、制御性、編集可能性、リアルタイム相互作用の面で依然として課題があります。

本トークでは、シンボリック表現、特にMIDIが、実用的で表現力豊かなAI音楽ツールを構築するための重要なレイヤーとして残る理由を探ります。

MIDIをレガシープロトコルとして扱うのではなく、構造、意図、音楽的相互作用に対する強力な抽象化を提供する方法を検討します。MIDIは正確な編集、制御可能な生成、既存のクリエイティブワークフローとのシームレスな統合を可能にします。最新のAIモデルと組み合わせると、人間の音楽的アイデアと機械生成コンテンツの間の柔軟なインターフェースになります。

当社が研究、開発、導入したツールの例を通じて、MIDIが生成音楽ツールのコントロールプレーンとしてどのように機能できるかを示します。トピックは、シンボリック・トゥ・オーディオパイプライン、AIアシスト作曲ワークフロー、表現力豊かなパフォーマンスデータ、およびMIDI推論とニューラルオーディオ合成を組み合わせたハイブリッドシステムについてです。

このトークは、今後の多くの音楽ツールは純粋な「オーディオAI」ではなく、シンボリック表現がオーディオ生成を導くレイヤー化されたシステムになるだろうと主張しています。
Speakers
Tuesday June 2, 2026 11:20am - 12:20pm JST
Next 3

Attendees (6)


Log in to save this to your schedule, view media, leave feedback and see who's attending!

Share Modal

Share this link via

Or copy link