Loading…
Tuesday June 2, 2026 5:00pm - 6:00pm JST
What happens when you give an LLM the ability to not just control a synth's parameters, but understand its signal flow and hear the results? In this talk, I'll explore that question live on stage — starting with a basic synth sound, describing what I want in plain language, and iteratively shaping it into a fully designed lead patch. Along the way, we'll see where an LLM can genuinely reason about sound design versus where it falls short, and what kind of information — from signal flow metadata to real-time spectral analysis — makes the difference between an AI that blindly turns knobs and one that can diagnose and fix a problem.

LLMにシンセのパラメータを操作させるだけでなく、シグナルフローを理解させ、その結果を「聴かせる」ことができたら、何が起きるでしょうか。このトークでは、その問いをステージ上でライブで探ります。基本的なシンセサウンドから始めて、自然な言葉でイメージを伝えながら、完成されたリードパッチへと段階的に作り上げていきます。その過程で、LLMがサウンドデザインについて本当に推論できる部分と、まだ力が及ばない部分を明らかにし、シグナルフローのメタデータやリアルタイムのスペクトル分析といった情報が、ただノブを回すだけのAIと、問題を診断して的確に修正できるAIとの違いをどう生み出すのかを見ていきます。
Speakers
avatar for Aurnik

Aurnik

Musician and AI engineer exploring the intersection between sound and science.
Tuesday June 2, 2026 5:00pm - 6:00pm JST
Next 3

Attendees (6)


Log in to save this to your schedule, view media, leave feedback and see who's attending!

Share Modal

Share this link via

Or copy link