Loading…
Wednesday June 3, 2026 5:00pm - 6:00pm JST
Real-time convolution reverb is well understood, but continuously synthesizing long, spatial impulse responses (IRs) at runtime remains a significant engineering and perceptual challenge. This session presents a hybrid GPU/CPU acoustics pipeline that synthesizes listener-centric IRs in real time using multi-bounce raytracing. The pipeline is currently integrated into Elemental Games’ proprietary engine for its unannounced open-world debut title.

The system models frequency-dependent absorption, geometric propagation, and spatial encoding using Ambisonics, while balancing physical plausibility with perceptual clarity. Beyond straightforward multi-bounce tracing, the implementation explores performance-aware sampling strategies and hybrid visibility heuristics to better capture the contrast between enclosed and open spaces. Adaptive update strategies dynamically adjust IR refresh rates based on listener motion and scene changes, maintaining perceptual stability while respecting GPU budgets.

IR data is prepared using partitioned FFT processing on the GPU and transferred to the audio thread through a wait-free synchronization model, enabling stable time-varying convolution without blocking real-time audio processing. Particular focus is given to artifact-free IR updates under evolving conditions, including hybrid time- and frequency-domain crossfading techniques.

The talk examines architectural decisions, modeling trade-offs, perceptual post-processing techniques such as diffusion and stochastic smoothing, and the practical constraints of integrating real-time acoustic synthesis into a production engine. Attendees will gain insight into designing hybrid GPU/CPU DSP pipelines that balance physical modeling, runtime performance, and creative control.

リアルタイム畳み込みリバーブはよく理解されていますが、長い空間インパルス応答(IR)をランタイムで継続的に合成することは、依然として重大なエンジニアリングおよび知覚的課題です。このセッションでは、マルチバウンスレイトレーシングを使用してリスナー中心のIRをリアルタイムで合成するハイブリッドGPU/CPUアコースティクスパイプラインを紹介します。このパイプラインは、現在Elemental Gamesの独自エンジンに統合されており、未発表のオープンワールドデビュータイトルに使用されています。

このシステムは、周波数依存吸収、幾何学的伝播、アンビソニクスを使用した空間符号化をモデル化しながら、物理的妥当性と知覚的明瞭性のバランスを取ります。単純なマルチバウンストレーシングを超えて、実装ではパフォーマンス対応サンプリング戦略とハイブリッド可視性ヒューリスティックを探索し、囲まれた空間とオープンスペース間のコントラストをより良く捉えます。適応更新戦略は、リスナーの動きとシーン変化に基づいてIRリフレッシュレートを動的に調整し、GPU予算を尊重しながら知覚的安定性を維持します。

IRデータはGPU上の分割FFT処理を使用して準備され、ウェイトフリー同期モデルを通じてオーディオスレッドに転送され、リアルタイムオーディオ処理をブロックせずに安定した時変畳み込みを実現します。特に焦点が当てられているのは、時間領域および周波数領域のハイブリッドクロスフェード技術を含む、進化する条件下でのアーティファクト無しのIR更新です。

このトークでは、アーキテクチャの決定、モデリングのトレードオフ、拡散と確率的スムージングなどの知覚的後処理技術、およびリアルタイム音響合成をプロダクションエンジンに統合するための実際的な制約を検討します。参加者は、物理モデリング、ランタイムパフォーマンス、クリエイティブコントロールのバランスを取るハイブリッドGPU/CPU DSPパイプラインの設計に関する洞察を得ることができます。
Speakers
avatar for Anton Lundberg

Anton Lundberg

Co-Founder / Developer, elias.audio
Anton Lundberg is a software engineer and audio programmer specializing in high-performance real-time audio systems and game engine architecture. He develops next-generation game audio middleware at elias.audio and leads development of the audio technology stack at Elemental Games... Read More →
Wednesday June 3, 2026 5:00pm - 6:00pm JST
Next 1

Attendees (5)


Log in to save this to your schedule, view media, leave feedback and see who's attending!

Share Modal

Share this link via

Or copy link