└ガウススプラッティングは3次元ビデオを記録する方法なんだ。多くの角度から同時にシーンをキャプチャして、それを一つの表現にまとめる。理想的には、その表現が十分に良ければ、ポストプロダクションで元々記録していなかったカメラアングルをシミュレートできるんだ。例えば、このミュージックビデオのパフォーマーの周りをカメラが回る動きは、実際の空間では想像しにくいよね。ロボットのモーションコントロールアームを使って実現できたとしても、撮影前に全ての振り付けを固定する必要がある。だから、このビデオは、最終的に合成されたシーンの3Dバーチャル空間でアーティストが望むカメラの動きを自由に指示できることをうまく活用してる。これを実現するためには、表現が放射場を推定する必要があるんだ。つまり、3Dボリューム内の各ポイントで見える光の量や色を、あらゆる角度から見る必要がある。ボクセルに分割して高解像度でこれを行うのは不可能で、スケールが悪くなる(O(n^3))。メッシュジオメトリを推測して、カメラビューに合ったテクスチャを塗ることもできるけど、自動化するのは難しい。ガウススプラッティングは、放射が空間に配置され、伸ばされ、回転された何百万ものふわふわしたカラーボールから構成されると仮定して、これらの放射場を推定するんだ。これがガウススプラットだよ。表現ができたら、仮想カメラを配置して角度を調整するだけで新しいカメラアングルを作るのは簡単で、見えるスプラットの色や位置を記録するだけなんだ。このアプローチは、現代のディープラーニングに似た技術にもかなり適していることが分かったよ。基本的には、スプラットの位置や形状、回転を勾配降下法でトレーニングするんだ。主に研究室で探求されてきたけど、最近はHoudiniのような人気の3Dモーショングラフィックスツール向けにプロダクション指向のツールが作られて、より利用しやすくなってる。