Deep generative modeling refers to the process of constructing a model, parameterized by a deep neural network, that learns the underlying patterns and structures of the data generating process which produced the samples in a given dataset, in order to generate novel samples that resemble those in the original dataset. Deep generative models for 3D shape generation hold significant importance to various fields including robotics, medical imaging, manufacturing, computer animation and more. This work provides a pedagogical overview of likelihood-based models, namely variational autoencoders, flow-based models, diffusion models and rectified flows and investigates the effect on generation quality of replacing the Chamfer loss with a sliced Wasserstein loss in an application to shape generation with 3D point clouds.
Djup generativ modellering hänvisar till processen att konstruera en modell, parametriserad av ett djupt neuralt nätverk, som lär sig de underliggande mönstren och strukturerna för den datagenererande process som producerade proverna i en given datamängd, för att producera nya prover som liknar dem i den ursprungliga datamängden. Djupa generativa modeller för 3D-formgenerering har stor betydelse för olika områden, inklusive robotik, medicinsk bildbehandling, industriell tillverkning, datoranimation osv. Detta arbete ger en pedagogisk översikt av sannolikhetsbaserade modeller, nämligen variational autoencoders, flödesbaserade modeller, diffusionsmodeller och likriktade flöden och undersöker effekten på generationskvaliteten av att ersätta Chamfer-lossfunktionen med en sliced Wasserstein-lossfunktion i en applikation för att forma formgenerering med 3D-punktmoln.