由neural ode的性质,prior distribution和image distribution是bijective mapping,所以probability path的交叉区域可以被模型自动分开。以此为动机,对生成模型预测的data pairs进行迭代的rectified flow,可以得到更加笔直的probability path,从而实现单步生成。但是反复迭代rectified flow又会累加生成图像误差。所以需要权衡模型推断时的采样步数和生成图像质量。
由neural ode的性质,prior distribution和image distribution是bijective mapping,所以probability path的交叉区域可以被模型自动分开。以此为动机,对生成模型预测的data pairs进行迭代的rectified flow,可以得到更加笔直的probability path,从而实现单步生成。但是反复迭代rectified flow又会累加生成图像误差。所以需要权衡模型推断时的采样步数和生成图像质量。
放点过期照片啦~
根据高维高斯分析,普通随机采样的x_T大概率处在一个球面赤道位置的小带子上,但是用ddim做inverted latent space,比x_T要小那么一圈,所以在小概率区域。那么神经网络自然对小概率区域,预测是不准的。 于是作者提出,那么可以不在x_T上进行语义操作。等反向过程中某个x_t,inverted latent space和普通随机采样的高概率区域差不多的时候,进行语义操作就好了。作者实验发现,等高斯分布半径差不多到4的时候,就是比较好的时机了。
友友们,书接上回,有没有在美国的硕士或者博士能赏个脸解答下。
有没有海外的博士,想咨询一下博士面试经验[哇][哇][哇]
Call me worker.
好好好今天的新知识是网易云音乐教的
博士期间,其实没学到啥[满脸问号][满脸问号][满脸问号]
现在流行的多抗防御的方法都涉及classifier对于OOD样本的预测,使得模型表现难以控制。那么有什么办法去避免使用classifier在OOD样本上做预测呢? 这篇文章指出,扩散模型本身就可以用ELBO和贝叶斯定理对ID数据做分类。不仅如此,扩散模型还可以将OOD数据拉到ID。由此,扩散模型可以实现 classifier-free的对抗防御。
我还在想哪个艺高人胆大的敢去套乔姆斯得基的兹