Cross Attention Based Style Distribution for Controllable Person Image Synthesis基于交叉注意力的风格分布用于可控的人物图像合成ECCV-2022-8图1. 左:给定源图像和目标位姿,我们的模型能够根据需要进行位姿传递并生成目标解析图。注意,对于目标解析图,我们只有一个训练阶段,没有独立生成。然而,我们的模型仍然通过基于交叉注意力的风格分布模块精确地合成它。右:我们的模型还通过显式控制源图像和参考图像的姿势和身体部位外观来实现虚拟试戴和头部(身份)交换。摘要:可控人物图像合成任务通过对身体姿势和外观的明确控制实现了广泛的应用。在本文中,我们提出了一种基于交叉注意力的风格分布模块,该模块在源语义风格和目标姿态之间进行计算以进行姿势转移。该模块有意选择每个语义所代表的风格,并根据目标姿势分配它们。交叉注意力中的注意力矩阵表达了目标姿势和所有语义的源风格之间的动态相似性。因此,它可以用来路由源图像的颜色和纹理,并进一步受到目标解析图的约束,以达到更清晰的目标。同时,为了准确编码源外观,还添加了不同语义风格之间的自我
SCAM! Transferring humans between images with Semantic Cross Attention ModulationIntroduction作者首先用编码器E对目标对象进行编码,得到目标潜码。然后,我们对姿态和背景引用的背景和语义掩码进行编码。最后,生成器G合成一个图像,在这个图像中,被摄对象被转换成所需的背景和姿态。 给定一个源和一个目标主体,主体转移的思想是让源主体无缝地替换目标图像中的目标主体。目标图像应该保持相同的背景,相同的主体和对象之间的相互作用,和相同的空间配置,以考虑可能的遮挡。图1说明了这一点。注意,与脸、建筑或景观相比,人体具有高度形态多样性的延展性,因此很难建模。 现如今大多数方法要么专注于姿态迁移,姿态会发生变化,要么专注于风格迁移,姿态保持固定,但主体的风格会发生变化。它们是有限的,因为它们:限制多:它们只在统一的背景下工作,在复杂的背景下就会失败。花费多:他们训练比较困难或者每个人训练一个模型。主体转移改变了主体的姿势和风格/身份。因此,一个成功的系统在姿势和风格转移上都是解耦的,
一只胖橘