Daily-211027

本文最后更新于:October 27, 2021 pm

  • 2021年10月27日-星期三-晴
  • 主要收获:
    • 阅读论文《LSC-GAN: Latent Style Code Modeling for Continuous Image-to-image Translation》
    • 一堆的课:英语、网络安全、算法分析……

关于连续域的图像生成问题——LSC-GAN

(Image-to-image问题)

1.Motivation

  当前I2I工作主要在离散域上进行操作(如CycleGAN、StarGAN),而缺少对连续域的研究,不同域之间的相关性常常被忽略,生成图像的多样性不佳,而实际上,标签映射的特定属性往往不是分散的,它们往往被描述为一个连续的数值。本文旨在建立一个模型,实现图像的连续域之间的转换。

  • 两个域之间的转换:Pix2Pix、CycleGAN、DualGAN、DiscoGAN等;
  • 多个域之间的转换:StarGAN、AttGAN、ST-GAN、SMIT、ELEGANT、HomoGAN等;
  • 连续域I2I转换:LIFE、SAM、DLOW等;

3.Method

3.1 baseline

StarGANv2的基础上进行

  • 生成器backbone:自编码器,每层的特征被样式向量影响。
  • 针对label-based方式:
    • 映射网络F:直接映射域特征到样式代码,应用多分支结构。
    • 分支的输出会被label影响。
  • 针对reference-based方式:
    • 直接编码参考图像到样式向量中,CNN采用多分支结构。
    • 应用AdaIN的方式完成样式向量到G的映射。

3.2 整体流程

图3-1 LSC-GAN流程

(我的一些理解:)

  • 图a:表示两种图像生成的方式,label-based与reference-based。其中s代表样式代码(style code),与域的风格有关。生成器G则根据s与输入图像进行训练,style code会有参数共享。
  • 图b:yt表示一个连续域的一部分,yi与yj不重叠,yt通过一个多分支网络结构F学习到域中心的特征,也就是ct,代表yt这个域区间内最普遍的特征,ct与R输入M中,即学习label-based图像生成对应的样式sl;ct与reference image输入E中,即学习reference-based图像生成对应样式sr。
  • 图c:Y与O代表两个模块,分别学习相反过程的域的特征的转换,输入和输出均为code,也就是图b由F学到的ct。
  • 生成器:就是一个Auto-encoder,用AdaIN的方式将style code输入到G中。
  • 判别器:判断图像来源于哪一个域,区分图像是否真实。

总的来说,文章的创新点在于连续域的提出,并且大部分工作在于域的特征的一些提取与处理,以更好地得到图像的多样性。

3.3 损失函数

首先定义:

  • 连续域一致性:

  • 三元组损失:

  • Cycle连续一致损失:

  • 总体优化函数:

3.4 实验结果