论文部分内容阅读
近年来,人工智能技术与时尚产业的融合发展已成为热门话题,它旨在利用人工智能技术辅助传统的时尚产业,助力时尚产业的数字化转型。针对时尚领域的不同应用场景,人工智能技术的探索和落地层出不穷,虚拟试衣和时尚智能设计是其中的两大热门方向。本文主要研究内容为基于深度生成模型的可控人物图像生成算法,针对人工智能在虚拟试衣和时尚智能设计中的应用,开展了以下两方面研究:针对人工智能在虚拟试衣中的应用,本文提出了一种姿态引导的可控人物图像生成算法。现有虚拟试衣任务中的姿态转移相关工作使用成对的源-目标图像数据集进行训练,通过整体特征转换实现姿态变形,存在训练数据及使用场景受限的问题。本文提出了一种新颖的自监督分区域特征归一化方法,使用源人物图像作为监督信息,通过解耦时尚人物图像的姿态和外观信息,允许用户灵活地操纵姿态和外观属性,以实现人物图像的姿态转移和对人物图像外观属性的控制。实验结果表明,与目前现有的基于监督学习的姿态转移方法和基于无监督的姿态转移方法相比,该方法在生成真实可控的人物图像方面具有有效性和灵活性,为虚拟试衣任务的实现提供了新的解决方案。针对人工智能在时尚智能设计中的应用,本文提出了一种多模态条件引导的可控人物图像生成算法。现有时尚智能设计相关工作关注单一人物图像的单视角生成,使用端到端的卷积神经网络实现一对一映射,存在图像生成效果单一和可控性较差等问题。本文提出了一种新颖的服装智能设计方法,在输入人体姿态和纹理图案的条件下,可以生成多视角的多样化时尚人物图像,用以替代时装设计师重复和低级的设计工作。首先,通过语义生成网络获得多样化的人体语义信息;其次,使用纹理生成网络将输入的纹理图案转移到上一步骤生成的语义布局中;最后,利用外观流生成网络将单一视角的人物图像转换为多视角人物图像。实验结果表明,该方法有效地解决了具有挑战性的多模态图像翻译问题,为时尚智能设计任务的实现提供了新的解决方案。总而言之,本文围绕人工智能在虚拟试衣和时尚智能设计中的应用设计了两个实用新颖的深度生成模型,并且进行了相关的实验分析,证明本文所提方法的有效性和实用性。