28365-365备用网站,多级Python框架实现了虚拟更衣室,超现实!

28365-365备用网站,多级Python框架实现了虚拟更衣室,超现实!

作者|李秋建
责任编辑|金昭玉
主图片|从Visual China下载的CSDN
任何姿势下的虚拟定制都具有巨大的应用潜力,因此受到了广泛的关注,但是在采用新颖的衣服和姿势时,很难用现有的方法来维护衣服结构和面部特征(脸,头发)的细节。因此,本文的“ DowntotheLastDetail:VirtualTry-onwithDetailCarving”提出了一种新的多层综合框架,该框架可以很好地保留图像显着区域的广泛细节。
特别是,提出了一个多级框架以将生成分解为空间方向,然后从粗到细生成。为了更好地保留突出的区域(例如衣服和面部区域)的细节,我们提出了一个树块(树扩展融合块),以在生成器网络中使用多尺度特征。通过端到端培训的多个阶段,可以一起优化整个框架,最终极大地提高了视觉保真度,同时获得了更详细的结果。大量使用标准数据集进行的实验表明,该框架实现了最先进的性能,特别是在保留服装质地和面部识别的视觉细节方面。
因此,今天我们将基于您的代码实现一个虚拟的修整系统,具体过程如下:
实验前的准备
首先我们使用Python版本3.6.5,使用以下模块:
Opencv用于图像处理以及存储和读取图像。
numpy模块用于处理矩阵数据操作。
Pytorch模块是一个经常使用的深度学习框架,用于创建模型和培训课程,并且在Tensorflow和Keras上具有相当的地位。
json以json存储格式读取数据。
PIL库可以完成图像批处理,图像预览生成,图像格式转换和图像处理操作,包括基本图像处理,像素处理,颜色处理等。
argparse是Python随附的命令行参数解析包,可用于轻松读取命令行参数。
网络模型的定义和训练
经过训练的模型的地址如下:https://drive.google.com/open?id=1vQo4xNGdYe2uAtur0mDlHY7W2ZR3shWT。模型必须存储在“ ./pretrained_checkpoint”目录中。
为了保存数据集,它分为Cloth_Image(用于保存服装图像),Cloth_Mask(用于服装分割并可以与Grabcut共享和保存),Image(用于保存角色图像)和Parse_Cihp(用于保存服装)。可以使用Josn数据的[CIHP_PGN](https://github.com/Engineering-Course/CIHP_PGN)和pose_coco(用于存储提取的特征保留数据,可以通过openpose进行存储)来检索语义分析的图像结果。)。
对于模型训练,我们需要使用VGG19模型,该模型可以轻松地从Internet下载,然后将其放在vgg_model文件夹中。
其中,基于目标姿势和商店中从粗到精的服装图像,提出了一个多层次的成像框架。首先,设计了一个解析转换网络来预测目标语义图,该语义图将对齐人体中的相应身体部位。空间,并提供有关躯干和四肢形状的更多结构信息。然后,使用一种新的树块算法将空间定向的布料与粗略渲染的图像合并在一起,以获得更合理,更体面的结果。除其他事项外,此虚拟试穿网络不仅不依赖3D信息,还可以在人的每个姿势的适当区域添加新衣服,而且还保留并增强了显着区域的丰富细节,例如:B。织物结构,面部特征等。同时,使用空间对齐,多尺度上下文特征聚合和显着面积增强来解决从粗糙到精细的各种问题。
(1)网络主要使用pix2pix模型,其中一些代码如下:
(2)部分生成器代码:
模型的使用完成模型训练后,将使用命令“ pythondemo.py-batch_size_v80-???? num_workers4-forward_save_path’demo / forward’”生成图像。
(1)定义阅读模型功能以及模型调用或过程画面功能
源地址:
链接:https://pan.baidu.com/s/1POrmcvv_LWg-SuY3ilif5g
提取代码:qcj6

Start typing and press Enter to search

bet足球俱乐部