forked from a312863063/generators-with-stylegan2
-
Notifications
You must be signed in to change notification settings - Fork 0
/
edit_photo.py
92 lines (80 loc) · 4.55 KB
/
edit_photo.py
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
import pickle
import PIL.Image
import numpy as np
import dnnlib
import dnnlib.tflib as tflib
import os
def read_feature(file_name):
file = open(file_name, mode='r')
# 使用readlines() 读取所有行的数据,会返回一个列表,列表中存放的数据就是每一行的内容
contents = file.readlines()
# 准备一个列表,用来存放取出来的数据
code = np.zeros((512, ))
# for循环遍历列表,去除每一行读取到的内容
for i in range(512):
name = contents[i]
name = name.strip('\n')
code[i] = name
code = np.float32(code)
file.close()
return code
def move_latent_and_save(latent_vector, direction_file, coeffs, Gs_network, Gs_syn_kwargs):
direction = np.load('latent_directions/' + direction_file)
os.makedirs('results/'+direction_file.split('.')[0], exist_ok=True)
'''latent_vector是人脸潜编码,direction是人脸调整方向,coeffs是变化步幅的向量,generator是生成器'''
for i, coeff in enumerate(coeffs):
new_latent_vector = latent_vector.copy()
new_latent_vector[0][:8] = (latent_vector[0] + coeff*direction)[:8]
images = Gs_network.components.synthesis.run(new_latent_vector, **Gs_syn_kwargs)
result = PIL.Image.fromarray(images[0], 'RGB')
result.save('results/'+direction_file.split('.')[0]+'/'+str(i).zfill(3)+'.png')
def main():
# 在这儿选择生成器
tflib.init_tf()
with open('networks/generator_yellow-stylegan2-config-f.pkl', "rb") as f:
generator_network, discriminator_network, Gs_network = pickle.load(f)
# 这是一些配置参数,不要动它
w_avg = Gs_network.get_var('dlatent_avg')
noise_vars = [var for name, var in Gs_network.components.synthesis.vars.items() if name.startswith('noise')]
Gs_syn_kwargs = dnnlib.EasyDict()
Gs_syn_kwargs.output_transform = dict(func=tflib.convert_images_to_uint8, nchw_to_nhwc=True)
Gs_syn_kwargs.randomize_noise = False
Gs_syn_kwargs.minibatch_size = 1
truncation_psi = 0.5
# 在这儿选择人物的潜码,注意要与生成器相匹配。潜码来自生成目录下有个generate_codes文件夹里的txt文件。
face_latent = read_feature('results/generate_codes/0000.txt')
z = np.stack(face_latent for _ in range(1))
tflib.set_vars({var: np.random.randn(*var.shape.as_list()) for var in noise_vars}) # [height, width]
w = Gs_network.components.mapping.run(z, None)
w = w_avg + (w - w_avg) * truncation_psi
# 在这儿选择调整的方向,共有21种调整方式,它们的名称与分别对应的功能如下所示。
'''
age.npy - 调整年龄
angle_horizontal.npy - 在左右方向上调整人脸角度
angle_vertical.npy - 在上下方向上调整人脸角度
beauty.npy - 调整颜值
emotion_angry.npy - 调整此项可增添/减弱一些生气的情绪(调整步幅建议缩小)
emotion_disgust.npy - 调整此项可增添/减弱一些厌恶的情绪(调整步幅建议缩小)
emotion_easy.npy - 调整此项可增添/减弱一些平静的情绪(调整步幅建议缩小)
emotion_fear.npy - 调整此项可增添/减弱一些害怕的情绪(调整步幅建议缩小)
emotion_happy.npy - 调整此项可增添/减弱一些开心的情绪(调整步幅建议缩小)
emotion_sad.npy - 调整此项可增添/减弱一些伤心的情绪(调整步幅建议缩小)
emotion_surprise.npy - 调整此项可增添/减弱一些惊讶的情绪(调整步幅建议缩小)
eyes_open.npy - 调整眼睛的闭合程度
face_shape.npy - 调整脸型
gender.npy - 调整性别
glasses.npy - 调整是否戴眼镜
height.npy - 调整脸的高度
race_black.npy - 调整此项可接近/远离向黑种人变化
race_white.npy - 调整此项可接近/远离向白种人变化
race_yellow.npy - 调整此项可接近/远离向黄种人变化
smile.npy - 调整笑容
width.npy - 调整脸的宽度
'''
direction_file = 'smile.npy' # 从上面的编辑向量中选择一个
# 在这儿选择调整的大小,向量里面的值表示调整幅度,可以自行编辑,对于每个值都会生成一张图片并保存。
coeffs = [-15., -12., -9., -6., -3., 0., 3., 6., 9., 12.]
# 开始调整并保存图片
move_latent_and_save(w, direction_file, coeffs, Gs_network, Gs_syn_kwargs)
if __name__ == "__main__":
main()