#1 - 2019-8-20 21:54
kazami kazuki
相关工作的对比,(效果优势明显

paintschainer(AI生成+交互辅助 色彩位置指定)
style2paint(AI生成+风格色彩迁移+交互辅助 色彩位置指定)
Tag2Pix(无需任何交互辅助,tag设定直接上色)



论文提出使用了一种叫颜色不变标签和颜色变化标签的信息
color illustrations, monotone line arts, color invariant tags (CITs), and CVTs.

user does not need to provide color invariant tags, and only has to provide the color-related tags.
用户只需要提供颜色有关tag即可

实际效果


云游玩地址:
https://github.com/MerHS/tag2pix-gui
https://github.com/blandocs/Tag2Pix

估计等个几天就有网页服务用了(bgm38)
例如自拍2anime那个
#2 - 2019-8-20 22:05
(いいんです)
新浪防盗链啊
能不能换个图床
虽然开个新窗出去也能看(
#3 - 2019-8-20 22:09
(いつでも微笑みを)
微博的图有防盗链,长期来说还是建议换掉微博图床的图。

短期来说,把HTTPS改成HTTP就可以看到了。
#4 - 2019-8-20 22:36
([s]安静点格子[/s] ☄️⚓ ☁️⭐️)
GAN吗,能把识别标签的那部分discriminator单独拉出来做一个自动给图片标tag的应该挺好?
#4-1 - 2019-8-20 22:46
kazami kazuki
标tag?这是dataset里标好的做对抗
discriminator会生成 CVT CIT tag
再弄个loss,这样做的
#4-2 - 2019-8-20 23:03
東瀬まつり🦋❄️🐻💎🐺🍎🐠
hgy0353 说: 标tag?这是dataset里标好的做对抗
discriminator会生成 CVT CIT tag
再弄个loss,这样做的
是generator根据tag生成图片再由discriminator去识别tag来打分吗,现在拿generator出来做tag2pix,能不能再把discriminator拿出来做个pix2tag?
#4-3 - 2019-8-21 10:48
smileandyxu
東瀬まつり太 说: 是generator根据tag生成图片再由discriminator去识别tag来打分吗,现在拿generator出来做tag2pix,能不能再把discriminator拿出来做个pix2tag?
感觉不如直接监督学习?这个GAN里对pix2tag有用的应该只有标注数据,把对生成图片的预测tag也放进discriminator的loss里反而“不知道为什么能work”?