幻化秋叶原成功!!!
下面这张是我实际拍的照片——2023年3月12日是周日,当天秋叶原实施「步行者天国」,也就是禁止车辆通行,行人可以随意走到马路上。
简单介绍一下所用到的AI的步骤吧。其实这是我成功地用Stable Diffusion(AUTOMATIC1111的webui)做出这么一张由图生图(img2img)的图,因此还有许多尚在熟悉和调试的步骤及参数,许多都是试验多次然后碰巧成功的。简单来说,一共分为2个主要步骤。
第一个主要步骤,先在img2img中导入原照片,利用ContorlNet中的Seg功能,让SDwebui程序自动识别出照片中的物体种类(建筑?人?风景?)并用颜色标记出来。对于这个功能,我也是第一次使用,对此有2段不错的介绍视频:【AI绘画】强大的构图工具:Seg(ControlNet)语义分割控制网络及【AI绘画】ControlNet Seg在场景生成/人物背景合成时的工作流可作为参考。
此时,再辅以「(masterpiece), ((best quality)),best quality,RAW photo,8K,, detailed,Japan,(akihabara:1.5),street, beautiful building,fine weather,beautiful sky,cyberpunk,」以及Negative prompt:「 (worst quality:1.6),(low quality:1.6), easynegative,extra limbs, full body」这些tag,生成一张「基于原图但不同于原图的,造型又不能发生太大变化的」新图。
在这里,一个重要的参数是Denoising strength这个参数,似乎是控制着img2img时重绘时的强度。如果该数值太大,就会将图像重绘得失去面来的形态,让人认不出是秋叶原;如果太小,那几乎就和原始照片没什么变化。这一次,我取的数值是Denoising strength: 0.5,但因为这是我第一次尝试这么操作,我不知道换了张照片、换了个模型,乃至换了个随机种子(Seed),是不是这个数值也要相应变化才能使得改变的程度最为适当。
还有一个要点,就是因为我的这张原始照片拍摄的当天,秋叶原是多云偏阴的天气,并没有很阳光绚烂的感觉,所以我在写标签(tag)的时候,就额外加入了fine weather,beautiful sky这两个tag。
总之,这第一大步骤,就是以img2img的功能,从原始照片生成一张「像,但改变了风格及细节元素的」照片。在这一大步骤结束之后,我得到的是这样一张图片:
第二个步骤,就是以inpaint功能,在已生成的图像上,用蒙版画出一片区域,对这片区域进行重新绘制,让它上面多出点什么东西来。对于inpaint功能的各项参数,我也是使用得很不熟练(其实我之前一个月基本上都一直在学习和练习使用txt2img……),这方面就请参考其他网上已有了其他介绍类文章吧。这里用到的正面标签(tag)是:「(1girl),otaku girl,cute,sexy, glasses,backpack,smile,[sexy maid clothes:gothic maid clothes:0.8],[light blue hair:pink hair:0.7],(looking at viewer),standing,((face to viewer)),(portrait), camera, ((hold hands with viewer)),upper body」。
最后,其实最顶上的图也是在生成的许多张图片中挑选出来的一张结构比较合理的。
偶尔还会有下图这样不合理但很有趣的……
有没有一种把徽章挂满做成一件「痛披风」穿在身上的重度OTAKU少女的感觉?!其实这张更有秋叶原气质呀!