引言
在电商零售领域,被AI改变最多的就是服装类目。
从设计到拍摄到营销再到内容,几乎整个流程都可以被AI重新再做一遍。
今天我们来看一个案例,这是国内某一个服装大牌,看他们是如何用AI去改造自己的工作流。
我们今天就只聊一个工具,就是AI绘画工具stable diffusion,今天主要聊AI做印花设计,AI做服装设计,AI做模特,以及AI在整体应用上的一些局限。
如果你是做T恤的,那你其实需要非常多的印花创意,现在T恤的印花在工业上,已经可以做到每一件衣服有不同的印花。
我们来看下文稿,比如我给stable diffusion一个提示词【宇宙漫游】,那它会给我出非常多的图片,选到喜欢的可以直接印到自己的T恤上。
同时它会给你更多风格上的选择,准确来讲,现在这stable diffusion最新的模型sdxl可以一次性生成77种风格。
每一种风格如果再去做裂变的话,理论上来讲,可以得到无限多的创意跟图片,所以用AI做印花设计,现在已经非常成熟了。
第二个是用AI去做服装设计,可以看一下图片,现在用AI做服装设计其实已经能给出非常多的图片了。
不管是从正面、侧面,线稿,整体的服装细节上的设计,它都能给你出图,而且AI现在最牛的是它的创意,我们可以根据提示词一键生成N多个款式。
比如我想要一件长得像可口可乐瓶子一样的连衣裙,乍一听这个要求很无脑,但是你把命令输入给AI之后,它会给你很多像可口可乐风格的中式连衣裙。
你可以通过它给你的这些创意再去做拓展,并且都可以一键生成N多个款式,你慢慢去挑。
第二,我们还可以去做二创的改造,我们知道很多网红女装店的设计,其实就是仿大牌。
就是今天某一个大牌做了一款什么样的衣服,然后把logo去掉,细节上面改一改,然后去做二次创新。
那AI能不能干这个事儿呢?AI干这个事儿实在是太牛了,stable diffusion有一个模型插件controlnet。
我们可以这样理解,controlnet可以固定衣服的一些细节,固定住这些细节之后,在这些基础上再去做扩散。
比如我要去仿某品牌的风衣,我当然不能去仿它的logo,不能去仿品牌上的特点,但是我可以把版型或者味道给固定出来。
固定完轮廓框架之后,我在这个轮廓和框架的基础上不停的去做创新,不停的去做二创,这个现在也是非常成熟的,而且整个过程可能用不了2分钟。
然后是第三种,如果你有一定的绘画功底那更牛了,现在我们可以通过手绘线稿,把你大致想要什么样的衣服,通过笔把它大概画下来。
你不需要画的太细,只需要画一个大致的轮廓,然后交给AI,还是用到controlnet,它会根据你的线稿完成上色,完成细节补充,直接给你生成模特图。
下一个就是AI的服装模特,这个其实我们平时聊的非常多了,但凡有我朋友圈的同学都应该会看到,有太多案例了。
而且现在基本上以假乱真,如果我不告诉你这个是数字人模特,你应该一眼是看不出来的,效果非常好,完全可以做平替。
如果有这方面需求的同学可以跟我们联系,现在在拍摄上已经基本做到不需要摄影师,不需要模特,不需要修图。
直接通过生成的方式,把某一件衣服穿在你想要的数字人模特身上,而且非常真,完全看不出。
AI真的有这么神奇吗?其实还是有非常多的局限的,当我们实际落地的时候,它没有办法考虑更加深层,或者行业内更加专业的东西。
如果我是服装设计师,需要考虑到质感、面料、工艺、结构等专业细节,这些专业细节目前AI是没有办法照顾到的。
然后在整个出图的方面,精确性也是不够的,比如你的衣服棱角明明是圆的,但是AI给你的棱角会有一点尖。
所以在很多细节上,可能没有办法做到百分百的完美,包括模特的细节,可能也没有办法做到百分百完美。
但是信息流的这些种草内容和图片,绝对是够用的,如果你把这些工具给用好了,是能够帮你带来降本增效的结果的。
当然很多东西它暂时做不到,但它的发展速度非常快,controlnet工具也是今年才出现的啊。
可以说是每周都有更新的情况下,在不停的迭代,所以我相信今天的问题,可能在明年就不会是问题了。
还没有评论,快来发表第一个评论!