0

一键换装神器爆火,老黄换上抱抱脸T恤,CEO本人:我被替代了,和他争CEO职位争不过

 1 month ago
source link: https://www.qbitai.com/2024/04/138127.html
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.

一键换装神器爆火,老黄换上抱抱脸T恤,CEO本人:我被替代了,和他争CEO职位争不过

head.jpg西风 2024-04-28 16:50:11 来源:量子位

马斯克奥特曼也都来参加“时装秀”

西风 发自 凹非寺

量子位 | 公众号 QbitAI

笑不活,最新虚拟试穿神器被网友们玩坏了。

黄院士、马斯克、奥特曼、史密斯等一众大佬衣服集体被扒。

前有老黄卸下皮衣套上糖果包装袋:

d7ce871a8a5bb84b2a2e581176f66617.jpeg

后有奥特曼大秀花臂穿CUCCI:

07ec62512c87280ce517b8e16cbcbc47.gif

再有老马变成了蛛蛛侠:

8e0b9d16383f5fcb0703e8387ba8e419.png

好莱坞巨星史密斯也风格大变:

ff361ce14715096766e6a0520cf9250d.png

但说回研究本身,确实正儿八经的研究。

0cdde2b70952c95c903aa3b4b852e8b1.gif

名为IDM–VTON,由来自韩国科学技术院和OMNIOUS.AI公司的研究团队基于扩散模型打造。

4c92d11c8b15d72ea81e18a00fe3ed83.png

目前官方放出了demo,大伙儿可以试玩,推理代码已开源。

除了开头所展示的,抱抱脸研究员也玩的不亦乐乎,给老黄换上了专属战袍。其CEO连忙转发打趣:

我被替代了,没法和他争CEO。

4b647f986c12eb0bb164e0b14a874f3b.png

看热闹的网友也是感慨,经过这么多年,终于不用再担心自己“手残”了(AI帮你搞定)。

81e6f30a6d770710486c0f44b7487e43.png

我们也赶紧上手体验了一把。demo整个页面是这样婶儿的:

f6286c3cfdcb8aa2a9f559e919fd0540.png

操作起来也是非常简单。

首先上传人物图,可以手动或者自动选择要修改的区域。然后,上传要换的衣服。

97256de1a5d11ecbe9b556f7704c2143.png

直接点击Try-on,会自动生成掩模图和换装后的图:

695f2e2bff2a8109947ff56cfc5f5035.png

上面这张自动生成的掩模把手也选进去了,所以最后生成的左手效果不好。

我们手动选取涂抹一下,同时人和衣服全部都用我们自己的图。

fc0d0d617e0bbe3c836c8fac1177032e.png
2bbc4aa89c9af1c5d041224334ba6b70.png

这次效果大伙儿觉得如何?

再来展示一波网友的试玩成品图。

DeepMind联合创始人苏莱曼穿上了微笑面具修格斯联名款T恤:

7a69c2c222b4c2d91a362a972a90256c.png

甚至不少网友真想要这件衣服。

8ce7ab07bd1774ab4fa5bb18286bd0cc.png

奥特曼再次被网友当成模特:

c9ce32518098e7a0cd34d3aff382f3d4.png

当然也有翻车的时候,比如马斯克穿的就是山寨CUCCI。

30c8a35fe7276272eb2ef00980d9c86a.png

看完效果后,接着来看IDM–VTON在技术上是如何实现的。

基于扩散模型

技术方面,IDM–VTON基于扩散模型,通过设计精细的注意力模块来提高服装图像的一致性,并生成真实的虚拟试穿图像。

模型架构大概包含三部分:

  • TryonNet:主UNet,处理人物图像。
  • IP-Adapter:图像提示适配器,编码服装图像的高级语义。
  • GarmentNet:并行UNet,提取服装的低级特征。
b62c8f7ba12b4e5c33c427bcbfae4faf.png

在为UNet提供输入时,研究人员将人物图片的含噪声潜在特征、分割掩模、带掩蔽的图片和Densepose数据整合在一起。

他们还会为服装添加详细描述,例如[V]表示“短袖圆领T恤”。这个描述随后用作GarmentNet(例如,“一张[V]的照片”)和TryonNet(例如,“模特正在穿[V]”)的输入提示。

TryonNet和GarmentNet产生的中间特征进行了合并,随后传递至自我注意力层。研究人员只使用了来自TryonNet的输出的前半部分。这些输出与文本编码器和IP-Adapter的特征一起,通过交叉注意力层进行融合。

最终,研究人员对TryonNet和IP-Adapter模块进行了精细调整,并锁定了模型的其它部分。

实验阶段,他们使用VITON-HD数据集训练模型,并在VITON-HD、DressCode和内部收集的In-the-Wild数据集上进行评估。

IDM–VTON在定性和定量上都优于先前的方法。

2f29bc6ce7ab542dfa2d4b3d7c8a5bde.png
04678841568a5342691d88b9f125919a.png
5e74b5a6ef6bbcc197e594a7a315348e.png
17e598daaeac9941d4f861762671640d.png
25b10c21db1bf3c538dd4075d0ecc71e.png
84e292ba7071250ac0eba8e406c91708.png

IDM-VTON可以生成真实的图像并保留服装的细粒度细节。

fedae27b33c44bf197a05268a84fc932~tplv-tt-shrink:640:0.image?lk3s=06827d14&traceid=20240428164025E9FA69FF67D3E9FD3AB7&x-expires=2147483647&x-signature=NE0RNgL6ymPrEyEcDiWyVdovvqg%3D

更多细节,感兴趣的家人们可以查看原论文。

项目链接:
[1]https://idm-vton.github.io/?continueFlag=589fb545dbbb123446456b65a635d849
[2]https://arxiv.org/abs/2403.05139
[3]https://huggingface.co/spaces/yisol/IDM-VTON?continueFlag=589fb545dbbb123446456b65a635d849
参考链接:
[1]https://twitter.com/multimodalart/status/1782508538213933192
[2]https://twitter.com/fffiloni/status/1783158082849108434
[3]https://twitter.com/ClementDelangue/status/1783179067803533577

版权所有,未经授权不得以任何形式转载及使用,违者必究。

About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK