人人可用的在线抠图,还是AI自动化的那种!北大校友的算法被玩出新高度
source link: https://www.qbitai.com/2020/08/17820.html
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.
就拿今日凌晨夺得欧冠冠军的拜仁试了试
杨净 发自 凹非寺
量子位 报道 | 公众号 QbitAI
现在人人可试可玩的图像分割来了。
在线API,只需输入图片网址,即可自动删除目标背景。
就拿今天凌晨刚夺得欧冠冠军的拜仁来试试手~
然后就变成了这样。
不过,也有翻车的时候,就像这头大象。
分割之后…诶,它的另一只牙去哪了?
以及,在同时有手和猫的时候。
它呈现的结果就……有点怪异。
这项新应用名叫ObjectCut,在Reddit上一经发布,12小时就获得 700+ 的热度。
不少网友表示:It’s amazing!
简单三步,人人可试可玩
就以上面那头大象为例,使用步骤非常简单。
首先,任意选择一张图片,复制图片地址。
第二步,网站上将地址粘贴到指定位置,然后点击Test Endpoint。
等待几秒之后,点击旁边生成的网址,就大功告成啦!
然后就变成了这样一头少了一颗牙的大象。
还是那个北大校友的研究
是不是觉得这项技术很熟悉,简单几步就可以去移除图片背景?
跟之前的AR应用AR Cut & Paste——将现实物体隔空「复制粘贴」进电脑有异曲同工之妙。
这两项应用背后的主要技术,都是一个叫做BASNet的显著目标检测方法。
这篇研究入围了CVPR 2019,其论文一作是位华人小哥哥——秦雪彬,已经于今年2月在在加拿大阿尔伯塔大学拿到了博士学位,硕士就读于北京大学。
BASNet的核心框架如下图所示,主要由2个模块组成:
第一个模块是 预测模块 ,这是一个类似于U-Net的密集监督的Encoder-Decoder网络,主要功能是从输入图像中学习预测saliency map。
第二个模块是多尺度残差细化模块(RRM),主要功能是通过学习残差来细化预测模块得到的Saliency map,与groun-truth之间的残差,从而细化出预测模块的Saliency map。
而除了 BASNet ,还有网友推荐了 U2-Net ,依然来自同一个作者,其效果更好。
其研究是《U2 -Net: Going Deeper with Nested U-Structure for Salient Object Detection》
实验结果像这样:
同一项技术,不一样的玩法,你觉得这个方法还可以做什么有趣的应用?
另外,想要去试试这个在线图像分割应用,可戳下方链接哦~
网址:
https://rapidapi.com/objectcut.api/api/background-removal
参考链接:
https://www.reddit.com/r/MachineLearning/comments/if1sdg/p_objectcut_api_that_removes_automatically_image/
版权所有,未经授权不得以任何形式转载及使用,违者必究。
Recommend
About Joyk
Aggregate valuable and interesting links.
Joyk means Joy of geeK