49

iPhone相册会自动归类内衣照?这项机器学习功能让妹子们炸了

 6 years ago
source link: http://36kr.com/p/5100572.html
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.

iPhone相册会自动归类内衣照?这项机器学习功能让妹子们炸了

量子位·2017-11-01 08:00
姐妹们姐妹们大事不好了啊!在苹果相册里搜一下“Brassiere”!

编者按:本文来自微信公众号“量子位”(ID:QbitAI),作者:夏乙,36氪经授权发布。

在iPhone自带的“照片”应用中搜“brassiere”,它就会把所有内衣照(如果你有)都给你汇总在一起展示出来……

这你知道嘛?

反正美国妹纸ellieeewbu之前不知道。她“发现这个新功能”之后,就炸裂了,在Twitter上惊呼:

format,jpg

姐妹们姐妹们大事不好了啊!在苹果相册里搜一下“Brassiere”!苹果为什么要把这些存成一个文件夹!!?!!?😱😱😱😱

就是!可怕!

Twitter上的女性用户们搜了搜自己的相册,开始了后续的连环炸裂……不出一天,上边这条“可怕!”的推文就被转发了上万次,收获了2万多个赞,以及近千条评论。

在这场连环炸裂中,评论区损毁严重,比如说,有一群搜完发图惊呼“WTF”的:

format,jpg
format,jpg
format,jpg
format,jpg

也有虽然能保持文明用语,但明显被吓了一跳,无论如何也想不明白“天啊苹果怎么知道”的:

format,jpg

当然,也少不了各种乱入,从大家发在评论中的图片来看,很多吊带裙、晚礼服都被认成了内衣。还有更惨的,比如这个少年的脸,苹果的算法也觉得和内衣很相似:

format,jpg

苹果甚至还把两条腿,给认成了热狗:

format,jpg

在一众惊慌失措的妹子中,终于有人站出来摆事实、讲道理,展示“苹果真的不是只关心你们的内衣照”。她对妹子们说:你也可以搜“dog”啊,你所有狗狗的照片就都出来了,拿好不谢。

format,jpg

身为全球第一网红的猫,当然也能搜出来。

format,jpg

总的来说,不要慌不要炸,苹果并不是一个只对你内衣照有兴趣的变态。系统自带的“照片”应用能搜出来的物品,从内衣、烤肉、猫猫狗狗,到天空海滩,范围广得很。

而且苹果对内衣的识别,也没有上文几位姑娘想象得那么危险,这个我们后面再说。

在谈图像识别之前,我们先思考一个有趣的问题:苹果自带的“照片”应用,从什么时候开始有这个功能的,你还记得吗?从iPhone 8开始?从iOS 11开始?

认为上边两项是正确答案的,都不是合格的果粉。

量子位来带大家温习一下历史。这项功能,在苹果公司2016年6月的WWDC上首次展示出来,是“照片”应用在iOS 10和macOS Sierra中获得的重大更新,借助人工智能技术,引入了对人脸、物体和场景的识别。

人脸识别带来的新功能,是“人物”相册。苹果会自动按照照片中的不同人物,分成不同相册,用户还可以为每个相册添加名字,便于查找。

format,jpg

而对物体和场景的识别,带来的是“强大的搜索”。比如说一张有山有水有人有马的照片,以后就可以根据其中的场景(山、河)和物体(人、马)搜索出来。

format,jpg

另外,新版的照片还增加了按地点来检索照片的功能。

这三者结合起来,就有了新“照片”应用中的“回忆”功能。苹果会根据照片的拍摄时间地点、其中的人、物体和场景,将它们以“回忆”的形式组织起来,还附赠苹果帮你配了背景音乐的视频,比如说某次全家出门旅行的照片,就会被自动放在同一个“回忆”中。

同年10月,iOS 10更新推送,大部分苹果用户就都用上了新版的“照片”。广大用户用着用着,感觉眼前一亮的大概是新增的“回忆”功能,其次是“人物”和“地点”相册。

而需要用户主动发起交互的“强大的搜索”,就渐渐被淡忘了,大多数用户“从来没用过”,甚至有不少人从来都不知道它的存在。

温习完毕,我们再来谈一谈苹果“照片”里的物体和场景识别。

iOS 10刚刚发布时,有网友根据macOS Sierra照片应用中的代码统计得出,这一版照片应用可以识别7种面部表情,包括贪婪、厌恶,中性,尖叫,微笑,惊讶和怀疑,而能够识别的物体和场景,有3787种,支持中文的有3696种。

而现在,据说“照片”应用能识别的物体和场景已经有4000多种,其中甚至能看到不少中国用户并不熟悉的的名字,比如地中海雪貂、中东蔬菜球、伽蓝鸟等充满异域风情的名词,甚至还有“介质”这种抽象的东西。

完整列表见:
https://zhuanlan.zhihu.com/p/21390428

图像识别这个功能之所以没有受到太多关注,除了需要主动搜索之外,大概也因为它并没有什么新鲜感。

这两年,从机场火车站,到手机上的支付宝、甚至你还没收到货的iPhone X,“刷脸”已经变成了一件司空见惯的事。识别除了人脸之外那些普通的物体、场景的功能,也渐渐普及起来。

“照片”应用里识别物体和场景的基本原理,就是大家已经渐渐熟悉的图像分类。

不过,苹果的图像分类算法有一点特别之处:他们的图像识别模型在手机上运行,而不是云端的服务器。在一张照片被识别的过程中,它不需要经历“传送到服务器→识别,打上类别标签→传送回来”这个过程,一切都在手机本地完成。

这也就是为什么说苹果识别内衣这件事,“没有上文几位姑娘想象得那么危险”,起码比将这些照片同步到iCloud要安全多了。

在移动设备本地运行图像识别模型这件事,苹果算是业内较早提出的。现在,让深度学习模型能在移动设备本地运行,也成了一股潮流。

早在今年4、5月份,Facebook和Google就抢在苹果之前,分别发布了适用于移动端的深度学习框架Caffe2和TensorFlow Lite。

而苹果为了让iOS生态中的App的开发者,也具备把图像分类模型压缩到能直接在iPhone上运行的能力,也在2017年6月的WWDC上推出了CoreML。

苹果说,用了Core ML,iPhone上的人脸识别比Google Pixel上快6倍。

当时,关于CoreML是什么、怎么用,量子位都有相关文章:

苹果大秀AI肌肉:详解Core ML框架及智能音箱HomePod

苹果新推出的CoreML怎么用?有哪些bug?这里有一份教程

更多详细内容,还可以访问开发者文档:https://developer.apple.com/documentation/coreml


About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK