26

苹果将如何支撑旗下 5 大 OS 的未来?

 4 years ago
source link: https://www.tuicool.com/articles/nyuU32e
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.

aemeeiZ.png!web

雷锋网消息,美国太平洋时间 2019 年 6 月 3 日上午 10 点,在 San Jose 市中心的 McEnery Convention Center,苹果 WWDC 2019 全球开发者大会最值得关注的 Keynote 环节正式开幕。在这一环节中,除了硬件层面的 Mac Pro 和 Pro Display XDR 的发布值得关注,苹果也发布了一系列面向开发者的开发工具,比如说如 ARKit 3、RealityKit、Core ML 3、SiriKit 等。

这些开发者工具有什么亮点?雷锋网将带你一探究竟。

73iMVnn.png!web

AR:功能更加多样化

纵观前两年的 WWDC 大会,苹果对 AR 的重视只增不减;在 WWDC 2019 上,苹果除了升级了 ARKit,还公布了一个新的高级 AR 框架 RealityKit 以及一个能够轻松创建 AR 体验的新应用程序 Reality Composer。

ARKit 是在 2017 年推出的,是苹果进军 AR 的第一步;2018 年,苹果将其升级为 ARKit 2,主要进行了两项更新:与 Pixar 合作的新的文件格式 USDZ 和多人共享 AR。如今,ARKit 再次升级,迎来了 ARKit 3。

ARKit 3 引入了实时人体遮挡,它能够知道人和 AR 对象的位置,对场景进行适当地遮挡。不仅如此,它还能够通过动作捕捉,跟踪人类的动作,作为 AR 场景的输入。同时,通过 ARKit 3,设备的前后两个摄像头现在可以同时使用,因此,用户的面部表情也可以成为 AR 体验的一部分。

除了能够同时使用两个摄像头,多面部跟踪和多人之间的实时协作会话也是 ARKit 3 的亮点所在,这能够让用户拥有更多样化的 AR 体验。

ARKit 3 是在原有的 ARKit 基础上进行的升级;不同于 ARKit 3,今年首次公布的 RealityKit 和 Reality Composer 显得更为新颖。

RealityKit 是一个全新的高级框架,具有真实感渲染、相机效果、动画、物理等功能,是专门为增强现实而构建的。它能够为多人 AR 应用程序处理网络,这意味着开发人员不需要是网络工程师就能够开发共享 AR 体验。

Reality Composer 是一个新的开发程序,它不仅面向 iOS,还能够在 macOS 中使用。这个工具让开发人员能够可视化地创建 AR 场景,并且能够在场景中添加移动、缩放和旋转等动画。不仅如此,开发人员还能够对动画进行设置:当用户轻击对象、用户接近对象、或是激活其他触发器时执行操作。

buQRFjz.png!web

Core ML 3:支持高级神经网络

在 WWDC 2019 上,苹果介绍了 Core ML 3,这是苹果机器学习模型框架的最新版本。

Core ML 是能在苹果产品上使用的高性能机器学习框架,能帮助开发者快速地将多种机器学习模型融合到App中。它在 2017 年推出,2018 年升级为 Core ML 2,处理速度提升了 30%。

而如今,Core ML 升级为 Core ML 3,Core ML 3 将首次为设备上的机器学习提供培训。由于模型可以使用设备上的用户数据进行更新,因此 Core ML 3 能够帮助模型在不损害隐私的情况下与用户行为保持相关。

不仅如此,Core ML 3 还支持高级神经网络,支持超过 100 种层类型,这让它在图像、声音识别上有更好的表现。另外,它能够无缝地利用 CPU、GPU 和神经引擎去提供最大的性能和效率。

ZnaeE3V.png!web

SiriKit:更好的应用扩展

Siri 是苹果最先推出的 AI 应用,也是世界上最受欢迎的语音智能助手之一;在 WWDC 2019 上,Siri 也得到了升级。

一个最为直观的改变是,苹果在 iOS 13 中采用了 Neural Text-to-Speech (TTS)技术,让 Siri 的语音听起来更加自然,这也标志着 Siri 不再借重人类语音样本而发声。

Siri 与 AirPods 的结合也是亮点之一。例如,当用户收到短信时,可以让 Siri 在 AirPods 中直接读出来,不仅如此,你还能够利用 AirPods 快速回复短信。此外,Siri 在 HomePod 上的体验也得到了大幅提升,显得更加个性化;比如说,HomePod 可以识别家庭的不同用户,而当不同用户的手机靠近 HomePod 时,它就能够得知该用户喜欢的播客和音乐。

值得注意的是,在今年的 WWDC 大会上,苹果推出了 SiriKit。SiriKit 包含 Intents 和 Intents UI 框架,开发者可以用它们来实现应用扩展;而应用程序一旦采用 SiriKit,即使应用程序本身没有运行,也能够通过 Siri 实现应用扩展。

HomeKit:加强隐私保护力度

HomeKit 是苹果在 2015 年推出的智能家居框架,它内置于 iOS 8 中,用于与用户家中连接的附件进行通信和控制。

在本次 WWDC 中,苹果主要强调 HomeKit 对用户隐私的保护力度。比如说,苹果首次推出了 HomeKit Secure Video,它能够分析本地的智能家庭设备(比如安全摄像头)的视频,然后再将其加密,上传到 iCloud。

和 HomeKit Secure Video 一样首次亮相的还有获得一系列第三方支持的 HomeKit 路由器,这个路由器能够将设备隔离开,以防止整个网络受到攻击。

据了解,HomeKit 路由器提供的保护隐私的安全措施远远超出了家庭安全摄像头的范围,它的自动防火墙能够与 HomeKit 配件进行连接,只要其中一个配件遭受到入侵,入侵者就没有办法访问其他设备,阻止了个人信息泄露。

UzuUzyB.png!web

SwiftUI:从一百行代码到十几行

在本次的全球开发者大会上,苹果发布了基于开发语言 Swift 建立的框架——SwiftUI。

Swift 是苹果于 2014 年 WWDC 发布的新开发语言,可与 Objective-C 共同运行于 macOS 和 iOS 平台,用于搭建基于苹果平台的应用程序。Swift 的设计以安全为出发点,以避免各种常见的编程错误类别;2015 年,苹果将 Swift 开源。

本次苹果发布的 SwiftUI 正是基于 Swift 语言,它使用一组工具和 API,可在所有的苹果平台上提供一套统一的UI 框架,当然也可以用于 watchOS、tvOS、macOS 等苹果旗下的多个操作系统,它具有自动支持动态类型、暗黑模式、本地化和可访问性的特点。

举例来说,新的 SwiftUI 编程框架拥有全新的交互式开发人员体验,跟随开发人员的更改,模拟设备上的预览会立即更新。比如说,SwiftUI 使用图形模块放入代码段,在扩展时添加行,下拉菜单使开发人员更容易更改参数。只需单击一下,开发人员就可以切换到模拟器,应用程序几乎可以立即移动到实际硬件。

在发布会上,苹果的 Craig Federighi 也演示了如何将一百行代码简化为大约十几行,大大减少了开发者的开发流程。

值得一提的是,SwiftUI 还与其他 API 集成,如 ARKit;同时,它也针对某些从左到右来输入的语言进行了专门的优化——当然了,SwiftUI 也原生支持暗黑模式。

雷锋网 (公众号:雷锋网) 总结

从本次大会上发布的开发套件来看,苹果主要着力于两个方面,一是注重在 AR 与 AI 方面的技术生态开发,二是侧重在苹果生态下的跨系统开发体验,并完整地覆盖旗下的 macOS、watchOS、iOS、tvOS 和 iPadOS 等操作系统。这不仅带来了更好的用户体验,而且让苹果操作系统生态的每一个部分之间的联系都更加紧密,从而更具吸引力。

可以说,通过这一次的 WWDC,我们已经隐约看到整个苹果应用生态的未来。

雷锋网原创文章,未经授权禁止转载。详情见 转载须知

iQRJju3.jpg!web

About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK