蘋果將如何支撐旗下 5 大 OS 的未來?
記者消息,美國(guó)太平洋時(shí)間 2019 年 6 月 3 日上午 10 點(diǎn),在 San Jose 市中心的 McEnery Convention Center,蘋果 WWDC 2019 全球開發(fā)者大會(huì)最值得關(guān)注的 Keynote 環(huán)節(jié)正式開幕。在這一環(huán)節(jié)中,除了硬件層面的 Mac Pro 和 Pro Display XDR 的發(fā)布值得關(guān)注,蘋果也發(fā)布了一系列面向開發(fā)者的開發(fā)工具,比如說如 ARKit 3、RealityKit、Core ML 3、SiriKit 等。
這些開發(fā)者工具有什么亮點(diǎn)?記者將帶你一探究竟。
AR:功能更加多樣化
縱觀前兩年的 WWDC 大會(huì),蘋果對(duì) AR 的重視只增不減;在 WWDC 2019 上,蘋果除了升級(jí)了 ARKit,還公布了一個(gè)新的高級(jí) AR 框架 RealityKit 以及一個(gè)能夠輕松創(chuàng)建 AR 體驗(yàn)的新應(yīng)用程序 Reality Composer。
ARKit 是在 2017 年推出的,是蘋果進(jìn)軍 AR 的第一步;2018 年,蘋果將其升級(jí)為 ARKit 2,主要進(jìn)行了兩項(xiàng)更新:與 Pixar 合作的新的文件格式 USDZ 和多人共享 AR。如今,ARKit 再次升級(jí),迎來了 ARKit 3。
ARKit 3 引入了實(shí)時(shí)人體遮擋,它能夠知道人和 AR 對(duì)象的位置,對(duì)場(chǎng)景進(jìn)行適當(dāng)?shù)卣趽?。不僅如此,它還能夠通過動(dòng)作捕捉,跟蹤人類的動(dòng)作,作為 AR 場(chǎng)景的輸入。同時(shí),通過 ARKit 3,設(shè)備的前后兩個(gè)攝像頭現(xiàn)在可以同時(shí)使用,因此,用戶的面部表情也可以成為 AR 體驗(yàn)的一部分。
除了能夠同時(shí)使用兩個(gè)攝像頭,多面部跟蹤和多人之間的實(shí)時(shí)協(xié)作會(huì)話也是 ARKit 3 的亮點(diǎn)所在,這能夠讓用戶擁有更多樣化的 AR 體驗(yàn)。
ARKit 3 是在原有的 ARKit 基礎(chǔ)上進(jìn)行的升級(jí);不同于 ARKit 3,今年首次公布的 RealityKit 和 Reality Composer 顯得更為新穎。
RealityKit 是一個(gè)全新的高級(jí)框架,具有真實(shí)感渲染、相機(jī)效果、動(dòng)畫、物理等功能,是專門為增強(qiáng)現(xiàn)實(shí)而構(gòu)建的。它能夠?yàn)槎嗳?AR 應(yīng)用程序處理網(wǎng)絡(luò),這意味著開發(fā)人員不需要是網(wǎng)絡(luò)工程師就能夠開發(fā)共享 AR 體驗(yàn)。
Reality Composer 是一個(gè)新的開發(fā)程序,它不僅面向 iOS,還能夠在 macOS 中使用。這個(gè)工具讓開發(fā)人員能夠可視化地創(chuàng)建 AR 場(chǎng)景,并且能夠在場(chǎng)景中添加移動(dòng)、縮放和旋轉(zhuǎn)等動(dòng)畫。不僅如此,開發(fā)人員還能夠?qū)?dòng)畫進(jìn)行設(shè)置:當(dāng)用戶輕擊對(duì)象、用戶接近對(duì)象、或是激活其他觸發(fā)器時(shí)執(zhí)行操作。
Core ML 3:支持高級(jí)神經(jīng)網(wǎng)絡(luò)在 WWDC 2019 上,蘋果介紹了 Core ML 3,這是蘋果機(jī)器學(xué)習(xí)模型框架的最新版本。
Core ML 是能在蘋果產(chǎn)品上使用的高性能機(jī)器學(xué)習(xí)框架,能幫助開發(fā)者快速地將多種機(jī)器學(xué)習(xí)模型融合到App中。它在 2017 年推出,2018 年升級(jí)為 Core ML 2,處理速度提升了 30%。
而如今,Core ML 升級(jí)為 Core ML 3,Core ML 3 將首次為設(shè)備上的機(jī)器學(xué)習(xí)提供培訓(xùn)。由于模型可以使用設(shè)備上的用戶數(shù)據(jù)進(jìn)行更新,因此 Core ML 3 能夠幫助模型在不損害隱私的情況下與用戶行為保持相關(guān)。
不僅如此,Core ML 3 還支持高級(jí)神經(jīng)網(wǎng)絡(luò),支持超過 100 種層類型,這讓它在圖像、聲音識(shí)別上有更好的表現(xiàn)。另外,它能夠無縫地利用 CPU、GPU 和神經(jīng)引擎去提供最大的性能和效率。
SiriKit:更好的應(yīng)用擴(kuò)展Siri 是蘋果最先推出的 AI 應(yīng)用,也是世界上最受歡迎的語(yǔ)音智能助手之一;在 WWDC 2019 上,Siri 也得到了升級(jí)。
一個(gè)最為直觀的改變是,蘋果在 iOS 13 中采用了 Neural Text-to-Speech (TTS)技術(shù),讓 Siri 的語(yǔ)音聽起來更加自然,這也標(biāo)志著 Siri 不再借重人類語(yǔ)音樣本而發(fā)聲。
Siri 與 AirPods 的結(jié)合也是亮點(diǎn)之一。例如,當(dāng)用戶收到短信時(shí),可以讓 Siri 在 AirPods 中直接讀出來,不僅如此,你還能夠利用 AirPods 快速回復(fù)短信。此外,Siri 在 HomePod 上的體驗(yàn)也得到了大幅提升,顯得更加個(gè)性化;比如說,HomePod 可以識(shí)別家庭的不同用戶,而當(dāng)不同用戶的手機(jī)靠近 HomePod 時(shí),它就能夠得知該用戶喜歡的播客和音樂。
值得注意的是,在今年的 WWDC 大會(huì)上,蘋果推出了 SiriKit。SiriKit 包含 Intents 和 Intents UI 框架,開發(fā)者可以用它們來實(shí)現(xiàn)應(yīng)用擴(kuò)展;而應(yīng)用程序一旦采用 SiriKit,即使應(yīng)用程序本身沒有運(yùn)行,也能夠通過 Siri 實(shí)現(xiàn)應(yīng)用擴(kuò)展。
HomeKit:加強(qiáng)隱私保護(hù)力度HomeKit 是蘋果在 2015 年推出的智能家居框架,它內(nèi)置于 iOS 8 中,用于與用戶家中連接的附件進(jìn)行通信和控制。
在本次 WWDC 中,蘋果主要強(qiáng)調(diào) HomeKit 對(duì)用戶隱私的保護(hù)力度。比如說,蘋果首次推出了 HomeKit Secure Video,它能夠分析本地的智能家庭設(shè)備(比如安全攝像頭)的視頻,然后再將其加密,上傳到 iCloud。
和 HomeKit Secure Video 一樣首次亮相的還有獲得一系列第三方支持的 HomeKit 路由器,這個(gè)路由器能夠?qū)⒃O(shè)備隔離開,以防止整個(gè)網(wǎng)絡(luò)受到攻擊。
據(jù)了解,HomeKit 路由器提供的保護(hù)隱私的安全措施遠(yuǎn)遠(yuǎn)超出了家庭安全攝像頭的范圍,它的自動(dòng)防火墻能夠與 HomeKit 配件進(jìn)行連接,只要其中一個(gè)配件遭受到入侵,入侵者就沒有辦法訪問其他設(shè)備,阻止了個(gè)人信息泄露。
SwiftUI:從一百行代碼到十幾行在本次的全球開發(fā)者大會(huì)上,蘋果發(fā)布了基于開發(fā)語(yǔ)言 Swift 建立的框架——SwiftUI。
Swift 是蘋果于 2014 年 WWDC 發(fā)布的新開發(fā)語(yǔ)言,可與 Objective-C 共同運(yùn)行于 macOS 和 iOS 平臺(tái),用于搭建基于蘋果平臺(tái)的應(yīng)用程序。Swift 的設(shè)計(jì)以安全為出發(fā)點(diǎn),以避免各種常見的編程錯(cuò)誤類別;2015 年,蘋果將 Swift 開源。
本次蘋果發(fā)布的 SwiftUI 正是基于 Swift 語(yǔ)言,它使用一組工具和 API,可在所有的蘋果平臺(tái)上提供一套統(tǒng)一的UI 框架,當(dāng)然也可以用于 watchOS、tvOS、macOS 等蘋果旗下的多個(gè)操作系統(tǒng),它具有自動(dòng)支持動(dòng)態(tài)類型、暗黑模式、本地化和可訪問性的特點(diǎn)。
舉例來說,新的 SwiftUI 編程框架擁有全新的交互式開發(fā)人員體驗(yàn),跟隨開發(fā)人員的更改,模擬設(shè)備上的預(yù)覽會(huì)立即更新。比如說,SwiftUI 使用圖形模塊放入代碼段,在擴(kuò)展時(shí)添加行,下拉菜單使開發(fā)人員更容易更改參數(shù)。只需單擊一下,開發(fā)人員就可以切換到模擬器,應(yīng)用程序幾乎可以立即移動(dòng)到實(shí)際硬件。
在發(fā)布會(huì)上,蘋果的 Craig Federighi 也演示了如何將一百行代碼簡(jiǎn)化為大約十幾行,大大減少了開發(fā)者的開發(fā)流程。
值得一提的是,SwiftUI 還與其他 API 集成,如 ARKit;同時(shí),它也針對(duì)某些從左到右來輸入的語(yǔ)言進(jìn)行了專門的優(yōu)化——當(dāng)然了,SwiftUI 也原生支持暗黑模式。
記者(公眾號(hào):記者)總結(jié)從本次大會(huì)上發(fā)布的開發(fā)套件來看,蘋果主要著力于兩個(gè)方面,一是注重在 AR 與 AI 方面的技術(shù)生態(tài)開發(fā),二是側(cè)重在蘋果生態(tài)下的跨系統(tǒng)開發(fā)體驗(yàn),并完整地覆蓋旗下的 macOS、watchOS、iOS、tvOS 和 iPadOS 等操作系統(tǒng)。這不僅帶來了更好的用戶體驗(yàn),而且讓蘋果操作系統(tǒng)生態(tài)的每一個(gè)部分之間的聯(lián)系都更加緊密,從而更具吸引力。
可以說,通過這一次的 WWDC,我們已經(jīng)隱約看到整個(gè)蘋果應(yīng)用生態(tài)的未來。