一年一度的Google開發大會I/O,在美國加州時間5月7日於Google山景城總部拉開序幕,在率先登場的「重頭戲」 Keynote上,Google Pixel 3a和Android Q也正式亮相,但除此之外,究竟還有哪些重大發表?跟著《數位時代》一起在現場直擊。
AI仍是主菜
沒有意外,Google今年依然花了相當大的篇幅,展示在AI上的成果。
「今天有一個數字要和大家更新,Android活躍裝置數量已達25億」,Android產品管理總經理Stephanie Cuthbertson說道。當然,要串起AI與消費者的距離,在Android裝置上無所不在的Google Assistant,就是最重要的角色之一。
新的Google助理,比過去反應快10倍
今年最大的亮點,不在於Assistant的聰明程度,而在於Google把人工智慧運算所需的容量大幅縮小,藉此加快Assistant在手機與其他裝置上的反應速度,新版的Google Assistant相較現在,反應速度可以快上逾10倍。
在主舞台上,Google助理工程副總裁Scott Huffman豪不吝嗇,一次次演示如何在手機上叫Assistant幫忙寫訊息、回覆Email、尋找與過濾幾千百張照片、呼叫不同App使用等。
另外,現在Assistant也能順暢地處理用戶的語音指令,不必每道指令都說出「Hey Google」的呼喚語句,可以「連貫」、「不間斷」的處理需求。
運算所需容量現在也更小,能夠直接把語句處理、視覺辨識等運算,在用戶裝置中完成,不必將每筆指令傳到雲端解讀,不僅加快處理速度,也增加用戶隱私保護,達到真正的「AI on device」。
開始走到汽車裡,推出Drive模式
Google Assistant也推出新的開車模式,當用戶對Assistant說出「Hey Google,Let's Drive。」Assistant就會開始導航,並且依據後續用戶行程,尋找最快到達此地點的捷徑;如果有人打電話來,Google Assistant也會說出誰來電、詢問是否接起電話,整個使用流程不需手動、不需眼睛觀看手機螢幕,預計今年夏天正式推出。
Duplex不只能點餐,一手包辦網路上的消費大小事
去年在Google I/O發表,混雜廣大批評與正面評價聲浪的語音助理功能Google Duplex,現在確定正式進軍其他網路服務。
在現場,Google舉了租車的例子,用戶如果要旅行租車,得填寫時間、車款、地點等資訊,步驟複雜。有了Duplex,基於Assistant已經知道用戶的飛機時間與旅行時程,用戶只要說「幫我在某公司訂租車」,Google Assistant就會幫用戶填寫資訊,接著用戶只要按確認鍵,就能完成訂車。
Google表示,今年下半會給予更多關於Duplex on Web的服務細節。
AR、視覺辨識越來越重要
隨著Google在AR(擴增實境)的投入力度不斷加強,先是在Pixel 3相機內建Playground功能,可以讓授權的漫威人物透過AR,闖進現實跟用戶一起拍照外,Google map日前也導入AR導航功能。
在今年,「AR搜尋」和「Google Lens」跟餐廳結合的進階功能也成為一大焦點,並成為Keynote的第一個開場議題。
Google搜尋也能AR,把網上的東西搬到現實中
Google正式宣布,要把AR這件事,帶到網頁搜尋結果上。
舉例來說,當用戶搜尋某雙運動鞋,可以透過搜尋結果開啟3D影像,作為360度影像查看,另外也能應用擴增實境(AR),把這雙鞋子透過手機鏡頭放到實體世界中,例如,查看它是否搭配自己其他衣服與配件。
但是,官方並未進一步說明,究竟哪些類別的東西,會使用這類的「3D搜尋結果」。
Google Lens當服務生推薦菜單,還能幫忙算小費
「截至目前,Google Lens已經被使用數十億次,用戶最喜歡問這是什麼花、這間是什麼店等問題,」Google Lens&AR副總裁Aparna chennapragada說道。當然,關於餐廳的大小事,也是熱門話題之一。
因此,Google Lens再添加新功能,當用戶坐在餐廳中,使用Google Lens對準菜單搜尋時,它能夠馬上標出這間餐廳熱門的料理,點進料理更能直接看到這道菜的圖片,結合Google Maps中用戶針對某家餐廳的評論數據;當收到帳單時,Google Lens還能直接計算小費、與幾個人平分帳單後的金額等等。
Google表示,希望此功能與一些雜誌與博物館合作,讓Google Lens對準平面圖片,就會出現動態影片,如對準食譜,則會出現示範作菜影片等。
只有100kb的Google Go,離線也能翻譯跟朗讀
針對隸屬於NBU(Next Billion User)的國家,也就是人口紅利高、網路較不發達,但潛力十足的國家,Google會將服務做調整,設定離線也能使用,或是特別設計、下載成本很低的App。
這一次,Google推出新的App——Google Go,即便它只有100kb,也支援Google Lens視覺搜尋,不僅能翻譯語言,也能將翻譯後的文字朗讀出來。Google執行長Sundar Pichai以一個不會認字的印度鄉村母親的體驗來舉例,透過低階平價手機,也可以透過這個功能閱讀周遭環境的資訊。
今年花大把心力在身心障礙服務上
特別的是,Google在2019年花了不少心力在Accessibility(無障礙)這件事上,也就是為身心障礙者提供服務。無論對說話不方便的人,或是聽力不好的人,Google都有新服務推出。
「根據世界衛生組織的統計,有10億人生活在某種殘疾之中,隨著人們年齡的增長和壽命的延長,這個數字占人口的15%。」
不用專人聽打,AI讓對話即時上字幕
對於聽力障礙者,Google推出「Live Transcribe」功能,在對話時可以即時把對方說的話,轉錄成文字在手機上,方便雙方進行溝通,目前已經支援70種語言。
另外一方面,是「Live Caption」功能,針對任何影片,都可以在離線的狀況下,即時上各種字幕,無論是YouTube、還是自己錄製的影片都可以,不僅幫助聽力障礙者觀影,對於一般用戶來說,也可以提升觀影體驗,但目前僅支援英文而已,確切推出時間還未定。
講電話零障礙,你打字、Google小姐幫你講
另外一點,是幫助無論是聽力,還是說話的障礙者,都能順利地打電話。「Live Reply」在通話過程中,對方說的話會在App中即時轉換成字幕,而用戶想說話,可以透過打字後,讓Google小姐幫你「講出來」。針對在會議中、不方便接電話的用戶也適用,但推出時間未定。
讓喪失語言能力的人,重新開口說話
Google正在透過AI,理解各種不同的語言模式。
而「Project Euphonia」這一項計畫,是透過語言模型,理解說話有障礙的用戶,幫他們可以「發聲」,或是說得讓人「更能理解」。包括中風、肌肉萎縮、創傷性腦損傷及帕金森病等疾病,引發語言障礙的人。