04

2019 Google I/O大會直擊!語音助理反應快10倍、Google Lens還能幫忙算小費

Google於7日舉辦的開發大會Google I/O上,展示在人工智慧AI上的進一步成就,包含Google Assistant、Google Lens等應用。

一年一度的Google開發大會I/O,在美國加州時間5月7日於Google山景城總部拉開序幕,在率先登場的「重頭戲」 Keynote上,Google Pixel 3a和Android Q也正式亮相,但除此之外,究竟還有哪些重大發表?跟著《數位時代》一起在現場直擊。

google io
Google Pixel 3a和3a XL,在今天將於13個國家正式開賣,台灣被列為首發國。
圖/ 唐子晴/攝影
google io
雖然已經推出beta版本,但Android Q也正式亮相,將與12個OEM廠商合作,首波在21個裝置推出,這數字比去年多了一倍。
圖/ 唐子晴/攝影

AI仍是主菜

沒有意外,Google今年依然花了相當大的篇幅,展示在AI上的成果。

「今天有一個數字要和大家更新,Android活躍裝置數量已達25億」,Android產品管理總經理Stephanie Cuthbertson說道。當然,要串起AI與消費者的距離,在Android裝置上無所不在的Google Assistant,就是最重要的角色之一。

掌握最新AI、半導體、數位趨勢!訂閱《數位時代》日報及社群活動訊息

新的Google助理,比過去反應快10倍

今年最大的亮點,不在於Assistant的聰明程度,而在於Google把人工智慧運算所需的容量大幅縮小,藉此加快Assistant在手機與其他裝置上的反應速度,新版的Google Assistant相較現在,反應速度可以快上逾10倍。

在主舞台上,Google助理工程副總裁Scott Huffman豪不吝嗇,一次次演示如何在手機上叫Assistant幫忙寫訊息、回覆Email、尋找與過濾幾千百張照片、呼叫不同App使用等。

另外,現在Assistant也能順暢地處理用戶的語音指令,不必每道指令都說出「Hey Google」的呼喚語句,可以「連貫」、「不間斷」的處理需求。

運算所需容量現在也更小,能夠直接把語句處理、視覺辨識等運算,在用戶裝置中完成,不必將每筆指令傳到雲端解讀,不僅加快處理速度,也增加用戶隱私保護,達到真正的「AI on device」。

開始走到汽車裡,推出Drive模式

Google Assistant也推出新的開車模式,當用戶對Assistant說出「Hey Google,Let's Drive。」Assistant就會開始導航,並且依據後續用戶行程,尋找最快到達此地點的捷徑;如果有人打電話來,Google Assistant也會說出誰來電、詢問是否接起電話,整個使用流程不需手動、不需眼睛觀看手機螢幕,預計今年夏天正式推出。

Duplex不只能點餐,一手包辦網路上的消費大小事

去年在Google I/O發表,混雜廣大批評與正面評價聲浪的語音助理功能Google Duplex,現在確定正式進軍其他網路服務。

google io
Duplex的「業務範圍」將延伸到更多網路服務上。
圖/ 唐子晴/攝影

在現場,Google舉了租車的例子,用戶如果要旅行租車,得填寫時間、車款、地點等資訊,步驟複雜。有了Duplex,基於Assistant已經知道用戶的飛機時間與旅行時程,用戶只要說「幫我在某公司訂租車」,Google Assistant就會幫用戶填寫資訊,接著用戶只要按確認鍵,就能完成訂車。

Google表示,今年下半會給予更多關於Duplex on Web的服務細節。

AR、視覺辨識越來越重要

隨著Google在AR(擴增實境)的投入力度不斷加強,先是在Pixel 3相機內建Playground功能,可以讓授權的漫威人物透過AR,闖進現實跟用戶一起拍照外,Google map日前也導入AR導航功能。

在今年,「AR搜尋」和「Google Lens」跟餐廳結合的進階功能也成為一大焦點,並成為Keynote的第一個開場議題。

Google搜尋也能AR,把網上的東西搬到現實中

Google正式宣布,要把AR這件事,帶到網頁搜尋結果上。

舉例來說,當用戶搜尋某雙運動鞋,可以透過搜尋結果開啟3D影像,作為360度影像查看,另外也能應用擴增實境(AR),把這雙鞋子透過手機鏡頭放到實體世界中,例如,查看它是否搭配自己其他衣服與配件。

但是,官方並未進一步說明,究竟哪些類別的東西,會使用這類的「3D搜尋結果」。

google io
現場還demo只會在海裡出現的鯊魚。
圖/ 唐子晴/攝影

Google Lens當服務生推薦菜單,還能幫忙算小費

「截至目前,Google Lens已經被使用數十億次,用戶最喜歡問這是什麼花、這間是什麼店等問題,」Google Lens&AR副總裁Aparna chennapragada說道。當然,關於餐廳的大小事,也是熱門話題之一。

因此,Google Lens再添加新功能,當用戶坐在餐廳中,使用Google Lens對準菜單搜尋時,它能夠馬上標出這間餐廳熱門的料理,點進料理更能直接看到這道菜的圖片,結合Google Maps中用戶針對某家餐廳的評論數據;當收到帳單時,Google Lens還能直接計算小費、與幾個人平分帳單後的金額等等。

google io
如果不知道該吃什麼,對準菜單Google Lens會推薦店內熱門菜。
圖/ 唐子晴/攝影
google io
拿到收據,還可以自動跳出計算器,幫你算小費。
圖/ 唐子晴/攝影

Google表示,希望此功能與一些雜誌與博物館合作,讓Google Lens對準平面圖片,就會出現動態影片,如對準食譜,則會出現示範作菜影片等。

只有100kb的Google Go,離線也能翻譯跟朗讀

針對隸屬於NBU(Next Billion User)的國家,也就是人口紅利高、網路較不發達,但潛力十足的國家,Google會將服務做調整,設定離線也能使用,或是特別設計、下載成本很低的App。

這一次,Google推出新的App——Google Go,即便它只有100kb,也支援Google Lens視覺搜尋,不僅能翻譯語言,也能將翻譯後的文字朗讀出來。Google執行長Sundar Pichai以一個不會認字的印度鄉村母親的體驗來舉例,透過低階平價手機,也可以透過這個功能閱讀周遭環境的資訊。

google io
Google Go可以翻譯成當地語音,並朗讀出來,重點是App所占容量相當小。
圖/ 唐子晴/攝影

今年花大把心力在身心障礙服務上

特別的是,Google在2019年花了不少心力在Accessibility(無障礙)這件事上,也就是為身心障礙者提供服務。無論對說話不方便的人,或是聽力不好的人,Google都有新服務推出。

「根據世界衛生組織的統計,有10億人生活在某種殘疾之中,隨著人們年齡的增長和壽命的延長,這個數字占人口的15%。」

不用專人聽打,AI讓對話即時上字幕

對於聽力障礙者,Google推出「Live Transcribe」功能,在對話時可以即時把對方說的話,轉錄成文字在手機上,方便雙方進行溝通,目前已經支援70種語言。

google io
Live Caption對一般用戶也適用。
圖/ 唐子晴/攝影

另外一方面,是「Live Caption」功能,針對任何影片,都可以在離線的狀況下,即時上各種字幕,無論是YouTube、還是自己錄製的影片都可以,不僅幫助聽力障礙者觀影,對於一般用戶來說,也可以提升觀影體驗,但目前僅支援英文而已,確切推出時間還未定。

講電話零障礙,你打字、Google小姐幫你講

另外一點,是幫助無論是聽力,還是說話的障礙者,都能順利地打電話。「Live Reply」在通話過程中,對方說的話會在App中即時轉換成字幕,而用戶想說話,可以透過打字後,讓Google小姐幫你「講出來」。針對在會議中、不方便接電話的用戶也適用,但推出時間未定。

讓喪失語言能力的人,重新開口說話

Google正在透過AI,理解各種不同的語言模式。

而「Project Euphonia」這一項計畫,是透過語言模型,理解說話有障礙的用戶,幫他們可以「發聲」,或是說得讓人「更能理解」。包括中風、肌肉萎縮、創傷性腦損傷及帕金森病等疾病,引發語言障礙的人。

關鍵字: #Google
追蹤我們
電商終局戰
© 2025 Business Next Media Corp. All Rights Reserved. 本網站內容未經允許,不得轉載。
106 台北市大安區光復南路102號9樓