微軟投資OpenAI,推出新Bing,Google 推出Bard,Adobe 推出了FireFly,亞馬遜推出Amazon Titan,隨著ChatGPT 的走紅,矽谷大公司的AI 工具或者助手,瞬間都迸發了出來。
只有地處加州一隅的蘋果,在外界看來,彷彿是一個沒有被AI 打擾的世界。
沉默
經歷AI 的瘋狂三月後,大小公司前赴後繼的切入AIGC 領域,他們都會標上Beta 測試版,以及需要經歷一個waitlist 的階段。他們最終可能會出錯,也可能會答非所問,甚至也可能引發一次輿論高峰,但矽谷和我們仍然樂此不疲的參與其中。
相對來說,蘋果對AIGC 始終保持沉默,高管、員工都沒有對外發表過蘋果對其真實看法。
蘋果一向很注重維護自己的形象和公司品牌,他們很少對外公佈不成熟的產品或者技術。因此,這也說明,對於新技術為何蘋果總是比別的公司廠商慢一拍。蘋果盡量會避免新技術運用到產品中時,出現水土不服的現象。
目前AIGC 行業的產品,大多還是圍繞著網頁對話框,殺手級應用目前還處於空白階段。
對於專注在產品上的蘋果不予置評,其實也說得通。
不過,根據the information 那裡獲得的消息來看,蘋果的工程師正在醞釀把LLM 大語言模型與Siri 結合,推出更聰明的Siri,並順理成章的運用到明年的iOS 當中。
就像2011 年那樣,蘋果首次公佈智慧助手Siri,並與iPhone 4s 一同上市,成為當年iPhone 的一個重大功能性升級。
高調
以現在的眼光來看,蘋果在晶片上加入了神經引擎,將SoC 晶片稱之為「仿生」,將各種人工智慧模型、算法運用到拍照、生物識別、書寫等方面。
這對於使用體驗的大幅優化和提升,往往很難讓人留意,蘋果對於AI 的運用相當低調。
但在2011 年,Siri 是作為蘋果最高調的人工智慧技術亮相。
直到現在我依然記得, Scott Forstall 在介紹Siri 時表示,Siri 能夠理解自然語言,不需要用戶記住特定的格式和語法,也可以根據用戶的使用習慣進行訂製。
後續上線的宣傳片裡,Siri 也真正的成為了一個永遠正確響應回應,以及頗具智慧頗具人味兒的手機內置助手。只是,Siri 在2011 年後,其技術迭代彷彿被停滯。十幾年過去,它仍然還遵循著2011 年的「天真」回答。
當人們不斷被其他公司的更先進的語音助手刷新認知的時候,Siri 就顯得有些笨拙,和過於可愛了。
尤其是Siri 目前已經覆蓋到蘋果幾乎所有的設備,iPhone、iPad、Mac 甚至是AirPods,Siri 略顯老成的處理和回答方式,就更顯得它有些落伍。
甚至蘋果內部也對Siri 失望,蘋果開發XR 設備的團隊,就不太想在XR 設備上用Siri 控制設備和功能,理由就是它不夠聰明。為此,XR 設備的負責人Mike Rockwell 也曾考慮找個備用方案以替換掉Siri 的語音控制,不過最終並沒有成功。
傳聞中的蘋果XR 頭戴式設備,仍然會與蘋果其他設備類似,可以用Siri 進行簡單的控制,當然,如果你想的話,也可以跟它進行簡單的對話。
攀爬
發布Siri,被認為是智慧手機歷史上的一個轉折。在Siri 之後,幾乎所有的智慧手機廠商都會為其產品推出一個類似的智慧助手,以免落伍。
而對於蘋果,2010 年花費了2 億美元收購了Siri Inc.,並在一年後把Siri 整合到iPhone 裡。在此之後,蘋果也組建了一個Siri 智慧助手團隊,不過在2011 年發布至2018 年期間,Siri 團隊陷入了迷茫,內部管理和大方向也出現了一些爭論。
蘋果的解決方案是「請高人」,2018 年從Google 挖來了John Giannandrea,成為蘋果負責人工智慧和機器學習戰略的高級副總裁。此前他在Google 負責搜尋業務和人工智慧,幾乎可以算是Google 人工智慧領域的資深專家。有了John Giannandrea 的加入,蘋果想依靠他的經驗,逐步改善Siri 的現狀,幫助Siri 趕上競爭對手。
John Giannandrea 也為Siri 團隊帶來了類似Google 的工作氛圍,並面對蘋果高管需要Siri 立竿見影的變化時,他會用「爬山」這個過程來解釋如何解決AI 人工智慧領域面臨的難題。對於Siri,或者說蘋果的人工智慧策略,需要有一個長遠的目標,期間每次微小的優化、改動,都會隨著時間的推移逐步累積,馬虎不得。
換句話說,John Giannandrea 認為蘋果在人工智慧領域底子太薄,不能急於求成。
並且,他也說服了蘋果高層,暫時應該著重在團隊建設中,留下相關人才,並給他們更多的自由,去研究發展自己感興趣的方向。
最重要的是,John Giannandrea 顯著提升了人工智慧團隊的薪資水準,達到了行業水準。
三板斧下來,蘋果人工智慧團隊得到了增強,引入了許多前Google 人工智慧專家,並用1.5 億美元收購了機器學習初創公司Laserlike。
其三位創辦人Srinivasan Venkatachary、Steven Baker 和Anand Shukla,後期也成為Siri 團隊,蘋果LLM 領域和搜尋領域的專家。
引入Laserlike 的目的,其實就是為了提升Siri 的搜尋能力,而Venkatachary 也順理成章的成為蘋果搜尋團隊的負責人。
2019 年,蘋果就在Siri 中加入了通過網路資訊來回答用戶的提問。Siri 的功能性正在逐步補全和增強。
不過,這些改變更像是「曇花一現」。
蘋果人工智慧團隊內部有著相當多的項目,有可以將Siri 移植到iPhone 當中的BlackBird 項目,也有SiriX 這種慶祝Siri 十週年的項目。
但除了內部的競爭外,蘋果高層對於人工智慧大方向的決策過於緩慢,以及對於LLMs 這種新技術的運用過於保守。
2022 年秋季,Srinivasan Venkatachary、Steven Baker 和Anand Shukla 也離開了蘋果,去了Google。
有意思的是,Google CEO Sundar Pichai 親自招募了這個三人團隊,同時Tim Cook 也做了挽留。
但他們認為Google 是一個適合研究LLM 的公司,並且也會被快速的運用到產品當中。
如今他們正在Google 研究如何降低大語言模型的培訓訓練成本以及如何提升準確性。
不僅是Laserlike 團隊,Giannandrea 親自招募的其他專家和團隊也大都離開了蘋果,理由也是因蘋果好像不太重視人工智慧方向的研究。
在John Giannandrea 到來後,在攀爬人工智慧領域這座山峰的過程裡,或許是與公司戰略大方向的不同,讓蘋果人工智慧陷入了掙扎之中。
掙扎
隱私保護,是蘋果近來所遵循的一個公司級戰略。
在此面前,一切都要讓步,絕不妥協。
John Giannandrea 加入蘋果,他的目標很明確,就是通過優化蘋果對用戶數據的使用,訓練算法讓Siri 變得更聰明。
因為,在Google、亞馬遜這些公司內,通過收集分析用戶數據,改善產品算法模型,是一件很常規的事情。
也由於有這個過程,會讓算法更智慧,AI 也變得更聰明。
蘋果此前也會不記ID 的收集Siri 與用戶的對話數據,但做得併不專業,也沒有利用這些數據對Siri 進行改進。
隨著John Giannandrea 的到來,蘋果找了許多外包公司來收集相關數據,並最終通過一個流程對Siri 進行優化。
但2019 年,《衛報》曝光蘋果外包團隊在未經同意的情況下收聽用戶與Siri 的對話,而引起了軒然大波,尤其是一向以注重隱私的蘋果。
為此,蘋果最終用全職員工取代了外包商,並且修改了內部流程和政策,普通員工幾乎很難聽到Siri 的對話錄音。
如此的規定也讓人工智慧團隊更難實時優化和按時迭代,也算是造成目前Siri 顯得很古典的原因之一。
「他們所做的事情的缺點將變得越來越明顯,」華盛頓大學計算機科學教授、機器學習書籍《大師算法(The Master Algorithm)》的作者Pedro Domingos 就認為「他們將不得不挖掘更多的私人數據,以便與其他人更具競爭力。」
並且對於Siri 的一些經常衝上熱蒐奇怪的回答,也會引起Tim Cook 的注意。他更會經常越過流程,直接要求Siri 團隊修改「尷尬」的回答。因為隱私保護而減少數據收集,以及避免尷尬回答,進行人工修正,蘋果十分注重自己的公司形象。因此,即便現在蘋果有龐大的資金和資源,許多前蘋果人工智慧團隊成員也認為蘋果很難會很快的去部署基於LLM 的Siri。
另外,蘋果也在Siri 內設定了許多規則,像是詢問iPhone 售價,會優先導流到蘋果官網,而非是直接給出答案。蘋果並非是一個技術優先公司,他們一切的服務、技術都是為產品服務,也就是能賣出去更多的iPhone、iPad、Mac。
因此,在很長一段時間內,設計團隊有著相當大的話語權,他們認為產品就應該做到100% 完美。這種追求也延續到了Siri 人工智慧團隊,但作為一個算法來說,不可能100% 精確,出錯在所難免,出錯才能更好的去優化相關模型。
他們之間追求的不同,也讓人工智慧團隊的工作變得很有壓力。在Giannandrea 的周旋下,軟件設計團隊不得不為Siri 添加了一個按鈕,方便用戶回饋回答是否準確。
無論是為了堅持隱私,還是工作流程問題,亦或是為了做出100% 完美產品,Siri 的人工智慧團隊正在經歷著一系列的掙扎,就像被捆住了雙手與Google、亞馬遜等大公司在人工智慧領域競爭。
未知
這個「未知」,其實可以指代許多。
蘋果人工智慧團隊對於Siri 推出了許多改進方案,像是Siri X、BlackBird、Pegasus 等等項目。
雖然項目的一些成員離開,但這些項目最終都接近完成,隨時可以替換或者優化到現在的Siri 當中。
不過,就如同John Giannandrea 所提倡的,一個人工智慧模型,其實是一個相當複雜的工程,牽一發而動全身。盲目的修改和替換,可能會引起不可預知的問題。
另外,與亞馬遜的Alexa 或谷歌的Assistant 等其他語音助手相比,Siri 的回答在很大程度上依賴於人類參與。也就說,Siri 的數據庫有許多人為的限制和干預,經過十幾年的修改調整,讓這個數據庫變得複雜冗長。
而且,這也與目前LLM 大語言模型的數據庫工作方式有所不同,它並不能簡單的加一個API 接口就能夠順利的運行起ChatGPT 和擁有類似的功能。
蘋果現在所要決定的就是,想要一個Smart Siri,到底是推倒重來,還是逐層優化。
另外,誰都不否認,蘋果公司的盈利、現金流以及龐大的資源調動能力。並且,也有著晶片、終端等等硬件資源和知識儲備。
當蘋果下定決心全身心投入AIGC 領域,它可以訓練複雜的大語言模型,做出自己的生成式AI。但蘋果還要決定是否需要「重複造輪子」,還是把眼光、資源投入到如何將AIGC 運用到終端,嵌入到生態當中。畢竟那些支持ChatGPT 等複雜服務的LLM 目前仍在雲端運行,運用到終端生態裡,還尚屬空白。
在人事調動上,蘋果目前更注重於視覺識別的專家,相對來說,也把重心放在了適合XR 虛擬現實領域。對於蘋果來說,AIGC 行業的技術爆炸,還不到一年,如何運用到蘋果產品當中,也還在一個很初步的嘗試當中。
而蘋果已經準備多年,打算取代iPhone 成為下一個大趨勢的XR 虛擬現實設備,或許才是蘋果當下最該關心,以及著力去發展的產品。
至於把Siri 變成Smart Siri,還是變成Siri Copilot,不妨讓John Giannandrea 所帶領的AI 團隊再爬一會兒山吧。
本文授權轉載自:愛范兒 ifanr
責任編輯:傅珮晴、錢玉紘