差不多是十年前,筆者訪問當時是天虹小學校長的朱子穎,大家最有印象的,當然是他會佩戴著 Google Glasses 眼鏡上堂。十年過去,Google Glasses 產品早已變身成 Android XR 平台。在剛剛舉行的 TED 2025,Google 的 Shahram Izadi 就在現場作了全球第一次 Android XR 的公開展示,具體地示範了這種 AR 智能眼鏡的實用性。

Google 在去年年底首次對外提到 Extended Reality (XR) 概念,而且確認 Google 正在開發 Android XR 平台,包括作業系統以及結合眼鏡和耳機的裝置。Google 當時強調 Android XR 不是舊產品的更新,而是由零開始設計的科技產品,意即舊的 Google Glasses 雖然都是 AR 眼鏡裝置,但兩者的作用和可以做出來的操作效果將會是兩回事。不過當時發報有關 Android XR 的影片都只是模擬操作的示範影片,實際運作仍未有公開。但是結合了 Gemini 語音 AI 助手,以及 XR 整合實景與即時資訊。雖然提供的資料,用智能手機使用智能影像功能相近,但佩戴眼鏡操作可以免持手機及開啟 App,操作更加直覺。

然而,早幾日的 TED2025 會議期間,Google 的 Shahram Izadi 展示了在一副 Android XR 原型智慧眼鏡,並作首次現場演示。而該大約 15 分鐘的演示影片,現在可以在 TED 網站免費觀看。
在 TED 演示中,Shahram Izadi 強調智能眼鏡外型和一般眼鏡無異,眼鏡臂上有啟用按鐽和前置相機鏡頭。而且今次是首次公開展示即時的實際操作。Izadi 在 Product Manager Nishtha Bhatia 的協助下,透過眼鏡隨時向 Gemini 提問,答案會用語音和在眼鏡上顯示資訊。他在舞臺上使用 Android XR 來做演講者筆記,又可以在看書時即時和 Gemini 提出查詢及尋求數學功課的答案。筆者相信示範的 Android XR 可以連接到用戶的手機,利用手機中的應用程式提供更多操作,如同使用 Android Auto 般透過應用程式支援來擴展功能。

演示本身開始很簡單,Gemini 通過眼鏡按指示生成文字翻譯。但精采的實際操作部分好快就來了。Nishtha 的展示讓人想起 Gemini Live 中即將推出的 Project Astra 功能, Nishtha 短暫地從書架上轉過身來,幾秒鐘後就問眼鏡的 Gemini 是否看到了“我身後書架上的白書標題?”。Gemini 立即讀出它及指出它的位置。

然後,Nishtha 問 Gemini 有否見過留在某個位置的酒店鑰匙卡?Gemini 成功透過掃描之前影像及定位,幾乎即時就能說出鑰匙卡所在,對於經常沒記性,不知道東西放了在哪的大頭蝦,就個功能相當貼心。而且 Android XR 也不是要按下啟動鍵才操作,就算沒有指令執行時,Android XR 也會紀錄眼前的場景。當然展示就沒有提及記錄的長度和數據儲存的方法,以及會否造成私隱問題。而該演示也展示了實用的 AI 驅動功能:
- 視覺理解:解釋向眼鏡展示的圖表內容。
- 實時翻譯:將標誌翻譯成英文,然後翻譯成波斯語。
- 無縫的多語言互動:然後,Nishtha 用印地語與 Gemini 交談,無需更改任何設置,Gemini 立即準確地用印地語回覆。這種無縫的語言切換特別值得注意。
- 上下文作:看了一張專輯,Gemini 認出了它並提出播放其中的一首歌。
- 導航:平視顯示器顯示與 3D 地圖疊加的導航方向。
這些範例超越了簡單的通知,並暗示了直接集成到您的視野中的真正有用的上下文感知 AI 助手。雖然展示的眼鏡顯然是原型,但這個現場演示提供了迄今為止最具體地展示了 Google 通過眼鏡實現環境計算的願景。看到這些 AI 功能都在即時環境中運行,尤其是即時感知和翻譯,增加了概念視頻無法比擬的可信度和興奮感。這種被稱為智能手機之後最重要的科技產品,的確值得期待。