Google 第二屆 Search On 大會於香港時間 9 月 29 日凌晨時間舉行,當中發布了多個新產品,也有一些新功能,另外還展示了人工智能如何幫助提供更有用的資訊,看看以下的重點簡介。
於今年較早前舉行的 Google I/O,宣布會推出 Multitask Unified Model 語言模型(簡稱 MUM),這是一種電腦理解語言技術,可同一時間辨識文字、圖像及短片等不同格式的資訊,並透過了解周邊事物的概念、題材、意念等分析箇中關連,以另一種方式尋找答案。
透過 MUM,Google 開發出多項新功能,而最新的 Google Lens 就應用了 MUM,其中用戶可在圖像搜尋中加入關鍵字,從而得出最接近用戶想要的結果;另外,舉例當搜尋塑膠彩畫,Google 搜尋會綜合其他人搜尋並展示相關範圍,助用戶尋找最合適的搜尋結果,點撃即可看到更多相關資訊;用戶又可集中搜尋一個主題內某些方面的資訊,以探索更深入的內容,又可擴大搜尋範圍以獲得更多資訊,從而獲得更精準的搜尋;以上幾個功能將於數月內先推出英文版。
還有 Google 將重新設計搜尋結果頁面,讓用戶更輕鬆以圖片瀏覽方式找到想要的結果,不過此功能會先於美國的英文搜尋頁面推出。除了圖片,MUM 也能辨識短片中的相關主題,就算片中未有明確提及某一個主題,都可深入探索了解更多資訊,這個功能也是英文版先推出。
有一個功能香港用戶能用到的,就是 Google Lens 將可在桌面版 Chrome 使用,用戶只要透過選擇網頁顯示的圖像、影片或文字,便可直接在同一頁面中快速搜尋,但這功能也要數月內才推出。
其實 Google 還有更多關於搜尋的新功能,不過很多都是於美國或其他地區的版本才有,例如無縫搜尋購物體驗、網購時得知商品庫存、地址製作功能、地圖上顯示山火覆蓋範圍、樹冠分析、「關於搜尋結果」提供更多資訊等等,希望日後會推出繁中版本,令本地用戶也能提升搜尋體驗。