專門研究減輕 AI 所帶來風險的 AI 安全中心(CAIS)在美國時間 5 月 30 日發表了一份有關 AI 所帶來的人類滅絕風險的聲明,得到 OpenAI、微軟、Google 以至中國科學院高層和青華大學學者的聯署。
聲明指「減輕人工智能所帶來的滅絕風險,應該與流行病及核戰爭等其他社會規模風險一樣,成為全球優先事項」。
有份簽署這份聲明的不單有頂尖 AI 科學家,還包括 OpenAI CEO Sam Altman、Google DeepMind 創辦人 Shane Legg 及 CEO Demis Hassabis、微軟 CTO Kevin Scott 和中國科學院自動化研究所人工智能倫理與治理中心主任曾毅等。
CAIS 指 AI 帶來的潛在影響力,令人想起早期有關核能的討論,除了要解決當前的濫用和虛假信息問題,全球 AI 業界和各國政府都必須要認真解決將來人工智能可能會對人類生存帶來的威脅。
CAIS 在網站上列出多種 AI 潛在風險,包括武器化、誤導資訊、令人類失去自我管理能力而倚賴機器、鎖定特定價值觀等。此外企業或政權為追求權力或經濟動機,可能會製造實現一系列目標的 AI。AI 亦可能為達目標而犧牲個人和社會價值,例如推薦內容的 AI 只會推薦嘩眾取寵的內容,而不是提升個人素養的內容。又或者令受眾的信念變得極端,令人們的喜好更容易被預測。此外,他們亦擔心 AI 模型突發性地出現新的能力或目標,增加先進 AI 系統失控的風險。