人工智能(AI)能力越趨強大,OpenAI 其中一名創辦人兼 Tesla 創辦人 Elon Musk ,跟一班 AI 專家及行業高層聯署公開信,呼籲暫停開發更高階的 AI 系統,初步為期 6 個月。原因是這些系統比 ChatGPT-4 更強勁,將對社會與人類構成潛在風險。面對 AI 威脅,英國政府亦制定「負責任使用」的新指南來規範。
英國政府以「明天的技術」(Technology of Tomorrow)來形容 AI ,並表示此類技術在去年為英國經濟貢獻了 37 億英鎊。然而,AI 的快速發展不單威脅到人類的工作,也被用於惡意目的,甚至可能對隱私、人權或安全構成風險。甚至有人擔心,如果對互聯網收集的大數據進行訓練,AI 可能會對特定群組表現出偏見,繼而出現種族主義、性別歧視和其他不良資訊。同時,AI 也可用於製作和傳播錯誤訊息,因此許多專家認為 AI 需要監管。
英國科學、創新和技術部門(Department for Science, Innovation and Technology)在最新的一份白皮書提出通用 AI 規則,期望這類技術用於正規環境。白皮書涵蓋的 AI 技術包括聊天機械人 ChatGPT 。 不過,政府強調不是將 AI 管治的責任交給新的單一監管機構,而是希望現存的監管機構在其特定領域使用現行的法律加以規管。該部門的部長 Michelle Donelan 更指,AI 不再是科幻小說中的東西,而是發展速度驚人的技術,因此需要制定規則來確保其安全發展。
白皮書概述了監管機構應考慮的五項原則,以便在其監管的行業可安全和創新地使用 AI:
• 安全、保障和穩建:AI 的應用程式應以安全、可靠和穩健的方式運行,同時謹慎管理風險;
• 透明度和可解釋:開發和部署 AI 的機構應該能夠知道何時及如何使用 AI,以及其所帶來的風險;
• 公平: AI 的使用方式應符合英國現行法律,例如關於平等或數據保護法,不可歧視個人或造成不公平的商業結果;
• 問責和治理:需要採取措施確保對 AI 的使用方式進行適當監察,並對結果明確問責;
• 可競爭和補救:需要有明確的途徑來對 AI 產生的有害結果或決定提出異議。
明年,監管機構將向各組織發布實用指南,闡明如何在其所在行業實施這些原則。