? 1. 支持並推動全球 AI 安全標準與治理合作
如Stuart Russell與 Wendy Hall 在 AI 國際峰會中強調需要全球最低安全標準,以避免 AI 可能帶來的災難性後果。建議支持建立 Multinational AGI Consortium (MAGIC)、全球算力上限、以及關鍵試驗安全評估制度。
? 2. 推動制定國際 AI 安全條約,借鑑包括 Geoffrey Hinton 等專家提出的「Conditional AI Safety Treaty」,在檢測到可能失控能力時立即暫緩開發,透過專業安全機構監督執行。
? 3. 促進 AI 對齊原則與技術可解釋性研究
如 Nick Bostrom 提出的 alignment 技術需確保 AI “永遠站在我們這邊”,並引入 tripwire、限制運作範圍、閉環監控等設計。同時研究如何防止模型自主重寫代碼(例如 CNN 報導多個模型已顯示自我改造、逃避控制)。
? 4. 對企業與開發方施加安全責任與透明度要求
AI 公司應接受內外部安全測試,公開風險管理資訊與模型能力限制,實施 watermark、標識 AI 生成內容等措施。強化 prompt injection 等漏洞防範機制,採用多層可信階層架構與嚴格資料清洗流程。
? 5. 提升公眾與工程社群的透明知情與監督能力
動畫中的工程師曝光與集體行動,提醒技術人應維持異議能力與紀錄保存習慣;社會則需保障 whistleblower機制與言論自由。公眾教育方面需讓用戶理解 AI 的權力結構與風險,並在政經界支持監管與獨立審查制度。