AI 带来灭绝风险?
其实不只是政府和国际机构,连 AI 的尖端 开发商 都对本身产品的潜在危险感到担忧。OpenAI 的总裁 奥尔特曼 ( Sam Altman ) 今年5月16日 在 美国 参议院司法委员 的听证会上,就主动要求加强对 AI 的监管,避免这种存在着 道德、法律 和 国家安全 隐患的技术被错误使用,对社会乃至世界带来伤害。5月30日,更有超过 350名 AI 科技业领袖 与 专家 发表联名公开信警告:“ 降低 AI 带来的 灭绝风险 应该成为全球优先事项,与 大流行病、核战争 等其他 社会规模的 风险并列。”
这不禁令人想起备受尊崇的已故 英国物理学家 霍金 ( Stephen Hawking ) 在 2014年 的预言:“ 全面的 AI 可能意味着 人类的 终结。”
AI 不受人类 控制 或被 坏人利用 的其他风险包括: 它可能被用于发展自主武器系统,威胁世界安全; AI 系统所掌控的大量数据可能被滥用,导致个人 隐私 被侵犯; 它在 音频 和 视频 方面的深伪 ( deepfake ) 技术可以用来制造 多媒体 假信息,进行诈骗或误导公众,扰乱社会治安等等。
持这类观点的 AI 精英 被称为“ 末日论者 ” ( doomers ), 他们认为应该在继续推进 AI 发展之前,采取严格的防范和监管措施。从最近的态势看来,他们似乎已渐处下风; 而与他们对立的“ 猛进论者 ” ( boomers ) 则人多势众,后者淡化对 AI 灾难的恐惧,而强调其推动人类进步的巨大潜力,主张迅速推进。
两派人马 不断在硅谷进行斗争,终于在 OpenAI 上个月 爆发的“ 政变 ”和“ 反政变 ”中达到高潮。
吊诡的是,今年5月 还倾向“ 末日论 ”的 奥尔特曼 如今却主张 迅速推进,结果他在 11月17日 被公司董事部 开除了。但过后形势急转突变,三天后 他又在公司最大 投资者微软 的支持和绝大多数员工的“ 起义 ”之下恢复了职位。
奥尔特曼 的胜利,是否意味着 企业界 的“ 猛进论者 ”从此将高歌猛进,不顾一切地推动 AI 的发展,目前还不清楚。但可以确定的是,各国 政府 以至 国际社会 对 AI 的风险日益关切,已经不再坐视不理了。
11月1日和2日,英国政府 在 布莱奇利园 ( Bletchley Park ) 主办了一个 AI 安全峰会,共有 28国 参加,除了 中美 这两个 AI 大国,还包括 欧盟成员、日本、韩国、印度、澳大利亚 和 新加坡 等。与会国签署了《 布莱奇利宣言 》,呼吁开发前沿 AI 技术 的参与者保持 透明度 和 问责制。
峰会的一个重要意义在于,中美 两国愿意在有关 AI 威胁 人类安全 的问题上进行 国际层面 的合作。
接踵而来的一个重要发展是,中国国家主席 习近平 和 美国总统 拜登 在 11月15日 的 旧金山峰会 上同意,两国应该通过 双边对话 来解决先进 AI 系统的风险。中美 在进行激烈的技术竞争之际还愿意在这方面进行 双边合作,反映了它们都认识到 AI 对 全人类 的潜在巨大威胁,程度不下于 核子军备 竞赛。
对 AI 的危害进行管控,看来将成为 中美 之间另一个“ 既竞争又合作 ”的领域,就像它们在 地缘政治中 的博弈那样,也类似 冷战时期 美苏两强 在展开 核军备 竞赛的同时也协调进行 核裁军 一样。但 AI 与 核武器 的最大不同是它不受政府 控制,而是掌控在 私人企业 手中,这大大增加了 国际合作的 困难和复杂性。
作为小国,新加坡 虽然可以通过 国际论坛 或 组织 发声,但对管控 AI“ 军备竞赛 ” 的影响毕竟有限。我们能做的是如何在发挥 AI 的 正能量 和 防范 AI 被滥用方面贡献一份力量。在这方面,我国早有筹谋,这可以从 政府 12月4日 发布的《 全国人工智能策略2.0 》 报告中明显看出。
对一般人来说,卫生部长 王乙康 11月21日 在北京举行的 第五届 新中论坛的演讲中说的这番话,也许可以作为座右铭:“ 我们要成为可以善用人工智能的人,来加强自身能力。未来的雇主不是在人类和人工智能之间选择,而是在一个会利用人工智能和一个不会利用的人之间做选择。此外,我们也须要学习如何‘ 做人 ’—— 做好不被机器替代的人。”
诚哉斯言! 既然我们无法摆脱 AI,不如就拥抱它好了。
作者 林任君 前报刊总编辑 撰写本文过程中曾与 ChatGPT 进行对话
.
|