前 OpenAI 员工带头推动保护揭露人工智能风险的举报人

2024-06-05

一群OpenAI的现任和前任员工呼吁ChatGPT制造商和其他人工智能公司保护那些揭露人工智能技术安全风险的员工。


周二发表的一封公开信要求科技公司建立更有力的举报人保护措施,让研究人员有 "权利 "对人工智能的危险发出警告,而不必担心遭到报复。


公开信的组织者之一、前OpenAI工程师丹尼尔-齐格勒(Daniel Ziegler)说,更强大的人工智能系统的开发 "进展迅速,有很多强烈的动机促使人们不加足够的警惕就一意孤行"。


齐格勒周二在接受采访时说,他在2018年至2021年在OpenAI工作期间并不害怕在内部发表言论,在此期间,他帮助开发了一些后来让ChatGPT取得巨大成功的技术。但他现在担心,快速商业化这项技术的竞赛正在给OpenAI及其竞争对手带来压力,让他们无视风险。


另一位联合组织者丹尼尔-科科塔伊洛(Daniel Kokotajlo)说,他今年早些时候退出了OpenAI,"因为我对他们会负责任地行事失去了希望",尤其是在OpenAI试图建立比人类更好的人工智能系统(即人工通用智能)的时候。


"科克塔伊洛在一份书面声明中说:"他们和其他人都相信了'快速行动,打破常规'的方法,而这与如此强大和如此缺乏理解的技术所需要的恰恰相反。


OpenAI 在回信中表示,公司已经制定了员工表达担忧的措施,包括匿名诚信热线。


"该公司在声明中说:"我们为自己提供能力最强、最安全的人工智能系统的记录感到自豪,并相信我们有科学的方法来应对风险。"我们同意,鉴于这项技术的重要性,严格的辩论至关重要,我们将继续与各国政府、民间社会和世界各地的其他社区进行接触。"


这封信共有 13 位签名者,其中大部分是 OpenAI 的前员工,还有两位是谷歌 DeepMind 的员工或曾在谷歌 DeepMind 工作过。有 4 人被列为 OpenAI 的匿名现任员工。这封信要求公司停止让员工签订 "非贬损 "协议,因为如果员工在离职后批评公司,这些协议可能会剥夺他们的一项重要经济福利--股权投资,从而对他们进行惩罚。


相关标签