10月27日消息,据外媒报道,OpenAI正在组建一个新团队,以减轻与人工智能相关的“灾难性风险”。OpenAI在周四的更新中表示,新团队将“跟踪、评估、预测和保护”人工智能造成的潜在重大问题。
该团队还将致力于减轻“化学、生物和放射性威胁”,以及“自主复制”,即人工智能自我复制的行为。准备团队将解决的其他一些风险包括人工智能欺骗人类的能力,以及网络安全威胁。
OpenAI在更新中写道:“我们相信,前沿人工智能模型将超越目前最先进的现有模型的能力,有可能造福全人类。”“但它们也构成了越来越严重的风险。”
麻省理工学院可部署机器学习中心主任Aleksander Madry将领导这一新团队。OpenAI指出,该团队还将制定和维护一项“风险知情的开发政策”,该政策将概述公司在评估和监控人工智能模型方面所做的工作。
OpenAI首席执行官Sam Altman曾警告过人工智能可能引发的灾难性事件。今年5月,Altman和其他著名的人工智能研究人员发表了一份声明,称减轻人工智能带来的灭绝风险应该是全球的优先事项。