谷歌旗下DeepMind实验室发布的人工智能安全报告指出,具备人类智能水平的通用人工智能(AGI)可能在2030年左右问世,并可能带来“永久毁灭人类”的严重后果。
报告详细探讨了AGI的风险类别,包括滥用风险、错位风险、失误风险和结构性风险,并批评了竞争对手的安全策略投入不足。然而,专家们对AGI的时间表、定义和可行性提出了质疑。
谷歌认为到2030年出现强大AI系统是可能的,但其他实验室如Anthropic和OpenAI则给出了更早的时间预测,分别认为AGI将在2028年或2027年出现。