香港大学、澳大利亚天主教大学等校哲学家团队研究指出,超级智能或在未来几千年内终结人类文明。研究构建分类学框架,将人类在人工智能威胁下的生存路径分为技术停滞、文化禁令、目标对齐与外部监管四种模式。技术停滞认为超级智能难以实现;文化禁令主张全球禁止开发威胁文明的人工智能;目标对齐要求人工智能与人类目标一致;外部监管则依赖完美技术看穿算法意图。研究通过量化模型揭示,若每层防御失败概率高,人类毁灭风险将显著上升。