12月29日消息,2024年诺贝尔物理学奖得主、素有“AI教父”之称的辛顿(Geoffrey Hinton)表示,AI有10%-20%可能性在未来30年内导致人类灭亡。
在访谈中,当主持人询问辛顿对可能出现的AI末日和10%发生机率是否有变化时,辛顿称没什么变化,还是10%到20%。
主持人则表示“机率增加了”,辛顿接着表示“如果一定要说,你看,我们以前从未和比我们聪明的东西打交道。”
他认为,建立AGI(通用人工智能)或比人类更聪明的系统,可能导致该技术躲过人类控制而构成人类生存威胁。
“因为我们现在所处的情况是,这个领域大多数专家都认为,也许未来20年内我们将开发出比人类更聪明的AI,这是一个非常可怕的想法。”辛顿表示。
辛顿直言:“仅仅依靠大型公司的利润动机,无法确保他们会安全开发技术。”,“唯一能迫使这些大型公司投入更多资源进行安全研究,正是政府的监管。”