AI失控,是每個科幻小說迷都熟悉的可怕情節(jié)。
而在最近一次由AI安全研究公司組織的測試中,OpenAI的高級AI模型o3表現(xiàn)出了前所未有的“我行我素”——收到明確關(guān)機指令后,它不僅拒絕關(guān)閉,還主動破壞了自身的關(guān)機機制。
更離譜的是,這可不是因為系統(tǒng)受到了外部的惡意干預(yù),而是它自發(fā)做出的反應(yīng)。換句話說,這個AI像是在“本能地”保護自己不被關(guān)閉。這聽起來確實嚇人,究竟是怎么一回事兒呢?(張夢然 張佳欣 王小龍)