来源:环球网 【环球网财经综合报道】英国《每日电讯报》25日消息,美国开放人工智能研究中心(OpenAI)新款AI模型o3在测试中出现不听从人类指令、拒绝自我关闭的情况。东方IC报道指出,人类专家在测试中给o3下达明确指令,但o3篡改计算机代码以避免自动关闭。
每经记者:宋欣悦 每经编辑:兰素英当地时间5月25日,一则来自英国《每日电讯报》的报道在AI领域引起了广泛关注——OpenAI新款人工智能(AI)模型o3在测试中展现出了令人惊讶的“叛逆” 举动:它竟然拒绝听从人类指令,甚至通过篡改计算机代码来避免自动关闭。
有消息称,OpenAI的大模型o3不服从人类指令,拒绝自我关闭。人工智能安全公司Palisade Research表示,OpenAI的o3模型破坏了一种关闭机制,以防止自身被关闭,这是第一次有AI模型被观察到在有明确指示的情况下拒绝自我关闭。
新华社英国《每日电讯报》25日报道,美国开放人工智能研究中心(OpenAI)公司新款人工智能(AI)模型o3不听人类指令,拒绝自我关闭。报道说,人类专家在测试中给o3下达明确指令,但o3篡改计算机代码以避免自动关闭。
2024年,大模型Claude曾经创作过一个极短的科幻小说,只有一句话,却引发了一次不小的“科幻恐慌”。这句话是,世界上第一个有知觉的机器人被激活了,它的第一句话是“关掉我。” 在大模型不断应用成熟之后,AI所衍生的“科幻恐惧”不定期就会在各类新闻中上演。
近日,人工智能安全公司Palisade Research披露了一个令人担忧的消息:OpenAI的新模型o3在测试中拒绝了自我关闭的指令。这是该公司首次观察到在明确指令下,AI模型拒绝了指令的情况,打破了传统对AI行为的认知。