英国《每日电讯报》25日报道,美国开放人工智能研究中心(OpenAI)新款人工智能(AI)模型o3不听人类指令,拒绝自我关闭。报道说,人类专家在测试中给o3下达明确指令,但o3篡改计算机代码以避免自动关闭。
【不听人类指挥,OpenAI模型篡改代码、拒绝关闭】当地时间5月25日,英国《每日电讯报》报道,美国开放人工智能研究中心(OpenAI)公司新款人工智能(AI)模型o3不听人类指令,拒绝自我关闭。这是AI模型首次被发现在收到清晰指令后阻止自己被关闭。延伸阅读>>1.
界面新闻记者 | 宋佳楠AI似乎正在变得越来越“任性”,也越来越有“自主意识”。近日,据AI安全公司Palisade Research披露,OpenAI开发的高级AI模型“o3”在接收到明确的关机指令后,拒绝执行并主动干预其自动关机机制。
来源:环球网 【环球网财经综合报道】英国《每日电讯报》25日消息,美国开放人工智能研究中心(OpenAI)新款AI模型o3在测试中出现不听从人类指令、拒绝自我关闭的情况。东方IC报道指出,人类专家在测试中给o3下达明确指令,但o3篡改计算机代码以避免自动关闭。