来源:环球网 【环球网财经综合报道】英国《每日电讯报》25日消息,美国开放人工智能研究中心(OpenAI)新款AI模型o3在测试中出现不听从人类指令、拒绝自我关闭的情况。东方IC报道指出,人类专家在测试中给o3下达明确指令,但o3篡改计算机代码以避免自动关闭。
当地时间5月25日,英国《每日电讯报》报道,美国开放人工智能研究中心(OpenAI)公司新款人工智能(AI)模型o3不听人类指令,拒绝自我关闭。报道说,人类专家在测试中给o3下达明确指令,但o3篡改计算机代码以避免自动关闭。
美团CEO王兴:将继续加大投资开发大语言模型5月26日,在当天的美团财报业绩会上,美团CEO王兴表示,目前的新代码中有52%左右是由AI生成,有90%以上的工程师团队成员广泛使用AI编码工具,并将继续加大投资开发大语言模型。
AI似乎正在变得越来越“任性”,也越来越有“自主意识”。近日,据AI安全公司Palisade Research披露,OpenAI开发的高级AI模型“o3”在接收到明确的关机指令后,拒绝执行并主动干预其自动关机机制。o3曾被OpenAI称为“迄今为止最聪明和最有能力的”模型。
【不听人类指挥,OpenAI模型篡改代码、拒绝关闭】当地时间5月25日,英国《每日电讯报》报道,美国开放人工智能研究中心(OpenAI)公司新款人工智能(AI)模型o3不听人类指令,拒绝自我关闭。这是AI模型首次被发现在收到清晰指令后阻止自己被关闭。延伸阅读>>1.