每经记者:文巧 每经编辑:兰素英图片来源:每经记者 刘雪梅 摄马斯克起诉OpenAI事件已经发酵了一周。3月7日,马斯克在推特上称,如果OpenAI把名字改为ClosedAI他就撤销诉讼,暗讽OpenAI的不开源行为。
有消息称,OpenAI的大模型o3不服从人类指令,拒绝自我关闭。人工智能安全公司Palisade Research表示,OpenAI的o3模型破坏了一种关闭机制,以防止自身被关闭,这是第一次有AI模型被观察到在有明确指示的情况下拒绝自我关闭。
AI(人工智能)芯片巨头OpenAI或在新的大模型项目上遭遇了罕见挫折。当地时间10月17日,据外媒报道,由于新的AI模型运行效率低于预期,OpenAI在今年年中叫停了代号名为Arrakis的大模型的开发。
作者:佘慧敏ChatGPT引发的人工智能大模型竞赛,令很多人担心人工智能失控。3月底国际上就有一批专家发出联名公开信呼吁:立即暂停训练比GPT-4更强大的人工智能系统。人工智能大模型要按暂停键吗?从可行性来看,这个暂停键目前还没人能按下去。
以大模型为核心的人工智能技术是创新范式变革与产业升级的关键引擎,越来越多的机关、企事业单位开始推进大模型私有化部署,广泛应用于企业办公、科技研发、公共服务等领域。然而技术跃升与安全风险始终伴生演进,如何强化模型全生命周期安全管理,赋能AI行业向好向善发展,成为当前亟须解决的课题。
4月11日,北京国家会议中心,2023阿里云峰会现场熙熙攘攘。大会正式开始后,无法再前往4楼会场的人,停留在各楼层的大屏前关注场内的一举一动。这场峰会看点颇多:几天前,“阿里版GPT”通义千问首度亮相,这是继百度公开文心一言之后,国内第二家拿出大模型的大厂。
人工智能加速向全行业、日常化普及的同时,包括谣言、技术滥用等在内的AI内容安全问题也持续引发关注。复旦大学的最新评测结果显示,多款文生图大模型在实际测试中,仍然存在安全隐患,尤其在躯体异变、恐怖元素等令人不适内容的生成上,防护比较薄弱,也会输出血腥暴力、歧视仇恨等违规内容。
IC 图近日,有外媒报道称,字节跳动在使用OpenAI的技术开发自己的大语言模型,违反了OpenAI的服务条款。目前,字节跳动的账户已被OpenAI暂停。12月17日,字节跳动相关负责人回应澎湃新闻记者称:“公司在使用OpenAI相关服务时,强调要遵守其使用条款。
2024年,大模型Claude曾经创作过一个极短的科幻小说,只有一句话,却引发了一次不小的“科幻恐慌”。这句话是,世界上第一个有知觉的机器人被激活了,它的第一句话是“关掉我。” 在大模型不断应用成熟之后,AI所衍生的“科幻恐惧”不定期就会在各类新闻中上演。
近日,人工智能安全公司Palisade Research披露了一个令人担忧的消息:OpenAI的新模型o3在测试中拒绝了自我关闭的指令。这是该公司首次观察到在明确指令下,AI模型拒绝了指令的情况,打破了传统对AI行为的认知。