来源:【深圳特区报】近日,来自华为诺亚方舟实验室、大连理工大学、香港大学和香港科技大学的研究团队推出了一个能够直接生成4K分辨率图像的DiT模型——PixArt-Σ,与前一代模型相比,其图像的清晰度明显提高,并能够更好地贴合文本提示。
5月16日上午,有消息称,华为在近期一场发布会上展示大模型文生图能力时,演示过程中出现time.sleep(6)代码。在业内看来,这一代码意味着“人为控制从输入到输出,过程6秒钟”,以此怀疑其图文结果并非大模型生成,而是人为操控。
参考消息网1月29日报道据新加坡《联合早报》网站1月28日报道,中国初创企业深度求索(DeepSeek)公布低成本大模型后,除夕当天(1月28日)再发布开源文字生成图像(文生图)大模型Janus-Pro 7B,该模型在基准测试中超越美国巨头OpenAI。
每经记者:王晶 每经编辑:张海妮近日,社交平台上一则“华为发布会翻车”的事件引发了广泛关注。据网友提供的图片,华为在近期一场发布会上展示大模型文生图能力时,演示过程中出现time.sleep(6)代码。
北京商报讯(记者 魏蔚)4月15日,可灵大模型2.0版本及可图大模型2.0版本正式面向全球发布。可灵2.0模型在动态质量、语义响应、画面美学等维度,保持全球领先;可图2.0模型在指令遵循、电影质感及艺术风格表现等方面显著提升。
来源:环球时报 近期,人工智能大模型在用户体验上取得了显著提升,发展与应用机遇不断涌现。例如在文本生成领域,人工智能大模型有望基于互联网文本生成针对某个事务相对更全面深入的分析,从而辅助人类更好地利用互联网信息解决问题。
图像生成领域传来了新进展,OpenAI在攻克“生成图像中的文字”方面的难题。北京时间3月26日凌晨,OpenAI进行了直播,对GTP-4o和Sora进行更新,在ChatGPT和Sora中推出GPT-4o的图像生成功能。
字节Seed团队视频生成基础模型,来了。Seaweed海藻,“Seed-Video”的缩写(真是好一个谐音梗!)。首发仅70亿参数,却能实现超越同类140亿参数视频模型的效果——它能根据文本描述创建各种分辨率(原生支持1280x720分辨率)、任意宽高比和时长的视频。
近日合肥企业智象未来宣布旗下HiDream-I1图像生成大模型与HiDream-E1交互编辑模型即将全面开源为全球开发者、创作者提供了前所未有的自由创作工具在Artificial Analysis图像竞技场图像生成模型榜单中,HiDream-I1在发布24小时内以硬核优势登顶,成
由人工智能大模型ChatGPT生成的“吉卜力风”图片近期刷爆全球社交媒体。只需输入类似于“用吉卜力风重绘图片”的指令,就能一键生成吉卜力动画风格的图片。吉卜力动画风格本就具有鲜明的艺术特色,深受全球观众喜爱,AI技术的多场景应用更是进一步推广了这种艺术形式。
AI图像生成进入“毫秒级”时代。5月16日,腾讯发布最新混元图像2.0模型(Hunyuan Image2.0),基于模型架构创新,在行业内率先实现实时生图,在画面质感超写实的基础上,带来全新的AI生图交互体验。模型于即日起在腾讯混元官方网站上线,并对外开放注册体验。