以下内容转载自36氪深度,远见网仅做呈现,不代表本网观点和立场。
OpenAI研究科学家陈博远在知乎上发了一篇文章,开头非常直接: “大家好,我是GPT Image团队的研究科学家陈博远。上周发布的GPT生图模型就是我主力训练的!” 他还提到,这次终于修好了模型的中文渲染。如果中文用户有什么反馈,可以直接回复他。 ChatGPT Images 2.0发布之后,很多人的第一反应是:这个模型的中文能力,强得有点不讲道理。 过去的图像模型多少有些“看不懂字”。它们能画风景、画人物,但一旦涉及中文,就很容易变成一团难以辨认的鬼画符。但GPT-image-2不一样,它不仅能写对字,还能排版、分段、生成带逻辑结构的中文信息图。 曾经那种“看文字判断是不是AI生成”的办法,到这一代已经行不通了。 陈博远是GPT Image 2训练和能力展示里真正站到前台的人之一。在发布会上,他和奥特曼一起演示了文字渲染能力。发布后,他又在知乎上解释了官网图片背后的很多花絮:LMArena双盲测试时,GPT Image 2曾用“duct-tape”(布基胶带)作为代号;官网blog里的很多图片,是他亲手用模型做出来的;中文漫画、米粒刻字、多语言文字、视觉证明、自动生成二维码,这些看
(来源:36氪深度,2026-05-02)

评论 抢沙发
围绕文章展开讨论,保持简洁、具体、可引用。