AIGC宇宙 AIGC宇宙

Andrej Karpathy评DeepSeek-OCR论文:图像输入可能成为大语言模型新方向

特斯拉前自动驾驶负责人、OpenAI联合创始人Andrej Karpathy近日在推特上评论了开源的DeepSeek-OCR论文,提出了一个颇具启发性的观点:相比传统文本输入,图像作为大语言模型(LLM)的输入形式可能更加高效。 这一观点在AI研究社区引发了关于模型输入方式未来演进方向的讨论。 Karpathy认为,当前广泛使用的文本token输入方式可能既浪费又低效,未来研究或许应该转向图像输入。

特斯拉前自动驾驶负责人、OpenAI联合创始人Andrej Karpathy近日在推特上评论了开源的DeepSeek-OCR论文,提出了一个颇具启发性的观点:相比传统文本输入,图像作为大语言模型(LLM)的输入形式可能更加高效。这一观点在AI研究社区引发了关于模型输入方式未来演进方向的讨论。

Karpathy认为,当前广泛使用的文本token输入方式可能既浪费又低效,未来研究或许应该转向图像输入。他从几个维度阐述了图像输入相比文本输入的潜在优势。

首先是信息压缩率的提升。将文本渲染成图像后,可以用更少的视觉token传递更多信息。这是因为一个图像patch可以包含多个字符的信息,而在传统文本tokenization中,每个字符或子词都需要单独的token。在处理大规模上下文时,这种压缩可能显著提升模型效率,降低计算成本。

其次是信息表达的丰富性。图像输入天然支持加粗、颜色、字体大小、布局等视觉元素,这些格式信息在传统纯文本输入中要么丢失,要么需要通过额外的标记语言(如Markdown)来表示,后者又会增加token消耗。直接使用图像可以让模型更自然地理解文档的视觉结构和强调重点。

第三是注意力机制的优化空间。图像输入可以使用双向注意力机制,而传统的文本生成任务通常采用自回归的因果注意力。双向注意力能够让模型同时关注上下文的所有位置,通常能提供更强的理解能力。这种处理方式避免了自回归文本处理的一些固有限制。

Karpathy特别批评了tokenizer(分词器)的复杂性。他认为tokenizer是一个非端到端的历史遗留模块,引入了许多不必要的复杂性。例如,视觉上相同的字符可能因为来自不同Unicode编码而被映射到不同的token,导致模型对看似相同的输入产生不同的理解。去掉tokenizer直接处理图像,将使整个系统更加简洁统一。

从技术实现角度看,Karpathy的观点建立在视觉编码器已经相当成熟的基础上。Vision Transformer等架构已经能够高效处理图像输入,而DeepSeek-OCR等模型证明了视觉到文本的转换可以达到很高的准确率。将这种能力推广到所有文本处理任务,在技术上具有可行性。

不过Karpathy也指出了一个不对称性:虽然用户输入可以是图像,但模型输出仍需要保持为文本形式,因为生成逼真的图像仍然是一个未完全解决的问题。这意味着即使采用图像输入,模型架构仍需要支持文本生成,不能完全摒弃文本处理能力。

这一观点引发的讨论涉及多个层面。从效率角度看,如果图像输入确实能提高信息密度,在处理长文档和大规模上下文时将有明显优势。从统一性角度看,图像输入可以将文档理解、OCR、多模态问答等任务统一到同一框架下,简化模型架构。

但图像输入也面临挑战。首先是计算成本,虽然信息密度更高,但图像编码本身的计算开销可能抵消部分收益。其次是可编辑性,纯文本易于编辑和操作,而图像形式的"文本"在后续处理中会失去这种灵活性。第三是生态兼容性,现有的大量文本数据和工具链都基于字符/token表示,完全转向图像输入需要重建整个生态系统。

从研究方向来看,Karpathy的观点提示了一个有趣的可能性:随着视觉模型能力的提升,传统的"语言模型"可能演变为更通用的"信息处理模型",其中文本只是信息的一种呈现形式,而非唯一的输入表示。这种转变可能模糊语言模型和多模态模型之间的界限。

DeepSeek-OCR论文成为这一讨论的契机,说明OCR任务已经从单纯的字符识别演变为更深层的文档理解。如果OCR模型能够准确理解各种格式和布局的文本,那么将所有文本任务都视为"视觉理解"任务在概念上是合理的。

Karpathy的自嘲——"得控制住不要立刻去开发只支持图像输入的聊天机器人"——既表达了对这一想法的兴趣,也暗示了实际落地的复杂性。这种激进的架构转变需要大量实验验证,证明其在各种任务上的有效性,同时解决上述提到的各种实际挑战。

从产业应用角度看,即使图像输入最终被证明更优,过渡也会是渐进的。更可能的路径是混合模式:在需要保留视觉格式信息的场景使用图像输入,在需要灵活编辑和组合的场景使用文本输入。这种混合策略可以兼顾两种方式的优势。

总体而言,Karpathy的观点提出了一个值得深入探索的研究方向,挑战了文本token作为语言模型标准输入的固有假设。无论这一愿景是否完全实现,它都为思考模型输入表示的优化提供了新的视角,可能催生新一代更高效、更统一的AI架构。

相关资讯

DeepSeek R1模型发布0528版 各方面全面提升

DeepSeek官方宣布其R1模型已完成小版本试升级,并已开放给用户进行测试。 此次升级后的模型被命名为「DeepSeek-R1-0528」,在多项测试中展现出惊人的性能。 新版DeepSeek-R1-0528在编程能力、审美设计以及代码完成度上均实现了显著提升。
5/29/2025 8:00:50 AM
AI在线

OpenAI首席研究官:DeepSeek独立发现了o1的一些核心思路,奥特曼、LeCun纷纷置评

成本打下来了,需求更多才对? 春节这几天,国内外 AI 圈都被 DeepSeek 刷了屏。 英伟达的股市震荡更是让全世界看得目瞪口呆(参见《英伟达市值蒸发近 6000 亿美元,而 DeepSeek 刚刚又开源新模型》)。
1/29/2025 6:43:00 PM
机器之心

李彦宏谈DeepSeek:称大模型成本每年降低90%以上

近日,世界政府峰会(WGS)在阿联酋迪拜盛大开幕,吸引了全球各界精英的关注。 在峰会期间,百度创始人李彦宏与阿联酋AI部长进行了深入对话,共同探讨了AI领域的最新发展趋势。 李彦宏在对话中特别提到了百度在AI推理领域的创新成果——DeepSeek。
2/11/2025 5:48:00 PM
AI在线
  • 1