站长之家(ChinaZ.com) 10月21日 消息:DeepSeek近日在GitHub平台开源其最新成果——DeepSeek-OCR模型,该模型通过创新的光学二维映射压缩技术,在长文本识别场景中实现97%的识别精度,为OCR领域树立新的技术标杆。
据技术文档披露,该模型采用双模块架构设计,由DeepEncoder视觉编码器与DeepSeek3B-MoE-A570M混合专家解码器构成。其中,DeepEncoder可在处理高分辨率图像时自动维持低激活状态,通过动态压缩生成最优数量的视觉特征令牌(visual tokens),较传统方法减少60%的计算冗余。
实验表明,当视觉令牌与文本令牌的比例控制在1:10时,模型识别准确率达97%;即便将压缩率提升至1:20,准确率仍保持60%以上,显著优于同类模型在极端压缩条件下的表现。
研究团队特别指出,这项突破性成果源于对"光学二维映射压缩"技术的深度探索。通过将图像特征转化为离散令牌序列,模型成功解决了长文本场景中视觉信息与语义输出的匹配难题。
该技术路径不仅为OCR系统的小型化提供可行方案,更对大语言模型的记忆管理机制研究具有重要启示——其动态压缩策略可类比为人工智能的"选择性遗忘"能力,为构建更高效的持续学习系统奠定基础。
项目地址:https://github.com/deepseek-ai/DeepSeek-OCR
Hugging Face:https://huggingface.co/deepseek-ai/DeepSeek-OCR